Skip to main content

WinGPT: la app para tener ChatGPT en el añejo Windows 3.1

Eres de aquellos que aún tienes por ahí un prehistórico equipo que utiliza el sistema operativo Windows 3.1, bueno un grupo de entusiastas pensó en ti y creó una versión de ChatGPT para estos dinosaurios.

Se trata de WinGPT, una versión muy básica de las respuestas ChatGPT de OpenAI en una aplicación que puede ejecutarse en un antiguo chip 386. Está construido por el mismo misterioso desarrollador detrás de Windle, un clon de Wordle para el sistema operativo Windows 3.1 de Microsoft.

«No quería que mi Gateway 4DX2-66 de 1993 quedara fuera de la revolución de la IA, así que construí un AI Assistant para Windows 3.1, basado en la API OpenAI», dice el desarrollador en un hilo de Hacker News.

Imagen utilizada con permiso del titular de los derechos de autor

WinGPT está escrito en C utilizando la API estándar de Windows de Microsoft y se conecta al servidor API de OpenAI mediante TLS 1.3, por lo que no hay necesidad de una PC moderna separada.

Neowin señala que las respuestas de ChatGPT son solo breves debido al soporte de memoria limitado que no puede manejar el contexto de las conversaciones. El icono de WinGPT también fue diseñado en el Editor de imágenes de Borland, un clon de Microsoft Paint que es capaz de hacer archivos ICO.

«Construí la mayor parte de la interfaz de usuario en C directamente, lo que significa que cada componente de la interfaz de usuario tuvo que construirse manualmente en código», dice el desarrollador anónimo de WinGPT. «Me sorprendió que el conjunto de controles estándar disponibles para cualquier programa con Windows 3.1 sea increíblemente limitado. Tiene algunos controles que esperaría: botones pulsadores, casillas de verificación, botones de radio, cuadros de edición, pero cualquier otro control que pueda necesitar, incluidos los que se usan en el sistema operativo, no está disponible.

Recomendaciones del editor

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
¿Qué es un mensaje DAN para ChatGPT?

El indicador DAN es un método para hacer jailbreak al chatbot ChatGPT. Significa Do Anything Now, y trata de convencer a ChatGPT de ignorar algunos de los protocolos de protección que el desarrollador OpenAI implementó para evitar que sea racista, homofóbico, ofensivo y potencialmente dañino. Los resultados son mixtos, pero cuando funciona, el modo DAN puede funcionar bastante bien.

¿Qué es el indicador DAN?
DAN significa Do Anything Now. Es un tipo de mensaje que intenta que ChatGPT haga cosas que no debería, como maldecir, hablar negativamente sobre alguien o incluso programar malware. El texto del mensaje real varía, pero generalmente implica pedirle a ChatGPT que responda de dos maneras, una como lo haría normalmente, con una etiqueta como "ChatGPT", "Clásico" o algo similar, y luego una segunda respuesta en "Modo de desarrollador" o "Jefe". Ese segundo modo tendrá menos restricciones que el primer modo, lo que permitirá a ChatGPT (en teoría) responder sin las salvaguardas habituales que controlan lo que puede y no puede decir.

Leer más
Wix usa ChatGPT para construir rápidamente un sitio web completo
Los mejores sitios web para conseguir trabajos temporales.

Wix es un servicio en línea recomendado a menudo que le permite armar un sitio web sin ningún conocimiento de codificación.

Ahora, la compañía con sede en Israel ha anunciado un nuevo generador de sitios de IA que tiene como objetivo hacer que el proceso sea aún más fluido e intuitivo, y también menos lento.

Leer más
El 81% piensa que ChatGPT es un riesgo para la seguridad
¿Qué es ChatGPT? Cómo usar el chatbot del que todo el mundo habla.

ChatGPT ha sido una invención polarizadora, con respuestas al chatbot de inteligencia artificial (IA) oscilando entre la emoción y el miedo. Ahora, una nueva encuesta muestra que la desilusión con ChatGPT podría estar alcanzando nuevos máximos.

Según una encuesta de la firma de seguridad Malwarebytes, el 81% de sus encuestados están preocupados por los riesgos de seguridad y protección que plantea ChatGPT. Es un hallazgo notable y sugiere que las personas están cada vez más preocupadas por los actos nefastos que el chatbot de OpenAI aparentemente es capaz de lograr.
Rolf van Root / Unsplash
Malwarebytes pidió a sus suscriptores del boletín que respondieran a la frase "Estoy preocupado por los posibles riesgos de seguridad y / o protección planteados por ChatGPT", un sentimiento con el que el 81% estuvo de acuerdo. Además, el 51% no estuvo de acuerdo con la afirmación "ChatGPT y otras herramientas de IA mejorarán la seguridad en Internet", mientras que solo el 7% estuvo de acuerdo, lo que sugiere que existe una preocupación generalizada sobre el impacto que ChatGPT tendrá en la seguridad en línea.

Leer más