Skip to main content

Esta característica de ChatGPT amplía enormemente la usabilidad

ChatGPT es una aplicación simple y directa. Es una caja vacía para escribir, y no mucho más.

Pero según el entusiasta de la IA Rowan Cheung, algunos usuarios de ChatGPT Plus han informado que se está probando y se implementará una nueva función que agregará algunas formas de reducir sus indicaciones para obtener una respuesta un poco más específica.

Recommended Videos

🚨Breaking:

Some ChatGPT users are reporting a new mini toggle helper.

This will allow users to prompt ChatGPT much faster, and could be the start of prompt templates 👀
pic.twitter.com/rihWF3FyMA

— Rowan Cheung (@rowancheung) March 29, 2023

En el video publicado por Cheung, puede ver un menú desplegable con acciones simples como formas de ajustar los resultados proporcionados. Puede aclarar, ejemplificar, ampliar, explicar, reescribir o acortar. No es difícil ver cómo este tipo de menú le permitiría identificar el tipo exacto de resultado que está buscando.

Este tipo de herramientas son características con las que hemos visto experimentar a Microsoft en su herramienta Bing Chat, que también se basa en los grandes modelos de lenguaje de OpenAI. Puede seleccionar entre diferentes tonos, formatos y longitudes, así como elegir entre sus paneles Chat, Redactar y Insights. Incluso más allá de esas opciones, Bing Chat le ofrece la opción más amplia de modos Creativo, Equilibrado y Preciso, que los convierten en herramientas más fáciles de usar para un principiante. Microsoft tiene una forma similar de ajustar las respuestas integradas en su Bing Image Creator y otras implementaciones de Microsoft Office Copilot.

Sin embargo, este tipo de menús y opciones también pueden comenzar a parecer que limitan la creatividad del usuario. Ser capaz de pedirle a la IA que haga cualquier cosa es lo que la hace tan poderosa.

Hasta ahora no ha habido ninguna indicación de si los nuevos menús desplegables serán una característica permanente de ChatGPT Plus, o si es solo algo que OpenAI está probando actualmente.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
o1: OpenAI sube otro peldaño con IA que piensa de manera más compleja
o1 openai pensamiento complejo

Catherine Brownstein: OpenAI o1 & Genetics

Un nuevo escalón evolutivo acaba de subir OpenAI en su carrera por encontrar el modelo perfecto de IA, ya que este 12 de septiembre presentó o1, un sistema que se integrará a ChatGPT y está pensado para dar respuestas más complejas a preguntas más difíciles, específicamente ideado para campos laborales, de estudio y empresas.

Leer más
5 consideraciones de por qué la inteligencia artificial podría estar sobrevalorada
ChatGPT: qué es y cómo usar el chatbot del que todo el mundo habla.

¿La inteligencia artificial está sobrevalorada? ¿Qué tal si inadvertidamente frente a nosotros se ha gestado la próxima gran crisis financiera? Bueno, varios se han hecho la pregunta. Hace poco me encontré con esta publicación de Greg Rosalsky, anfitrión del podcast Planet Money para NPR. Recomiendo totalmente que lo escuches si la pregunta que abre este artículo te parece relevante. A mí, un reportero de tecnología que prácticamente escucha, lee o quizá prueba alguna nueva aplicación supuestamente basada en inteligencia artificial, me da la impresión de que efectivamente lo está, y ruego que lo segundo no ocurra jamás. Como sea, después de escuchar su podcast y leer este artículo, quiero resumir los aspectos que me parecen más llamativos sobre por qué, efectivamente, la inteligencia artificial está sobrevalorada.
En realidad no es inteligente

¿Todos hablan de ChatGPT, cierto? Aunque actúa como un sistema que puede responder prácticamente la pregunta que le hagas, este y otros modelos de lenguaje actúan como una especie de agregador de lo mejor que pueden hallar en internet y lanzarlo a un recuadro de texto de forma más o menos coherente y legible. Si preguntas cuestiones básicas como qué es la religión o le pides escribir un artículo sobre todo lo que se sabe del iPhone 15, lo más probable es que los resultados parecerán excelsos. Pero si le preguntas alguna cuestión moralmente compleja y que involucre cierta verificación de datos lo más probable es que termine lanzando alguna barbaridad.
Su “fuente” de inteligencia se está agotando o ya le está cobrando
Fuera del medio tecnológico y económico el caso no ha tenido gran resonancia, pero varias compañías de medios de comunicación, por ejemplo The New York Times, comenzaron a demandar a empresas como OpenAI por utilizar sus artículos como “alimentos” para su modelo de lenguaje. 

Leer más
¿ChatGPT tendrá una marca de agua para pillar a los tramposos?
ChatGPT: qué es y cómo usar el chatbot del que todo el mundo habla.

Muchos profesores e incluso empleadores se están quejando que varios trabajos están siendo realizados casi cien por ciento con el uso de ChatGPT, y la tarea se dificulta para ellos de saber si lo que están leyendo es original o plagiado.

Y para eso, según The Wall Street Journal, OpenAI está debatiendo si realmente debe lanzar una nueva herramienta: una marca de agua para detectar tramposos.
En una declaración proporcionada a TechCrunch, un portavoz de OpenAI confirmó que la compañía está investigando el método de marca de agua de texto, pero dijo que está adoptando un "enfoque deliberado" debido a "las complejidades involucradas y su probable impacto en el ecosistema más amplio más allá de OpenAI".
"El método de marca de agua de texto que estamos desarrollando es técnicamente prometedor, pero tiene riesgos importantes que estamos sopesando mientras investigamos alternativas, incluida la susceptibilidad a la elusión por parte de malos actores y el potencial de afectar desproporcionadamente a grupos como los que no hablan inglés", dijo el portavoz.
Tras la publicación de la historia del Journal, OpenAI también actualizó una entrada de blog de mayo sobre su investigación sobre la detección de contenidos generados por IA. La actualización dice que la marca de agua de texto ha demostrado ser "altamente precisa e incluso efectiva contra la manipulación localizada, como la paráfrasis", pero ha demostrado ser "menos robusta contra la manipulación globalizada; como usar sistemas de traducción, reformular con otro modelo generativo o pedirle al modelo que inserte un carácter especial entre cada palabra y luego eliminar ese carácter".
Como resultado, OpenAI escribe que este método es "trivial para la elusión por parte de malos actores". La actualización de OpenAI también se hace eco del punto del portavoz sobre los no angloparlantes, escribiendo que la marca de agua de texto podría "estigmatizar el uso de la IA como una herramienta de escritura útil para los hablantes no nativos de inglés".

Leer más