Skip to main content

Vuelve a la arena de los gladiadores: ChatGPT regresa a Italia

Luego de un mes de controversia y prohibición, ChatGPT volvió a estar disponible en Italia, luego de que su creador OpenAI  ha implementado cambios para satisfacer a los reguladores italianos. «ChatGPT está disponible de nuevo para nuestros usuarios en Italia», dijo en un comunicado publicado por The Associated Press. «Estamos muy contentos de darles la bienvenida de nuevo, y seguimos dedicados a proteger su privacidad».

OpenAI dijo que había «abordado o aclarado» los problemas planteados por la Autoridad Italiana de Protección de Datos (o GPDP) a fines de marzo. El GPDP acusó a ChatGPT de recopilar ilegalmente los datos de los usuarios y no evitar que los usuarios menores de edad accedieran a material inapropiado, lo que llevó a OpenAI a bloquear ChatGPT en el país. A la compañía se le dio 20 días para abordar los problemas.

Imagen utilizada con permiso del titular de los derechos de autor

Entre los cambios, OpenAI tiene un nuevo formulario que los usuarios de la UE pueden enviar para eliminar datos personales en virtud del Reglamento General de Protección de Datos (GDPR) de Europa. También dice que una nueva herramienta verificará las edades de los usuarios al registrarse en Italia, y publicó un artículo del centro de ayuda que describe cómo OpenAI y ChatGPT recopilan información personal, incluida información sobre cómo ponerse en contacto con su oficial de protección de datos ordenado por GDPR.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Tu historial de conversaciones de ChatGPT ahora se puede buscar
ChatGPT: qué es y cómo usar el chatbot del que todo el mundo habla.

IA abierta
OpenAI presentó el martes una nueva forma de administrar de manera más eficiente su creciente historial de chat de ChatGPT: una función de búsqueda para la aplicación web. Con él, podrás sacar rápidamente a la luz referencias y chats anteriores para citar dentro de tu conversación actual de ChatGPT.

"Estamos comenzando a implementar la capacidad de buscar en su historial de chat en la web de ChatGPT", anunció la compañía a través de una publicación en X (anteriormente Twitter). "Ahora puedes abrir rápida y fácilmente un chat como referencia, o retomar un chat donde lo dejaste".

Leer más
El mismo Apple cree que Siri no está listo para vencer a ChatGPT
Un iPhone con el logo de Siri encima y al lado la frase que dice: "Hey Siri".

Con la presentación del nuevo iPad Mini, Apple dejó claro que una experiencia de software rebosante de IA es el camino a seguir. Y si eso significara hacer el mismo tipo de actualizaciones internas a una tableta que cuesta casi la mitad que su teléfono insignia, la compañía aún seguiría adelante.

Sin embargo, sus ambiciones con Apple Intelligence carecen de vigor competitivo, e incluso para los propios estándares de Apple, la experiencia no ha logrado sorprender a los usuarios. Además de eso, el despliegue escalonado de las funciones de IA más ambiciosas, muchas de las cuales aún están en el futuro, ha dejado a los entusiastas con una mala impresión.

Leer más
¿Qué son las “alucinaciones” y por qué son un peligro en la IA?
Cómo usar ChatGPT, el chatbot del que todo el mundo habla.

Desde su lanzamiento en 2020, ChatGPT se convirtió en sinónimo de inteligencia artificial. Y es que este chatbot, un Large language model o modelo de lenguaje amplio ha probado ser fantástico para proporcionar respuestas convincentes y magistralmente redactactas sobre prácticamente todo tipo de tema, casi como si fuera una especie de Google superdotado. Sin embargo, aún cuando la versión más reciente, GPT-4o, es capaz de generar y entender texto, imágenes y sonido, ChatGPT y otros chatbots LLM pueden caer en “alucinaciones”. Aquí te explicamos qué son las alucinaciones de ChatGPT y por qué son un peligro en la IA.
¿Qué es una alucinación en inteligencia artificial?

Una alucinación es simplemente un chatbot diciendo una mentira, un sinsentido o un simplemente un bulo. Son potencialmente peligrosas porque, a medida que las personas confían más y más en herramientas como ChatGPT la sociedad se vuelve más propensa a caer en desinformación.

Leer más