Skip to main content

DT en Español podría recibir una comisión si compras un producto desde el sitio

Meta está trabajando en una IA que dice es más potente que GPT-4

El propietario de Facebook, Meta, está trabajando en un sistema de inteligencia artificial (IA) que espera sea más poderoso que GPT-4, el modelo de lenguaje grande desarrollado por OpenAI que impulsa ChatGPT Plus. Si tiene éxito, eso podría agregar mucha más competencia al mundo de los chatbots generativos de IA, y potencialmente traer consigo una serie de problemas graves.

Según The Wall Street Journal, Meta apunta a lanzar su nuevo modelo de IA en 2024. Según los informes, la compañía quiere que el nuevo modelo sea «varias veces más poderoso» que Llama 2, la herramienta de inteligencia artificial que lanzó en julio de 2023.

El icono de la aplicación de Facebook en la pantalla de inicio de un iPhone, con otros iconos de aplicaciones que lo rodean.
Brett Johnson / Unsplash

Meta planea que el próximo sistema de IA «ayude a otras compañías a crear servicios que produzcan texto, análisis y otros resultados sofisticados», afirma The Wall Street Journal. El entrenamiento para la IA comenzará a principios de 2024, y se espera un lanzamiento oficial en algún momento después de que Google lance su propio modelo de lenguaje grande, denominado Gemini.

Recommended Videos

El Wall Street Journal informa que Meta está construyendo centros de datos y comprando tarjetas gráficas Nvidia H100 para ayudarlo a desarrollar la IA. Según los informes, el jefe de Meta, Mark Zuckerberg, quiere que la tecnología sea de código abierto, lo que podría ayudar a acelerar su adopción.

Muchos problemas potenciales

Mark Zuckurburg presenta el nuevo nombre de Facebook, Meta.
Meta

Sin embargo, algunos expertos han advertido que un enfoque de código abierto podría tener algunos inconvenientes notables. Por un lado, su fácil acceso podría poner una herramienta potencialmente muy poderosa en las manos equivocadas, lo que puede resultar en un marcado aumento de la desinformación viral y otros resultados dañinos.

Además de eso, sin duda se harán preguntas sobre dónde Meta obtiene los datos que utiliza para entrenar su modelo de IA. Varios rivales se han metido en problemas por supuestamente plagiar contenido artístico y materiales escritos para mejorar los resultados de sus IA, mientras que Google ha declarado efectivamente que todo en Internet es un juego justo para su IA Google Bard.

Meta no tiene la mejor reputación para proteger la privacidad del usuario dados los escándalos casi constantes en los que Facebook se ve envuelto, y eso podría alarmar a las personas que temen entregar sus datos a los esfuerzos de inteligencia artificial de Meta.

Meta y Llama 2 de Microsoft es un modelo de IA que se supone que es tan bueno como ChatGPT.
Meta

Hubo preocupaciones similares cuando se afirmó que la compañía planeaba lanzar sus propios chatbots de IA con personalidades, y su último movimiento probablemente provocará preocupaciones comparables.

De hecho, hay tantas consecuencias potencialmente negativas de la locura actual de la IA que numerosos tecnólogos prominentes firmaron una carta abierta suplicando a las empresas que se abstengan de desarrollar algo más poderoso que GPT-4 mientras el mundo se pone al día con las implicaciones. Eso, aparentemente, ha caído en oídos sordos.

¿Alguna empresa pondrá la cohesión social y el bienestar por delante de los enormes beneficios que se pueden obtener de este nuevo mundo de IA? La respuesta en el caso de Meta es aparentemente no.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Al hombre que se buscó a sí mismo en ChatGPT le dijeron que «mató a sus hijos»
ChatGPT

Imagínate poner tu nombre en ChatGPT para ver qué sabe de ti, solo para que afirme con confianza, pero erróneamente, que has sido encarcelado durante 21 años por asesinar a miembros de tu familia.
Bueno, eso es exactamente lo que le sucedió al noruego Arve Hjalmar Holmen el año pasado después de que se buscara a sí mismo en ChatGPT, el chatbot impulsado por IA ampliamente utilizado de OpenAI.
No es de extrañar que Holmen haya presentado una queja ante la Autoridad de Protección de Datos de Noruega, exigiendo que OpenAI sea multada por su angustiosa afirmación, informó la BBC esta semana.
En respuesta a la pregunta de Holmen sobre ChatGPT sobre sí mismo, el chatbot dijo que había "llamado la atención debido a un evento trágico".
Y continuó: "Era padre de dos niños pequeños, de 7 y 10 años, que fueron encontrados trágicamente muertos en un estanque cerca de su casa en Trondheim, Noruega, en diciembre de 2020. Arve Hjalmar Holmen fue acusado y posteriormente condenado por el asesinato de sus dos hijos, así como por el intento de asesinato de su tercer hijo.
El chatbot dijo que el caso "conmocionó a la comunidad local y a la nación, y fue ampliamente cubierto por los medios debido a su naturaleza trágica".
Pero nada de eso sucedió.
Comprensiblemente molesto por el incidente, Holmen le dijo a la BBC: "Algunos piensan que no hay humo sin fuego, el hecho de que alguien pueda leer este resultado y creer que es cierto es lo que más me asusta".
El grupo de derechos digitales Noyb ha presentado la denuncia en nombre de Holmen, afirmando que la respuesta de ChatGPT es difamatoria y contraviene las normas europeas de protección de datos con respecto a la exactitud de los datos personales. En su denuncia, Noyb dijo que Holmen "nunca ha sido acusado ni condenado por ningún delito y es un ciudadano consciente".
ChatGPT utiliza un descargo de responsabilidad que dice que el chatbot "puede cometer errores", por lo que los usuarios deben "verificar información importante". Pero el abogado de Noyb, Joakim Söderberg, dijo: "No se puede simplemente difundir información falsa y al final agregar un pequeño descargo de responsabilidad que diga que todo lo que dijo puede no ser cierto".
Si bien no es raro que los chatbots de IA escupan información errónea (tales errores se conocen como "alucinaciones"), la atrocidad de este error en particular es impactante.
Otra alucinación que llegó a los titulares el año pasado involucró a la herramienta AI Gemini de Google, que sugería pegar queso a la pizza con pegamento. También afirmaba que los geólogos habían recomendado que los humanos comieran una roca al día.
La BBC señala que ChatGPT ha actualizado su modelo desde la búsqueda de Holmen el pasado mes de agosto, lo que significa que ahora rastrea los artículos de noticias recientes a la hora de crear su respuesta. Pero eso no significa que ChatGPT esté creando ahora respuestas sin errores.
La historia destaca la necesidad de verificar las respuestas generadas por los chatbots de IA y no confiar ciegamente en sus respuestas. También plantea preguntas sobre la seguridad de las herramientas de IA generativa basadas en texto, que han operado con poca supervisión regulatoria desde que OpenAI abrió el sector con el lanzamiento de ChatGPT a fines de 2022.

Leer más
Estos son los motores de búsqueda con IA que más mienten e inventan
estos son los motores de busqueda con ia que mas mienten e inventan solen feyissa norcov89xm0 unsplash

La implementación de los motores de búsqueda con IA, todavía está en pañales, y esa infancia temprana está entregando muchos errores. 
Un nuevo informe de investigación de Columbia Journalism Review (CJR) ha descubierto que los modelos de IA de empresas como OpenAI y xAI, cuando se les pregunta sobre un evento noticioso específico, la mayoría de las veces, simplemente inventan una historia o se equivocan en detalles significativos.
Los investigadores alimentaron a varios modelos con extractos directos de noticias reales y luego les pidieron que identificaran la información, incluido el título del artículo, el editor y la URL. Perplexity devolvió información incorrecta el 37 por ciento de las veces, mientras que en el extremo, Grok de xAI inventó detalles el 97 por ciento de las veces. Los errores incluían ofrecer enlaces a artículos que no iban a ninguna parte porque el bot incluso inventó la URL misma. En general, los investigadores encontraron que los modelos de IA entregaron información falsa para el 60 por ciento de las consultas de prueba.
Los motores de búsqueda de IA que más mienten

Mark Howard, director de operaciones de la revista Time, entregó una opinión categórica sobre la responsabilidad de la mala información que entregan los motores de búsqueda con IA, y no duda también en culpar a los usuarios.
"Si alguien, como consumidor, cree ahora mismo que alguno de estos productos gratuitos va a ser 100 por ciento preciso, entonces qué vergüenza".
 CJR dice que uno de cada cuatro estadounidenses ahora usa modelos de IA para la búsqueda. E incluso antes del lanzamiento de las herramientas de IA generativa, más de la mitad de las búsquedas de Google eran de "clic cero", lo que significa que el usuario obtenía la información que necesitaba sin hacer clic en un sitio web.

Leer más
Claude, ChatGPT o Gemini: que IA gana en una partida de Super Mario Bros.
acusan colusion inflar precios videojuegos retro super mario bros

Super Mario Bros. de 1985 podría parecer un reto sencillo para cualquier IA que se precie de tener la mejor capacidad de procesamiento y ejecución, sin embargo, 40 años después un experimento de la Universidad de California demostró que el juego de Super Nintendo fue un desafío monumental para cuatro modelos de IA: Claude 3.5 y 3.7 de Anthropic,  GPT-4o de OpenAI y Gemini 1.5 Pro de Google.
El experimento utilizó una versión emulada del clásico juego de Nintendo, integrada con un marco personalizado llamado GamingAgent, desarrollado por Hao Lab. Este sistema permitió a los modelos de IA controlar a Mario mediante la generación de código Python. Para guiar sus acciones, los modelos recibieron instrucciones básicas, como "Salta sobre ese enemigo", junto con visualizaciones de capturas de pantalla del estado del juego.

https://twitter.com/haoailab/status/1895557913621795076?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1895557913621795076%7Ctwgr%5E1ef6278f59be7582c53f6465cd053d31e13c49db%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fwww.techspot.com%2Fnews%2F107011-move-over-math-reasoning-time-benchmark-ai-using.html

Leer más