Skip to main content

Sam Altman dice que la IA es como: Photoshop, pero con esteroides

El CEO de OpenAI, Sam Altman, visitó este martes 16 de mayo el Congreso de Estados Unidos, ante un subcomité judicial del Senado, para responder sobre las dudas que genera la IA y sobre todo su posible regulación.

Altman dijo sobre la comprensión del público de ChatGPT y la IA generadora de texto: «Durante un tiempo, PhotoShop engañó a la gente. Luego desarrollaron rápidamente una comprensión en torno a las imágenes alteradas. Esto será así, pero con esteroides».

Digital Trends Español

Los legisladores que interrogaron a Altman el martes dijeron que lo que estaba en juego era grave. En su declaración de apertura, el senador de Missouri Josh Hawley AI podría tomar una de dos rutas: una nueva imprenta o una bomba atómica.

«Podríamos estar viendo una de las innovaciones tecnológicas más importantes en la historia de la humanidad», dijo Hawley. «Es realmente como la invención de Internet a escala, al menos».

Durante el testimonio, Altman recomendó a los legisladores buscar nuevos conjuntos de requisitos de seguridad que podrían probar los productos antes de que sean lanzados. Altman sugirió que los nuevos requisitos de prueba y licencia para los desarrolladores de IA podrían ayudar a establecer un campo de juego nivelado para la competencia. El CEO pareció abierto a una recomendación del senador Blumenthal y otros para considerar una «etiqueta nutricional para la IA» y otras propuestas de transparencia, pero advirtió que al decir que todavía cree que los beneficios de la IA «superan los riesgos». Los requisitos de seguridad, según Altman, deberán ser lo suficientemente flexibles como para adaptarse a los nuevos avances potencialmente imprevistos en la tecnología.

«Creemos que la intervención regulatoria de los gobiernos será crucial», dijo Altman.

Altman dijo que creía que sus productos y otros servicios de IA tendrían un «impacto significativo en los empleos», pero señaló que no está claro exactamente cómo se desarrollará. Por ahora, Altman dijo que GTP4 y otros sistemas de IA sobresalen en completar tareas, pero no son competentes para completar trabajos completos.

«Creo que habrá muchos más empleos al otro lado de esto», dijo Altman.

Recomendaciones del editor

Topics
Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
ChatGPT está violando su privacidad dice la GDPR
ChatGPT

Desde que las primeras herramientas generativas de inteligencia artificial (IA) explotaron en la escena tecnológica, ha habido preguntas sobre dónde obtienen sus datos y si están recolectando sus datos privados para entrenar sus productos. Ahora, el fabricante de ChatGPT, OpenAI, podría estar en problemas exactamente por estas razones.

Según TechCrunch, se ha presentado una queja ante la Oficina Polaca de Protección de Datos Personales alegando que ChatGPT viola una gran cantidad de reglas que se encuentran en el Reglamento General de Protección de Datos (GDPR) de la Unión Europea. Sugiere que la herramienta de OpenAI ha estado recogiendo datos de usuarios en todo tipo de formas cuestionables.
Joe Maring / DT
La queja dice que OpenAI ha violado las reglas del GDPR sobre bases legales, transparencia, equidad, derechos de acceso a datos y privacidad por diseño.

Leer más
Hackers están usando IA para crear malware vicioso, dice el FBI

El FBI ha advertido que los hackers se están volviendo locos con herramientas generativas de inteligencia artificial (IA) como ChatGPT, creando rápidamente código malicioso y lanzando olas de delitos cibernéticos que habrían requerido mucho más esfuerzo en el pasado.

El FBI detalló sus preocupaciones en una llamada con periodistas y explicó que los chatbots de IA han alimentado todo tipo de actividades ilícitas, desde estafadores y estafadores que perfeccionan sus técnicas hasta terroristas que consultan las herramientas sobre cómo lanzar ataques químicos más dañinos.
Sora Shimazaki / Pexels
Según un alto funcionario del FBI (a través de Tom's Hardware), "esperamos que con el tiempo a medida que continúe la adopción y democratización de los modelos de IA, estas tendencias aumenten". Los malos actores están utilizando la IA para complementar sus actividades delictivas regulares, continuaron, incluido el uso de generadores de voz de IA para hacerse pasar por personas de confianza con el fin de estafar a sus seres queridos o ancianos.

Leer más
El 81% piensa que ChatGPT es un riesgo para la seguridad
¿Qué es ChatGPT? Cómo usar el chatbot del que todo el mundo habla.

ChatGPT ha sido una invención polarizadora, con respuestas al chatbot de inteligencia artificial (IA) oscilando entre la emoción y el miedo. Ahora, una nueva encuesta muestra que la desilusión con ChatGPT podría estar alcanzando nuevos máximos.

Según una encuesta de la firma de seguridad Malwarebytes, el 81% de sus encuestados están preocupados por los riesgos de seguridad y protección que plantea ChatGPT. Es un hallazgo notable y sugiere que las personas están cada vez más preocupadas por los actos nefastos que el chatbot de OpenAI aparentemente es capaz de lograr.
Rolf van Root / Unsplash
Malwarebytes pidió a sus suscriptores del boletín que respondieran a la frase "Estoy preocupado por los posibles riesgos de seguridad y / o protección planteados por ChatGPT", un sentimiento con el que el 81% estuvo de acuerdo. Además, el 51% no estuvo de acuerdo con la afirmación "ChatGPT y otras herramientas de IA mejorarán la seguridad en Internet", mientras que solo el 7% estuvo de acuerdo, lo que sugiere que existe una preocupación generalizada sobre el impacto que ChatGPT tendrá en la seguridad en línea.

Leer más