Skip to main content

De Altman a Musk: 5 visiones recientes sobre la inteligencia artificial

Ya estamos inmersos en un mundo de inteligencia artificial (IA), desde que tomamos una foto con el celular y es mejorada con algoritmos hasta cuando le decimos a Alexa que encienda las luces de la casa. Lo cierto es que la irrupción de ChatGPT nos ha traído otro concepto que para más de uno era desconocido: la inteligencia artificial generativa, que básicamente está especializada en el diálogo.

Desde que se lanzó, en noviembre de 2022, la propuesta de OpenAI no ha dejado de llamar la atención, sobre todo por la forma en que interactúa con las personas. Eso no significa que no contenga datos inexactos, lo cual se advierte por sus desarrolladores cada que tienen oportunidad.

Para aclarar un poco el panorama alrededor del tema, presentamos cinco visiones recientes sobre inteligencia artificial, en las que se incluye la de Sam Altman, consejero delegado de OpenAI, y la de Bill Gates, filántropo y cofundador de Microsoft.

Sam Altman, consejero delegado de OpenAI

Altman indicó que la IA puede ser la mayor tecnología que la humanidad haya desarrollado hasta ahora, sin embargo, ello también conlleva riesgos. “La manera correcta de pensar en los modelos que creamos es como un motor de razonamiento, no como una base de datos de hechos. También pueden actuar como una base de datos de hechos, pero eso no es realmente lo que tienen de especial: lo que queremos que realicen es algo más cercano a la capacidad de razonar, no de memorizar”, declaró el directivo en una entrevista con ABC News.

Sobre los riesgos, Altman apuntó su preocupación de que implementaciones como ChatGPT, desarrollado por OpenAI, puedan usarse para desinformar a gran escala o ataques cibernéticos ofensivos.

¿Tecnologías basadas en IA sustituirán algunos trabajos? Altman dijo que es probable que sí cumpla esta predicción, sin embargo, alentó a las personas a ver más a ChatGPT como una herramienta de apoyo. “La creatividad humana es ilimitada y encontraremos nuevos trabajos. Encontraremos nuevas cosas que hacer”, acotó.

Bill Gates, cofundador de Microsoft y filántropo

“El desarrollo de la IA es tan fundamental como la creación del microprocesador, la computadora personal, internet y el teléfono móvil. Cambiará la forma en que las personas trabajan, aprenden, viajan, obtienen atención médica y se comunican entre sí. Industrias enteras se reorientarán alrededor de esta. Las empresas se distinguirán por lo bien que la usen”, reflexionó Bill Gates en su sitio personal, después de que pudo ver las máximas capacidades de ChatGPT en septiembre del año pasado.

Imagen utilizada con permiso del titular de los derechos de autor

Sobre los principios que deben guiar la discusión de la IA, propone equilibrar los temores sobre sus desventajas con su capacidad para mejorar la vida de las personas; que los gobiernos y la filantropía puedan garantizar que las IA se utilicen para reducir la inequidad mediante financiamiento confiable y políticas correctas, y estar conscientes de que las limitaciones que tiene hoy, desaparecerán sin que las personas se den cuenta.

Jaron Lanier, gurú tecnológico, informático y compositor

“Esta idea de superar la habilidad humana es una tontería porque (la IA) está hecha de habilidades humanas. Es como decir que un automóvil puede ir más rápido que un corredor humano. Por supuesto que puede, sin embargo, no decimos que el vehículo se ha convertido en un mejor corredor”, declaró Lanier al periódico The Guardian.

Para el gurú tecnológico, desarrollos como ChatGPT y Bard, contrario a lo que se podría pensar, no ofrecen respuestas limitadas, sino una distinta cada vez que se usan, lo que también marca su diferencia con internet. Asimismo, ratificó que la IA no reemplazará a las personas en su trabajo. Todo dependerá de cómo se emplee la tecnología, añadió.

Elon Musk, Steve Wozniak, Evan Sharp…

En una carta abierta publicada el 22 de marzo pasado, expertos en tecnología, directivos y líderes empresariales hicieron el llamado para que los laboratorios de IA detengan el entrenamiento de los sistemas más poderosos que GPT-4 por lo menos seis meses.

“Los sistemas potentes de IA deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables. Esta confianza debe estar bien justificada y aumentar con la magnitud de los efectos potenciales de un sistema”, se lee en el documento publicado en Future of Life Institute.

Los firmantes indicaron que la pausa debe ser pública y verificable. “Si esta no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria”, enfatizaron.

Los laboratorios de IA y los expertos independientes, advirtieron, deben aprovechar el lapso para implementar conjuntamente protocolos de seguridad compartidos para el diseño y desarrollo avanzados de la tecnología.

“Esto no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás de la carrera peligrosa hacia modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes”, apuntaron.

Evgeny Morozov, fundador de The Syllabus y autor de libros de tecnología

“Los primeros sistemas de IA estaban fuertemente dominados por reglas y programas, por lo que al menos estaba justificado hablar de ‘artificialidad’. Pero los de hoy, lo que incluye el favorito de todos, ChatGPT, obtienen su fuerza del trabajo de humanos reales: artistas, músicos, programadores y escritores, cuya producción creativa y profesional ahora se apropia en nombre de salvar la civilización. En el mejor de los casos, esto es ‘inteligencia no artificial’”, indicó el experto a The Guardian en una columna.

Aseguró que el peligro de seguir utilizando el concepto de IA es que se corre el riesgo de convencer a todos de que el mundo funciona con una lógica singular: la del racionalismo altamente cognitivo y de sangre fría.

“Pero la razón por la que las herramientas como ChatGPT pueden hacer cualquier cosa, incluso remotamente creativa, es porque sus conjuntos de entrenamiento fueron producidos por humanos realmente existentes, con sus emociones complejas, ansiedades y todo. Si queremos que esa creatividad persista, también deberíamos financiar la producción de arte, ficción e historias, no solo los centros de datos y el aprendizaje automático”, cerró.

Recomendaciones del editor

Topics
Luis Miguel Paredes
Luis Miguel Paredes tiene interés en temas como computación, Motorola, Netflix, YouTube, Telegram, WhatsApp y Huawei…
Se acabó la luna de miel: el tráfico de ChatGPT baja por tercer mes consecutivo
trafico de chatgpt baja por tercer mes consecutivo rolf van root lyi1t85lry8 unsplash

En concordancia con las leyes físicas de Newton, todo lo que sube tiene que bajar y la gravedad está haciendo de las suyas con ChatGPT, que después de un explosivo crecimiento en los primeros meses de 2023, empezó su caída en tráfico,  según la firma de análisis Similarweb.

Las visitas mundiales de sitios web de escritorio y móviles al sitio web de ChatGPT disminuyeron un 3,2% a 1.43 millones en agosto, luego de caídas de aproximadamente el 10% con respecto a cada uno de los dos meses anteriores. La cantidad de tiempo que los visitantes pasaron en el sitio web también ha disminuido mensualmente desde marzo, de un promedio de 8.7 minutos en el sitio a 7 minutos en el sitio en agosto.

Leer más
ChatGPT está violando su privacidad dice la GDPR
ChatGPT

Desde que las primeras herramientas generativas de inteligencia artificial (IA) explotaron en la escena tecnológica, ha habido preguntas sobre dónde obtienen sus datos y si están recolectando sus datos privados para entrenar sus productos. Ahora, el fabricante de ChatGPT, OpenAI, podría estar en problemas exactamente por estas razones.

Según TechCrunch, se ha presentado una queja ante la Oficina Polaca de Protección de Datos Personales alegando que ChatGPT viola una gran cantidad de reglas que se encuentran en el Reglamento General de Protección de Datos (GDPR) de la Unión Europea. Sugiere que la herramienta de OpenAI ha estado recogiendo datos de usuarios en todo tipo de formas cuestionables.
Joe Maring / DT
La queja dice que OpenAI ha violado las reglas del GDPR sobre bases legales, transparencia, equidad, derechos de acceso a datos y privacidad por diseño.

Leer más
Estupidez artificial: el libro de autor español que critica a la IA
estupidez artificial ia juan ignacio rouyet markus winkler wpoa2i3mury unsplash

Cómo funciona la inteligencia artificial? ¿Debemos tener miedo de ella? ¿Es posible una inteligencia artificial ética? Estas son algunas de las cuestiones que Juan Ignacio Rouyet Ruiz (Madrid, 1967) plantea en Estupidez artificial. Cómo usar la inteligencia artificial sin que ella te utilice a ti. Una obra cuyo principal objetivo es ayudar a los lectores a reflexionar acerca de un fenómeno que, por su envergadura y consecuencias, va mucho más allá de lo tecnológico.

Juan Ignacio Rouyet Ruiz (Madrid, 1967) es Doctor en Informática e Ingeniero de Telecomunicaciones. Actualmente, es director de Entrega para los servicios de consultoría en Quint, Director del Máster de Emprendimiento Digital de la UNIR y Presidente del think tank We The Humans que busca soluciones éticas para la inteligencia artificial. Es colaborador habitual en la revista Digital Biz y esglobal. Pero, ante todo, Juan Ignacio se define como un ingeniero humanista.

Leer más