Skip to main content
  1. Home
  2. Computación
  3. Features

Investigación expone el lado más turbio de ChatGPT y la industria de chatbots de IA

Una investigación de Time ha expuesto el lado más oscuro de la industria de chatbots de IA, destacando cómo al menos una startup ha estado utilizando prácticas cuestionables para mejorar su tecnología.

Publicado el miércoles, el informe de Time se centra en OpenAI respaldado por Microsoft y su chatbot ChatGPT, una tecnología que ha ganado mucha atención recientemente por su notable capacidad para producir texto conversacional altamente natural.

Recommended Videos

La investigación de Time descubrió que para entrenar la tecnología de IA, OpenAI utilizó los servicios de un equipo en Kenia para estudiar detenidamente el texto que incluía temas perturbadores como el abuso sexual infantil, la bestialidad, el asesinato, el suicidio, la tortura, las autolesiones y el incesto. Y por sus esfuerzos para etiquetar el contenido aborrecible, muchos en el equipo recibieron menos de $ 2 por hora.

El trabajo, que comenzó en noviembre de 2021, era necesario ya que el predecesor de ChatGPT, GPT-3, aunque impresionante, tenía una tendencia a arrojar contenido ofensivo, ya que su conjunto de datos de entrenamiento se había compilado raspando cientos de miles de millones de palabras de todos los rincones de la web.

El equipo con sede en Kenia, operado por la firma Sama de San Francisco, etiquetaría el contenido ofensivo para ayudar a entrenar el chatbot de OpenAI, mejorando así su conjunto de datos y reduciendo las posibilidades de cualquier resultado objetable.

Digital Trends Español

Time dijo que los cuatro empleados de Sama que entrevistó describieron estar mentalmente marcados por su trabajo. Sama ofreció sesiones de asesoramiento, pero los empleados dijeron que eran ineficaces y rara vez se llevaron a cabo debido a las demandas del trabajo, aunque un portavoz de Sama le dijo a Time que los terapeutas estaban disponibles en cualquier momento.

Un trabajador le dijo a Time que leer el material impactante a veces se sentía como «tortura», y agregó que se sentían «perturbados» al final de la semana.

En febrero de 2022, las cosas tomaron un giro aún más oscuro para Sama cuando OpenAI lanzó un proyecto separado no relacionado con ChatGPT que requería que su equipo de Kenia recopilara imágenes de naturaleza sexual y violenta. OpenAI le dijo a Time que el trabajo era necesario para hacer que sus herramientas de IA fueran más seguras.

A las pocas semanas de que comenzara este proyecto basado en imágenes, la naturaleza alarmante de las tareas llevó a Sama a cancelar todos sus contratos con OpenAI, aunque Time sugiere que también podría haber sido provocado por las consecuencias de relaciones públicas de un informe sobre un tema similar que publicó sobre Facebook aproximadamente al mismo tiempo.

Open AI le dijo a Time que había habido «una falta de comunicación» sobre la naturaleza de las imágenes que le pidió a Sama que recopilara, insistiendo en que no había pedido las imágenes más extremas y que no había visto ninguna de las que se habían enviado.

Pero la finalización de los contratos afectó los medios de vida de los trabajadores, ya que algunos miembros del equipo en Kenia perdieron sus empleos, mientras que otros fueron trasladados a proyectos con salarios más bajos.

La investigación de Time ofrece una mirada incómoda pero importante al tipo de trabajo que se está realizando en los chatbots impulsados por IA que recientemente han estado entusiasmando tanto a la industria tecnológica.

Si bien es transformadora y potencialmente beneficiosa, la tecnología claramente tiene un costo humano y plantea una serie de preguntas éticas sobre cómo las empresas desarrollan sus nuevas tecnologías y, en términos más generales, sobre cómo los países más ricos continúan asignando tareas menos deseables a las naciones más pobres por un menor desembolso financiero.

Las nuevas empresas detrás de la tecnología estarán bajo un escrutinio más centrado en los próximos meses y años, por lo que harían bien en revisar y mejorar sus prácticas lo antes posible.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Topics
Disco de Google: cómo es el nuevo navegador de IA
Sphere, Astronomy, Outer Space

La idea de Google de una experiencia de navegación impulsada por IA va más allá de simplemente añadir Gemini a Chrome, y su último experimento ofrece una visión clara de lo que viene después. Con Disco, un nuevo navegador de IA de Google Labs, Google planea "moldear el futuro de la navegación web", empezando por una innovadora función llamada GenTabs.

Google describe Disco como un "vehículo de descubrimiento para que Google Labs pruebe ideas para el futuro de la web." Al igual que Chrome, está construido sobre Chromium y tiene algunos elementos comunes. Sin embargo, lo que la distingue es su capacidad para crear "aplicaciones web interactivas" combinando información de varias pestañas para ayudar a los usuarios a completar tareas de forma más eficiente.

Read more
Este es el super computador de IA más pequeño del mundo 
Electronics, Mobile Phone, Phone

Tiiny AI ha desvelado lo que Guinness World Records ha verificado como el superordenador personal de IA más pequeño del mundo. Se llama Tiiny AI Pocket Lab y, a pesar de tener el tamaño de una batería externa, promete niveles de rendimiento que normalmente requieren hardware muy caro. Otros superordenadores pequeños como el Project Digits de NVIDIA, con un precio de alrededor de 3.000 dólares, y el DGX Spark, que se ofrece por 4.000 dólares, tienen precios que los hacen fuera del alcance de la mayoría de los usuarios cotidianos.

Tiiny AI sostiene que el verdadero cuello de botella actual de la IA no es la potencia de cálculo, sino nuestra dependencia de la nube. El director de GTM, Samar Bhoj, dice: "la inteligencia no debería pertenecer a los centros de datos, sino a las personas." Al ejecutar grandes modelos localmente, el Pocket Lab pretende reducir la dependencia de la nube, mejorar la privacidad y hacer que la IA avanzada se sienta personal en lugar de remota.

Read more
Tu chatbot de IA quiere que salves el planeta… comprando más cosas
Text, Credit Card, Computer

A medida que la inteligencia artificial se infiltra en todo, desde nuestros teléfonos hasta nuestros altavoces inteligentes, cada vez es más difícil ver dónde termina la tecnología y dónde empiezan nuestras decisiones. Y según un nuevo estudio de investigadores de la Universidad de Queensland y la UNSW, ese es precisamente el problema. Advierten que la "IA-ización" de la vida diaria está aumentando silenciosamente las emisiones globales, no solo quemando electricidad, sino formándonos para comprar más cosas.

Qué ocurrió – y el impacto ambiental oculto del consumo impulsado por IA

Read more