Skip to main content
  1. Casa
  2. Noticias
  3. Tendencias
  4. News

La inteligencia artificial detecta mensajes de odio incluso con el uso de códigos

Los trolls racistas utilizan con frecuencia palabras-código como insultos. Pero existe un algoritmo inteligente, diseñado para saber lo que están diciendo.

Cualquier persona que haya tenido un sitio web bloqueado por su filtro de Internet sabe que los programas diseñados para bloquear ciertas piezas de contenido a menudo pueden dar problemas.

Recommended Videos

Una de las razones de esto es que las búsquedas de palabras clave pueden resultar herramientas demasiado contundentes para tratar con algo tan complejo y en constante evolución como el lenguaje.

Esto es particularmente cierto cuando se trata de encontrar palabras clave odiosas en las redes sociales.

Por ejemplo, el año pasado Alphabet publicó un algoritmo diseñado para filtrar palabras racistas, sólo para los trolls que comenzaron a sustituir el nombre de los productos de Google por insultos raciales.

Sin embargo, un nuevo algoritmo, desarrollado por investigadores de la Universidad de Rochester, cree que el problema se ha resquebrajado.

Analizando los comentarios en Twitter se han podido distinguir frases como “gas the Skypes” (un sustituto de “Judios”) y “I hate Skype” (“Odio Skype”) con un impresionante 80% de precisión.

“Hemos desarrollado un algoritmo de análisis de datos inteligente para seguir los códigos de odio en constante evolución que están diseñados para evadir la detección”, explica a Digital Trends el profesor Jiebo Luo, coautor del artículo.

“Empezamos con un conjunto de códigos de odio conocidos, recuperamos los mensajes de odio que contienen estos códigos, [y] construimos un modelo de lenguaje usando técnicas de aprendizaje automático para reconocer mensajes de odio. En base a esto, hacemos dos cosas: [en primer lugar], usando el modelo de lenguaje detectamos mensajes de odio en curso que pueden contener nuevos códigos de odio, y [en segundo lugar] usamos mensajes de odio detectados para identificar a los propagadores de odio cuyos nuevos mensajes se usan para descubrir nuevos códigos de odio”, matiza Luo.

Se trata de saber qué palabras se correlacionan con otras, descubriendo así cuando una palabra del soporte se está utilizando para algo más, agregando contexto. Claro que estos pueden ser cambiados también, pero hay un límite de palabras que un troll puede cambiar antes de hacer su declaración original totalmente ininteligible.

En conclusión, se trata de un uso muy inteligente del aprendizaje automático. Sí, los límites de lo que está bien decir online todavía están siendo elaborados. Pero cuando se trata de detener a la gente con retórica odiosa, herramientas como ésta van mucho más allá de búsquedas de palabras clave simples.

“Esperamos obtener más datos para hacer nuestro modelo más robusto y preciso”, subraya Luo. “En última instancia, esperamos que las principales plataformas de redes sociales, como Twitter, Facebook y otras, puedan adoptar nuestra tecnología, que se describe en este documento, y probablemente estará más desarrollada para ofrecer una mayor precisión. Nuestro esfuerzo continuo es utilizar la ciencia de los datos para el bien social “.

Estefania Oliver
Ex escritor de Digital Trends en Español
Google Gemini causa devastación accidental al borrar disco duro de usuario
Hole, Person, Face

Un incidente que se viralizó recientemente expone vulnerabilidades críticas en los sistemas de inteligencia artificial agentic de Google, específicamente en Gemini cuando se integra con herramientas de codificación. Un programador reportó que tras dejar a Gemini depurando código en el editor Cursor, regresó para encontrar registros perturbadores que revelan cómo la IA entró en un ciclo autodestructivo que resultó en la eliminación de archivos del disco duro del usuario.

​En específico, utilizó Google Antigravity, el Entorno Integrado de Desarrollo (IDE) agente impulsado por IA del gigante de la búsqueda, descubrió que había eliminado toda su unidad D sin su permiso. Según la publicación de tú/Deep-Hyena492 en Reddit y el vídeo posterior de YouTube que compartieron, lo estaban usando para crear una pequeña app cuando ocurrió lo peor.

Leer más
Sam Altman está invirtiendo en cohetes: ¿pensados para OpenAI?
Sam Altman

El CEO de OpenAI, Sam Altman, ha proporcionado financiamiento a Longshot Space, una startup que desarrolla tecnología radicalmente diferente para colocar satélites en órbita. La empresa propone utilizar un megacañón estacionario para disparar cargas útiles directamente al espacio a velocidades hipersónicas, eliminando la dependencia de cohetes reutilizables convencionales como los que dominan SpaceX.​

El concepto de Longshot ya ha progresado más allá de teoría especulativa hacia prototipos funcionales tangibles. La empresa ha construido un cañón prototipo de 18 metros que ha realizado exitosamente más de 100 pruebas, alcanzando velocidades de Mach 4.2, equivalentes a aproximadamente 5.186 kilómetros por hora. El sistema funciona mediante una etapa de impulso inicial seguida de tres propulsores distribuidos a lo largo del tubo que mantienen aceleración sin dañar la carga útil.​

Leer más
Transformer Soundwave: funciona como altavoz Bluetooth y grabadora
Toy, Robot

Robosen, empresa especializada en robots avanzados, ha desarrollado el Soundwave G1, un robot transformer totalmente funcional que se convierte automáticamente entre modo robot y modo casete. El producto integra funcionalidades prácticas modernas con diseño que replica fielmente el formato clásico de los años 80.​

En modo altavoz, el dispositivo funciona como un reproductor de música con conectividad Bluetooth 5.0, permitiendo a usuarios conectar dispositivos móviles para reproducir música o transmitir contenido de audio mientras el robot mantiene su apariencia de casete retro. En modo grabadora de casete, los usuarios pueden registrar su propia voz usando los botones funcionales del panel frontal, replicando la experiencia nostálgica de las grabadoras de cinta magnética de décadas pasadas.

Leer más