En 1942, Isaac Asimov, autor de ciencia ficción, propuso las tres leyes de la robótica, al prever que las máquinas tendrían un papel importante en la vida humana y que, gracias al desarrollo de la inteligencia artificial (IA), se volverían más autónomas. Pero ¿estas ya quedaron sobrepasadas?
Primero, las tres leyes de la robótica de Asimov:
- Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
- Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entran en conflicto con la primera ley.
- Un robot debe proteger su propia existencia, en la medida en que esta protección no entre en conflicto con la primera o la segunda ley.
A casi 80 años de que fueron escritas, parece que las tres leyes empiezan a quedarse cortas. Al menos eso es lo que opina Frank Pasquale, experto en leyes de inteligencia artificial y profesor de la Facultad de Derecho de Brooklyn, quien propone agregar cuatro nuevos principios en su libro «New Laws of Robotics: Defending Human Expertise in the Age of AI».
- Las tecnologías digitales deben «complementar a los profesionales, no reemplazarlos».
- La IA y los sistemas robóticos «no deben falsificar a la humanidad».
- Se debe evitar que la IA se use para aumentar las «carreras de armamentos de suma cero».
- En IA y robótica, los sistemas deben estar obligados a «indicar la identidad de sus creadores, controladores y propietarios».
En entrevista con OneZero, Pasquale explica que estas leyes buscan proteger a la humanidad de formas más realistas. Asimismo, se asegura la IA puede servir mejor a las personas en lugar de ser utilizada para cualquiera de los planes de los ingenieros.
Ese es otro punto diferenciador, ya que las leyes también están dirigidas a quienes desarrollan los sistemas artificiales.
«Mi idea es que ese no es realmente el objetivo al que debemos aspirar (el que la IA tome el trabajo de doctores, enfermeros, periodistas, maestros, etcétera)», enfatiza Pasquale.