“Queremos dejar claro que nunca emplearemos la inteligencia artificial para el desarrollo de armas”, Sundar Pichai no puede ser más rotundo y contundente y desde luego, tiene sólidos motivos para ello. Hace unas semanas nos hicimos eco de una pequeña rebelión que tuvo lugar en la sede de Mountain View: varios empleados de la compañía habían presentado su dimisión tras conocer la implicación de la empresa en acuerdos de carácter militar con el Pentágono.
En concreto, el malestar se debía al conocido como Proyecto Maven, mediante el cual, los sistemas de defensa del país aplicarían la inteligencia artificial para mejorar su eficacia. Estos empleados se dirigieron mediante carta al CEO de Google, pero al no obtener respuesta, presentaron su dimisión. Parece que con el paso de los días, la tormenta, lejos de amainar, ha seguido haciéndose cada vez más destructiva y Sundar Pichai ha decidido salir al paso.
En una entrada en el blog de la compañía, el directivo descarta con total rotundidad una posible aplicación del know-how en inteligencia artificial de la compañía con fines militares. El comunicado ha sido titulado “IA en Google: nuestros principios”, y en él arranca enumerando las indudables ventajas de la aplicación de dicha tecnología en el día a día, en especial en su capacidad de “resolver problemas”. Pichai continúa explicando que la IA (inteligencia artificial) logra que sus productos sean más útiles (y menciona expresamente a Gmail), pero no huye del debate.
El debate sobre su uso
El CEO reconoce la existencia de un debate de carácter moral: hasta dónde puede llegar este potencial si se usa con otros fines, “Como líder en IA, sentimos una gran responsabilidad por hacer esto bien”, escribe. Y siendo conscientes de la amenaza que supondría un uso indebido de este potencial, Pichai ha anunciado la creación de un marco moral o unas líneas que Google jamás traspasará, y lo ha hecho mediante varios puntos.
Pero al mismo tiempo y queriendo dejar las cosas claras, el manifiesto dedica todo un apartado a “Cosas que nunca haremos”, aunque como veremos, sigue dejando una puerta extrañamente abierta y bastante ambigua. Pichai indica que la IA nunca se empleará “para causar algún tipo de daño”, y atentos a esto, puesto que la frase continúa: “en el caso de que exista un riesgo de daño, procederemos únicamente si consideramos que el potencial beneficio es superior al daño”.
Pero el siguiente punto es más claro: no crearemos “armas u otras tecnologías cuya principal misión sea infringir daño a la gente”. Esta declaración sería muy tranquilizada de no ser porque a continuación, el CEO aclara que Google “seguirá trabajando con el gobierno y los militares en otras áreas que incluyen la cyber seguridad, entrenamiento, reclutamiento, asistencia a veteranos y rescate”. ¿Suficiente o más confuso?