Fiebre de ética en Silicon Valley

Vista aérea de Silicon Valley. Foto: Patrick Nouhailler (CC BY-SA 2.0). Blog Elcano
Vista aérea de Silicon Valley. Foto: Patrick Nouhailler (CC BY-SA 2.0).

 

Vista aérea de Silicon Valley. Foto: Patrick Nouhailler (CC BY-SA 2.0). Blog Elcano
Vista aérea de Silicon Valley. Foto: Patrick Nouhailler (CC BY-SA 2.0).

Ingenieros, científicos y otros empleados de varias grandes plataformas tecnológicas de EEUU se han rebelado en los últimos tiempos. No quieren que sus empresas trabajen para el Pentágono ni para luchar mediante técnicas de reconocimiento facial contra la inmigración irregular. Han forzado en las últimas semanas a varios de sus CEO a tomar posición y a establecer algunas líneas rojas en algunos de los aspectos de la inteligencia artificial (IA).

Muchas de las tecnologías que hoy están en nuestros bolsillos de las que Silicon Valley se ha nutrido tienen un origen militar, ya sea Internet, el GPS o la pantalla táctil, por citar unos ejemplos, por no hablar de tiempos más lejanos, como el microondas o el impulso de la informática. La DARPA (Agencia de Proyectos de Investigación Avanzados de Defensa, con un presupuesto de 3.180 millones de dólares para el año fiscal 2018), dependiente del Pentágono, tiene un importante papel al respecto. ¿Han cambiado las cosas?

Plataformas como la Tech Workers Coalition o Coworkers.org han hecho posible una movilización sin precedentes en velocidad y extensión, con un nivel de auto-organización con el que ahora han de contar las grandes empresas. En Google, miles de empleados firmaron una carta pública para pedir que su CEO, Sundar Pichai, cortara su participación en el Equipo Interfuncional de Guerra Algorítmica, conocido como Proyecto Maven, un contrato con el Pentágono para crear un “motor de IA de vigilancia personalizada” para drones militares. Pedían que Google “no estuviera en el negocio de la guerra”, avisando de que de lo contario se dañaría la “marca de Google” y su “capacidad para competir por el talento”.

En Amazon, ante la separación de hijos menores de inmigrantes irregulares mandatada por Trump, miles de empleados le pidieron a su CEO, Jeff Bezos que cortara todas las ventas de software de reconocimiento facial al gobierno, pues la herramienta Rekogniton podía ser utiliza de manera injusta contra esos inmigrados. En Microsoft, los empleados escribieron su propia carta en contra del contrato con la Immigration and Custom Enforcement Agency (Agencia de Inmigración y Control de Aduanas, ICE por sus siglas en inglés). Pero todas las grandes empresas en EEUU (y en Europa, y también en China, donde se está desarrollando el más perfeccionado Estado de Vigilancia) están invirtiendo en estas tecnologías, que tienen evidentes aplicaciones civiles.

Quizá quienes más lejos han llegado en la respuesta a estas rebeliones de sus empleados hayan sido los CEO de Google y Satya Nadella de Microsoft. En su blog, Pichai publicó en junio pasado, unos “principios” para la aplicación de la IA que Google está desarrollando. La primera frase del Código de Conducta de Google de 2000 era “no seas malvado” (don’t be evil). Fue eliminada en mayo pasado. Sin embargo, entre las aplicaciones de IA que, según estos nuevos principios, Google no van a diseñar o desplegar, figuran:

  • “Las tecnologías que causan o pueden causar un daño general. Cuando exista un riesgo material de daño, procederemos sólo cuando consideremos que los beneficios superan sustancialmente los riesgos e incorporaremos las restricciones de seguridad apropiadas”.
  • “Las armas u otras tecnologías cuyo principal propósito o aplicación sea causar o facilitar directamente el daño a las personas”.
  • “Tecnologías que recopilan o usan información para la vigilancia que violen las normas internacionalmente aceptadas”.
  • “Tecnologías cuyo propósito infrinja los principios ampliamente aceptados del derecho internacional y los derechos humanos”.

Al final, los empleados consiguieron que Google abandonara el Proyecto Maven.

El presidente de Microsoft, Bradford L. Smith, por su parte, hace dos semanas fue de los primeros en pedir regulación para todo esto, algo inusitado: reglas gubernamentales para la tecnología de reconocimiento facial, pues aparte de las ventajas que conlleva, explicó, estas tecnologías tienen un lado oscuro, como es la vigilancia por parte del Estado, su uso sin el consentimiento explícito del participante e incluso la posibilidad de “perpetuar la discriminación racial”. La UE ha avanzado mucho más en esta cuestión del consentimiento (aunque está por ver su efecto real en la práctica). Facebook, criticado por transmitir el fomento del odio en países como Sri Lanka o Myanmar, ha lanzado un plan para bloquear los contenidos que incitan a ello, aunque no tanto como para llegar a censurar en su red social a los negacionistas del Holocausto judío.

¿A qué se debe este ataque de ética en Silicon Valley, un lugar donde domina el secretismo, y más allá? El despertar político se extendió y se convirtió en viral. La chispa pudo ser la política antiinmigración del presidente Trump. El propio Nadella la calificó de “cruel y abusiva”. En Silicon Valley más de la mitad de las tecnológicas de mayor valor han sido fundadas y/o dirigidas por inmigrantes de primera o segunda generación. Muchos de los ingenieros y otros que trabajan para las grandes tecnológicas no han nacido en EEUU. Cuenta el talento por encima de todo. Y la idea de que trabajar allí contribuye a cambiar el mundo, para bien.

También ha crecido en aquel entorno un cierto pacifismo semejante al que se da entre investigadores tecnológicos japoneses, especialmente ante una creciente militarización de la IA y sobre todo si no es defensiva. La puesta en pie de Internet tenía esa dimensión defensiva de construir una red de comunicaciones descentralizada capaz de resistir a un ataque nuclear. Todo ello a pesar de que el reconocimiento facial, por ejemplo, ha reducido, pero no eliminado, las bajas colaterales en algunos ataques por drones de EEUU.

Podría darse un cierto paralelismo con lo que ocurrido con el Proyecto Manhattan para construir la bomba atómica durante la Segunda Guerra Mundial. Tras su primer uso, en Hiroshima y Nagasaki, fueron muchos los científicos que lo criticaron. Muchos en Silicon Valley no quieren participar en programas para el campo de batalla ni promover tecnología bélica o de seguridad excesiva. El movimiento contra las armas autónomas, los llamados “robots asesinos”, está creciendo, y no sólo en EEUU.

Se ha dicho que la oposición al Proyecto Maven puede ser el “momento #MeToo” para los empleados de tecnológicas en EEUU.

La ética está cada vez más presente en el debate sobre el impacto de las nuevas tecnologías que sólo se empieza a entrever. Las armas autónomas, el sesgo ideológico de los algoritmos y la vigilancia total, por seguir en el campo de la seguridad, son dimensiones que cobran importancia, junto a otras positivas, como la capacidad de salvar vidas de civiles o de soldados, o la cada vez más perentoria ciberseguridad. Las empresas y sus empleados no están ya al margen. Robert McGinn se les adelantó con su libro El ingeniero ético (The Ethical Engineer), lectura obligada para estos profesionales.