Inteligencia artificial: el “efecto Bruselas”, en juego

Efecto Bruselas. Una estación de metro con una imagen futurista en la ciudad de Bruselas, Bélgica
Estación de metro futurista en Bruselas, Bélgica. Foto: Guillaume Zaracas (@gzaracas)

Tema

La revolución de la inteligencia artificial (IA) está afectando a la economía del conocimiento y es clave abordar sus retos para que las economías y sociedades extraigan el máximo potencial de esta revolución tecnológica, minimizando costes y riesgos. Contar con un marco regulatorio sólido es fundamental para el desarrollo de esta tecnología en clave positiva. La Unión Europea (UE) podría volver a beneficiarse del denominado “efecto Bruselas”, pero enfoques regulatorios divergentes sobre IA podrían dar lugar a efectos desglobalizadores, llevar a una fragmentación de la gobernanza tecnológica y a reducir el impacto tradicional del “efecto Bruselas”.

Resumen

Este es el primero de una serie de análisis sobre IA que el Real Instituto Elcano publicará en los próximos meses. En este primer análisis, ponemos el acento en la diferencia principal que supone la revolución de la IA con respecto a revoluciones tecnológicas anteriores, al afectar principalmente a la economía del conocimiento, en la necesidad de adoptar políticas públicas para que nuestras economías se beneficien de esta revolución y en la importancia de que haya un marco regulatorio para la IA que sea coherente entre jurisdicciones, para lo que la UE parte con la ventaja del que primero mueve. En efecto, la UE está a la vanguardia entre las jurisdicciones democráticas en la elaboración de un marco regulatorio. El marco regulatorio que está elaborando la UE sigue un enfoque basado en riesgos que, de hecho, ha sido adoptado por los ministros de Tecnología del G7 como el modelo a seguir, poniendo de manifiesto una vez más el denominado “efecto Bruselas”. No obstante, en esta ocasión, el “efecto Bruselas” tendrá menor efecto y la proliferación de otros marcos regulatorios basados en modelos no democráticos, acuerdos de “minilaterales” entre pocos países que generan fragmentación o, incluso, la falta de regulación pueden acabar por generar externalidades negativas incluso para las jurisdicciones con marcos regulatorios sólidos: enfoques regulatorios divergentes sobre IA tendrían potenciales efectos desglobalizadores, dando lugar a mayores brechas en la protección de Derechos Humanos, el control de los flujos comerciales, la seguridad global, así como el papel de las organizaciones internacionales, que están emprendiendo ya para buscar una visión común sobre cómo gobernar la IA.

Análisis

Introducción

Este es el primero de una serie de análisis sobre IA que el Real Instituto Elcano publicará en los próximos meses. En este primer análisis, de naturaleza general, ponemos el acento en la diferencia principal que supone la revolución de la IA con respecto a revoluciones tecnológicas anteriores, al afectar principalmente a la economía del conocimiento, en la necesidad de adoptar políticas públicas para que nuestras economías y trabajadores se beneficien de esta revolución y en la importancia de que el enfoque regulatorio sea el adecuado. La UE está a la vanguardia entre las jurisdicciones democráticas en la elaboración de un marco regulatorio de carácter general, lo que le puede otorgar la ventaja del que mueve primero. En efecto, el marco regulatorio que está elaborando la UE sigue un enfoque basado en riesgos, que de hecho, ha sido adoptado por los ministros de Tecnología del G7 como el modelo a seguir, poniendo de manifiesto una vez más la existencia del denominado “efecto Bruselas”, por el que el hecho de que la UE sea la primera en regular sobre materias innovadoras lleva a otras jurisdicciones a inspirarse en el trabajo legislativo comunitario, haciendo que la normativa UE se convierta en una suerte de modelo a seguir. No obstante, en esta ocasión, el impacto del “efecto Bruselas” será probablemente menor que en otras ocasiones, por lo que la proliferación de otros marcos regulatorios basados en modelos no democráticos o incluso la falta de regulación pueden acabar por generar externalidades negativas incluso para las jurisdicciones con marcos regulatorios sólidos.

De este modo, una falta de alineación entre jurisdicciones en el marco regulatorio sobre IA daría lugar a mayores brechas en la protección de Derechos Humanos, el control de los flujos comerciales y la seguridad global.

Una revolución tecnológica necesaria desde el punto de vista de la productividad, pero diferente a las anteriores, en la que las políticas públicas deben jugar un papel fundamental para el beneficio de nuestras economías y trabajadores

La revolución tecnológica derivada de la IA es necesaria desde el punto de vista económico: las economías desarrolladas están cada vez más envejecidas y, por lo tanto, la población activa será cada vez menor. En este contexto, es imprescindible que haya ganancias de productividad. El crecimiento de la productividad, que ha sido el principal motor del crecimiento económico durante los últimos 30 años, se ralentizó ya en la década entre 2012 y 2022. El despliegue de la IA generativa y otras tecnologías podría ayudar a acelerar el crecimiento de la productividad, compensando parcialmente el descenso del crecimiento del empleo y favoreciendo el crecimiento económico global. Según estimaciones de McKinsey, la automatización podría proporcionar a la economía mundial un aumento anual de la productividad de entre el 0,2% y el 3,3% de 2023 a 2040, dependiendo de la tasa de adopción de la automatización –con la IA generativa contribuyendo de 0,1 a 0,6 puntos porcentuales de ese crecimiento–.

A lo largo de la historia, las revoluciones tecnológicas que se han ido sucediendo han afectado principalmente a trabajos con una carga física o manual importante: agricultores, trabajadores del textil, lavanderos, operadores de telefonía o trabajadores de fábricas, entre otros. Esta vez, sin embargo, es la economía del conocimiento la principal afectada por la revolución de la IA. En efecto, el peluquero o la camarera no verán su trabajo cotidiano afectado de manera radical por la IA, algo que no se puede afirmar con respecto de investigadores (nosotras mismas), ingenieros de software o trabajadores de banca encargados de evaluación de riesgos de crédito.  

La denominada falacia ludita, creencia equivocada con arreglo a la cual las revoluciones tecnológicas suponen un incremento generalizado del desempleo, parece haberse superado, al menos por una parte de la sociedad en esta ocasión. Muchos han llegado ya a la conclusión de que, aunque las revoluciones tecnológicas destruyen algunos empleos, otros se crean. Por ejemplo, la aparición del motor de combustión supuso el práctico abandono del caballo y los carruajes como medio de transporte, con la consiguiente desaparición de empleos. Pero a cambio, otros muchos empleos aparecieron en la industria de la automoción.

Según numerosos estudios, todo apunta a que esta ocasión no será diferente. Según Goldman Sachs, dos terceras partes de los empleos podrían llegar a automatizarse, al menos parcialmente. También dispondremos de más tiempo de ocio, con hasta el 40% de las tareas en el ámbito doméstico con potencial de automatización. La Organización Internacional del Trabajo considera que la mayor parte de los trabajos e industrias estarán expuestos sólo parcialmente al impacto de la IA generativa, por lo que serán más bien complementados que sustituidos por estas nuevas tecnologías. Los trabajos más expuestos al efecto de la IA serán los de naturaleza administrativa, con el 25% de las tareas altamente expuestas a la sustitución por la IA y el 50% con una exposición media-alta. La IA generará un impacto desigual en función del desarrollo económico del país y el género: por un lado, el 5,5% del empleo de los países de rentas altas estará al menos parcialmente expuesto a la IA, frente al 0,4% de los países de rentas bajas; por otro lado, el empleo femenino se verá doblemente afectado por la irrupción de la IA, dada la mayor presencia de la mujer en los trabajos de corte administrativo. Otro estudio elaborado por Albanesi et al. muestra para el periodo entre 2011 y 2019 una relación positiva entre la automatización con la IA y el empleo, con una incidencia mayor entre los trabajadores jóvenes y los empleos de alta cualificación, aunque con diferencias entre países.

Con el diagnóstico realizado, aunque teniendo en cuenta que los estudios arriba citados están sujetos a un elevado grado de incertidumbre, es importante adoptar las políticas públicas adecuadas para que la economía extraiga el máximo potencial del poder transformador de la IA. De este modo, es necesario aceptar políticas públicas en dos ámbitos fundamentales. En primer lugar, hay que formar a los trabajadores, principalmente a los de la economía del conocimiento, para que estos pueden incorporar la IA de manera eficiente en sus quehaceres diarios, beneficiándose así de las ganancias de productividad. En segundo lugar, aquellos trabajadores que puedan llegar a perder el empleo deberían beneficiarse de programas de recualificación. Las transiciones ecológica y digital están generando demanda de trabajo no cubierta ante la falta de cualificación adecuada, por lo que es altamente deseable y existe amplio margen para que los trabajadores de la economía del conocimiento se recualifiquen para pasar a ocupar estos nuevos puestos de trabajo.

La adopción de políticas públicas adecuadas es esencial para que nuestras economías se beneficien de esta revolución tecnológica. Pero las citadas políticas públicas no son suficientes. Es necesario adoptar un marco regulatorio para la IA, que además guarde coherencia con los marcos regulatorios del resto de jurisdicciones, con el fin de evitar externalidades negativas.

Es clave dar con un enfoque regulatorio adecuado, para lo que la UE parte con la ventaja del que primero mueve y el denominado “efecto Bruselas”

Es ya conocido que la IA tiene mucho potencial y presenta innumerables ventajas en muchos sectores (sanitario, farmacéutico, ecológico, financiero etc.), pero también presenta desafíos en términos de transparencia, veracidad, derechos de propiedad intelectual y respeto de los valores democráticos. Por ello, es importante dar con una buena regulación.

Algunas voces dicen de manera peyorativa con respecto a la UE que Estados Unidos (EEUU) ha inventado la IA, China la ha copiado y la UE la ha regulado. Es un tono peyorativo injusto que parte de la idea preconcebida de que existe una disyuntiva absoluta entre regulación e innovación. En este caso, el hecho de regular en primera instancia ha llevado a la UE a la ventaja del que primero mueve, al menos en otras jurisdicciones con valores democráticos semejantes. Esto queda de manifiesto, por ejemplo, en las “decisiones de adecuación” (adequacy decisions) de la Comisión Europea, por las que la UE determina si un país no comunitario tiene un nivel adecuado de protección de datos, basándose en el Reglamento General de Protección de Datos (RGPD). El efecto de tal decisión es que los datos personales puedan circular desde la UE (y Noruega, Liechtenstein e Islandia) a ese tercer país sin que sea necesaria ninguna otra salvaguardia. Hasta ahora, la Comisión Europea ha reconocido que Andorra, Argentina, Canadá (organizaciones comerciales), las islas Feroe, Guernesey, Israel, la isla de Man, Japón, Jersey, Nueva Zelanda, la República de Corea, Suiza, el Reino Unido en virtud del RGPD y el LED, EEUU (organizaciones comerciales que participan en el Marco de Privacidad de Datos UE-EEUU) y Uruguay ofrecen una protección adecuada.

Este requisito de asimilar la regulación confirmó el denominado efecto Bruselas, por el que la fuerza de la UE radica en su capacidad de crear un marco regulador común.​ Ahora bien, la misma autora de este libro (The Brussels Effect) escrito en 2012, Anu Bradford, ha puesto en duda este enfoque en 2023 con su nueva obra Imperios Digitales, en la que afirma que los tres modelos de política digital –EEUU siendo un modelo basado en mercado abierto, China siendo un modelo basado en el centralismo estatal y la UE siendo un ente basado en la regulación– ya no se suceden tanto como en el pasado. Para Bradford, estas tres categorías ya no son del todo exactas. Al igual que EEUU tiene algunas normas que regulan la tecnología, la UE tampoco es tan intervencionista como muchos creen. China tampoco tiene el control total sobre su panorama digital nacional. El argumento de Bradford es que estas tres superpotencias digitales mundiales se disputan el control y que esa relación definirá los años venideros y las tres han terminado entrelazando la política digital con la seguridad nacional, más que nunca antes. 

En estos momentos, el Reglamento europeo de IA está en fase de negociación: la Comisión Europea presentó su propuesta en abril de 2021, el Consejo adoptó el Acuerdo General en noviembre de 2022 y el Parlamento Europeo su posición de negociación en junio de 2023. A pesar de que es de hace apenas unos meses, la posición del Consejo de la UE quedó desfasada por la comercialización de un poderoso sistema de IA generativa.

Sin perjuicio de las modificaciones que se puedan introducir al texto normativo durante las negociaciones, la esencia del Reglamento europeo de IA está basada en un enfoque de riesgos. En particular, se identifican cuatro tipos de riesgos:

  • Riesgo inaceptable. Los modelos de IA que hayan sido catalogados así, por afectar a la seguridad, la vida o los derechos de las personas, quedarán directamente prohibidos. A modo de ejemplo, no se permitirán los modelos de scoring social, la identificación biométrica en lugares públicos o los juguetes con voces que inviten a conductas peligrosas.
  • Riesgo alto. Serán calificados como modelos de riesgo alto:
    • Los modelos de IA en productos cubiertos por la normativa de seguridad de productos (por ejemplo, juguetes, ascensores, coches, aviones y aparatos médicos).
    • Los modelos de IA en productos de alguna de estas áreas: infraestructuras críticas, educación y formación profesional, componentes seguros de los productos, servicios públicos y privados esenciales, aplicación de la ley que pueda interferir con los derechos fundamentales, migración, asilo y gestión de control de fronteras y administración de justicia y procesos democráticos.
      En estos casos, los sistemas de IA estarán sometidos a obligaciones estrictas antes de poder lanzarse al mercado: sistemas de gestión y mitigación del riesgo adecuados, posibilidad de trazar los resultados, información clara y adecuada para el usuario, elevado nivel de robustez y seguridad etc. Además, los sistemas se seguirán analizando a lo largo de todo su ciclo vital.
  • Riesgo limitado: se establecerán unas obligaciones mínimas de transparencia.
  • Riesgo mínimo.

La posición adoptada por el Parlamento Europeo el 14 de junio de 2023 introduce cambios a la propuesta de la Comisión Europea, en particular, amplía el ámbito de aplicación del Reglamento, incorpora nuevas definiciones y unos principios estructurales para todos los sistemas de IA, establece una regulación específica para los modelos fundacionales, introduce cambios relevantes en los sistemas prohibidos y de alto riesgo, establece la obligación de los sistemas de IA generativa de revelar que los contenidos han sido generados artificialmente, intensifica las medidas de apoyo a la innovación y la modifica ciertos aspectos del régimen sancionador.

El efecto Bruselas, si bien no es un proceso lineal, se ha hecho palpable en la medida en que los ministros de Tecnología del G7 declararon en abril de 2023 que la regulación en materia de IA debía seguir un enfoque basado en riesgo, precisamente el de la UE.  

De hecho, la UE debería aprovechar el marco de las negociaciones del Trade and Technology Council con EEUU, con el grupo de trabajo sobre IA, para acercar el enfoque regulatorio europeo al otro lado del Atlántico. En efecto, hasta la fecha, en EEUU no existe regulación a nivel federal. La Casablanca ha publicado el Blueprint for an AI Bill of Rights, con cinco grandes principios para prevenir la discriminación y proteger la seguridad y privacidad del usuario. Por otro lado, el National Institute of Standards and Technology presentó el AI Risk Management Framework, de carácter voluntario. También hay algunos estados que tienen normativa específica en materia de IA, como es el caso de Colorado, donde la Colorado Division of Insurance propuso en febrero de 2023 un conjunto de reglas relativas al uso de la IA por aseguradoras de vida.

El efecto Bruselas no va a poder extenderse a otras jurisdicciones, como China o India. Sin un enfoque regulatorio global, no se minimizarán las vulnerabilidades

China también está regulando la IA, pero en lugar de seguir un enfoque general, está implementando un enfoque parcial, regulando imágenes, textos y vídeos. Es su forma de iterar y mantenerse actualizada ante los continuos cambios. Sobre la base de estas regulaciones sectoriales, se espera que China apruebe en los próximos años una normativa general sobre la IA. El enfoque regulatorio de China tiene algunos elementos comunes con el occidental (obligaciones de transparencia y respeto de ciertos derechos básicos), pero otros que están muy alejados: para empezar, se prohíben los mensajes contrarios al régimen socialista; para seguir, se permite el uso de la IA para scoring social o para control biométrico.

Ahora bien, es remarcable que el máximo regulador del ciberespacio chino presentara en julio de 2023 una serie de normas provisionales para regular los servicios de IA generativa, incluidos los proveedores de API, que prestan servicio a usuarios con sede en China. El objetivo es el de garantizar que haya un equilibrio entre desarrollo y seguridad. Al igual que en otras industrias críticas, China aboga por una “innovación autosuficiente” en algoritmos, marcos, chips, plataformas de software y otras infraestructuras de IA, al tiempo que fomenta una cooperación internacional “equitativa y mutuamente beneficiosa”.

Por su parte, las autoridades indias anunciaron en abril de 2023 su intención de no regular la IA, en un claro intento de competir con China y considerando que cualquier regulación puede suponer un freno a la innovación. Sin embargo, con la Cumbre del G20 en Nueva Delhi, el primer ministro Modi hizo un llamamiento a favor de un marco mundial para la expansión de herramientas “éticas” de IA, por la que pretende asumir una posición de liderazgo en el debate en curso sobre la necesidad de convergencia entre todos los países para regular sectores como la IA y las criptomonedas.

Este cambio de actitud puede deberse a una preocupación cada vez mayor sobre la falta de un régimen internacional de gobernanza de la IA, en la que las coaliciones y negociaciones bilaterales o “minilaterales” entre países están llevando a una fragmentación del desarrollo en IA y una incertidumbre jurídica, política y económica en algunos casos. De ahí, que la India se haya presentado como promotor de una perspectiva ética global de la IA, si bien la ética no se corresponde con una fundamentación jurídica.

También el Reino Unido busca hacer de la regulación un eje de su posicionamiento internacional como país emprendedor en IA. El primer ministro Sunak anunció la Cumbre Mundial de Seguridad (safety) en IA para finales de 2023. Algunas partes apoyan la idea de que China acuda a la cumbre, mientras que Japón, EEUU y la UE no ven con buenos ojos que los británicos inviten a China al encuentro tecnológico de noviembre. Además de este aspecto, otro punto de debate es la utilidad de la cumbre global. Mientras que una parte opina que de esta cumbre pueden salir resultados positivos para configurar mínimos comunes denominadores en la IA a nivel internacional, el otro lado considera que invitar a un número seleccionado de países puede resultar en otra serie de “minilaterales” donde se negocien acuerdos económicos y regulatorios en IA.

La IA está despertando cada vez más negociaciones internacionales. El reciente anuncio de una posible ampliación de los BRICS a seis países más invitados –Argentina, Egipto, Etiopía, Irán, Arabia Saudí y Emiratos Árabes Unidos– tiene, entre otros pilares, la IA como eje de tracción. El propio Foro Económico Mundial ha anunciado sus primeras “Recomendaciones Presidio” para una IA generativa responsable. Asimismo, Naciones Unidas ha anunciado la creación de su primer Consejo Asesor en IA, dada la preocupación mostrada por el secretario general en lo que se refiere a la fragmentación y generación de desigualdades entre países.  

Ante este escenario, la regulación es indudablemente un factor enormemente importante. En efecto, la adopción de un marco regulatorio coherente por las distintas jurisdicciones es relevante en tres planos:

  • Un enfoque común entre países en el fomento de la protección, garantía, respeto y promoción de los derechos fundamentales, cuando estos se vean interpelados por los desarrollos en IA, tanto en positivo (por ejemplo, para ayudar a personas en situación de dependencia) como en negativo (cuando suponga una vulneración de un derecho laboral o de menores de edad, entre otros). Como indica la Declaración del G7, “las políticas y normativas sobre IA deben centrarse en el ser humano y basarse en valores democráticos, incluida la protección de los derechos humanos y las libertades fundamentales y la protección de la privacidad y los datos personales”. El objetivo no es armonizar los marcos de derechos, ya que depende de la soberanía de los Estados, pero sí garantizar un escenario que aspire a un régimen internacional de derechos digitales, como ocurre en otros ámbitos, como el del comercio internacional, humanitario o de protección cultural.
  • Una mayor certidumbre jurídica y económica sobre cómo hacer uso de los datos personales, no personales e industriales que nutren los sistemas de inteligencia artificial en las relaciones comerciales entre países. A día de hoy, todavía existen divisiones entre los países sobre cómo garantizar el flujo internacional de datos personales, no personales e industriales. La propuesta de la presidencia japonesa del G20 sobre un Data Free Flow with Trust (el llamado Osaka Track) en 2019 fue apoyado por la mayor parte de países europeos y norteamericanos, pero fue rechazado por países como Sudáfrica, la India o Singapur. Si bien la UE tiene sus “decisiones de adecuación” para intercambiar datos con terceros, muchos países del mundo todavía no disponen de marcos comunes aceptados. Esto puede tener un efecto significativo en cómo transmitir datos y, por tanto, nutrirse de los mismos para madurar los sistemas de IA. Asimismo, la creciente preocupación por crear mecanismos de seguridad económica se debe en parte a los desarrollos tecnológicos, a los riesgos de captación de información sensible por terceros y a la vulnerabilidad que generaría que ciertos actores accedieran a datos europeos sin cumplir con los procedimientos estipulados.  

    Rhodium Group señala que no existe ninguna serie de datos económicos que pueda captar eficazmente las decisiones de las empresas de reducir intencionadamente su exposición económica real a otros países, en particular al caso de China, dados los anuncios recientes de 2023 donde tanto la presidenta de la Comisión Europea, Ursula von der Leyen, y el consejero de Seguridad Nacional, Jake Sullivan, indican que no se desacoplarán (decoupling) de China, pero sí buscarán disminuir el riesgo (de-risking). Los datos oficiales de Pekín sobre inversión extranjera directa miden cada vez más las transacciones puramente financieras, incluidas las de las empresas estatales chinas, y no las decisiones de las empresas extranjeras.

    Más allá del escenario que cada país elija, lo cierto es que, en materia de IA, una regulación permitiría garantizar un seguimiento –que no supervisión– más continuado y riguroso de los flujos comerciales en aquellos países donde exista una técnica normativa precisa, que además pueda compartir con socios y aliados.  
  • Una mayor protección de la seguridad global. El mayor control de las exportaciones de productos de alta tecnología como los semiconductores y la fabricación relacionada con la IA por parte de EEUU hacia China en 2023 son ejemplos en los que la tendencia hacia un mayor intervencionismo se está convirtiendo en una práctica habitual.

Sin embargo, el efecto Bruselas de la nueva normativa sobre IA será más limitado que en otras ocasiones. Y de ahí la importancia de seguir en la medida de lo posible un enfoque colaborativo. De lo contrario, por mucha regulación que se apruebe en la UE o incluso en otras jurisdicciones democráticas, habrá importantes lagunas por las que la IA llegará a generar externalidades negativas sobre nuestras sociedades.

Para ello, será necesario adoptar una regulación que mire a aspectos de la seguridad, como se ha mencionado, pero también a las necesidades sociales, tanto laborales como de concienciación social, para adaptarse a la actual economía del conocimiento.