Riesgos sin fronteras: el uso malicioso de la IA y el alcance mundial de la Ley de Inteligencia Artificial de la Unión Europea

Imagen de una de las entradas al edificio del Parlamento Europeo en Bruselas. La fachada de vidrio despliega el logo del Parlamento y la bandera de la Unión Europea. A la izquierda del edificio gris, algunas banderas de los estados miembros de la UE.
Sede del Parlamento Europeo en Bruselas. Foto: Steven Lek (Wikimedia Commons / CC BY-SA 4.0).

Mensajes clave[1]

  • La Ley de Inteligencia Artificial de la Unión Europea (UE) (Ley de IA) es una de las primeras regulaciones vinculantes sobre inteligencia artificial (IA) en el ámbito mundial. Las autoridades europeas pretendían que sirviese de modelo para la gobernanza mundial de la IA, confiando en el llamado “efecto Bruselas”.
  • En un campo tan dinámico y transformador como la IA, la calidad de la regulación es un requisito imprescindible para tener influencia y servir de modelo. En este caso, la calidad incluye contemplar adecuadamente la mayoría de los riesgos críticos asociados al uso, el despliegue y la adopción de la IA.
  • Entre esos riesgos se cuenta el uso malicioso, que consiste en el aprovechamiento deliberado de las capacidades de la IA para causar daño. El presente análisis examina a fondo las disposiciones de la Ley de IA contra los riesgos que entraña el uso malicioso.
  • Los resultados revelan que la cobertura de los riesgos de uso malicioso en la Ley de IA es desigual: mientras que algunos riesgos se afrontan de manera directa, otros apenas se abordan de manera indirecta a través de otras normativas de la UE o sus Estados miembros, o bien recurriendo a distintas iniciativas internacionales. Al contener lagunas importantes, la Ley de IA menoscaba su propio valor como modelo mundial.
  • La dependencia de la regulación nacional o sectorial para hacer frente a esas carencias puede resultar coherente desde el punto de vista interno para evitar solapamientos y un exceso de celo regulador, pero presupone la existencia generalizada de principios comparables que se replicarán a nivel internacional, una premisa que podría ser errónea.
  • Por lo tanto, las instituciones europeas deben someter a la Ley de IA a revisiones periódicas para reforzar y completar su cobertura regulatoria. Sin embargo, iniciativas recientes como el Ómnibus Digital apuntan a una restricción de su ámbito de aplicación, con el consiguiente riesgo de perjuicio reputacional. Al mismo tiempo, la UE debería interactuar en el ámbito internacional echando mano de un relato renovado que reconozca las limitaciones de la Ley de IA a la hora de exportarla en su forma actual.

Análisis

Iniciativas de seguridad de la IA frente a la presión competitiva

En el panorama geopolítico actual, la carrera por el dominio de la IA entre Estados y empresas gira en torno al liderazgo y las capacidades tecnológicas, no en torno a la seguridad o la gestión de riesgos. Así lo ponen de manifiesto las políticas, las inversiones y los avances científicos de los principales actores geopolíticos.

Estados Unidos (EEUU) hizo público su plan de acción en IA en el verano de 2025, cuyo fin consiste en situar la IA estadounidense como el estándar en el ámbito mundial y garantizar que los aliados dependan de su tecnología. Este objetivo se intenta cumplir a través de un enfoque regulatorio prácticamente sin intervencionismo, el cual incluye la revocación de la orden ejecutiva de Joe Biden sobre una IA segura y responsable y el impulso a distintas iniciativas destinadas a bloquear la regulación de la IA en los Estados. Esta estrategia ha resultado beneficiosa para el sector privado estadounidense, que incluye muchas de las empresas punteras en IA mundialmente y encabezó la inversión privada en IA en 2024 con casi 110.000 millones de dólares, quintuplicando con creces el total invertido en Europa.

Por su parte, China también aspira al liderazgo mundial en IA en 2030, con avances deliberados en teorías, tecnologías y aplicaciones de IA. Lo consigue mediante una política industrial coordinada para toda la cadena de valor de la inteligencia artificial que incluye energía, talento, datos, algoritmos, hardware y aplicaciones, situando la IA como una herramienta para abordar los desafíos económicos, sociales y de seguridad. Goldman Sachs calcula que los proveedores chinos de IA invertirán 70.000 millones de dólares estadounidenses en centros de datos en 2026, los cuales se sumarán al amplio apoyo estatal para impulsar la capacidad nacional en materia de semiconductores y una infraestructura de computación compartida.

La UE también ha tomado nota de este panorama competitivo. En abril de 2025, puso en marcha el Plan de Acción “Continente de IA” con el fin de movilizar los ámbitos de infraestructura de computación, datos, talento, algoritmos y regulación. La UE ha anunciado 19 factorías de IA, 13 antenas de factorías de IA y, en cooperación con el Banco Europeo de Inversiones (BEI), cinco gigafactorías de IA. Se espera que se debatan y aprueben nuevas iniciativas en torno a la IA a principios de 2026, con la propuesta de la Ley de desarrollo de la computación en la nube y la inteligencia artificial, cuyo objetivo consiste en estimular la capacidad de computación en la nube de la UE, y el Ómnibus Digital, simplificando –y reduciendo– algunos de los elementos de la Ley de IA como parte del impulso reciente de desregulación en la UE.

Estos acontecimientos han captado la atención del público y de autoridades de todo el mundo en los últimos meses. Son un reflejo de un entorno de competencia feroz con rápidos avances. Este contexto suele eclipsar, e incluso anular por completo, las iniciativas e inquietudes en torno a la seguridad y la gestión de riesgos de la IA. Así queda perfectamente ilustrado por la escasa atención dedicada a muchas iniciativas orientadas a la seguridad, a pesar de haberse emprendido casi al mismo tiempo que las iniciativas mencionadas de promoción de la IA. En la UE, el compromiso con la seguridad internacional de la IA lo abandera la Oficina Europea de Inteligencia Artificial. Dicho compromiso incluye la Red Internacional de Institutos de Seguridad de la IA, la labor en torno a seguridad, el reconocimiento mutuo y las normas en el contexto de las asociaciones digitales de la UE con Canadá, la República de Corea y Singapur, o el Consejo de Comercio y Tecnología con la India.

La dinámica de presión competitiva extrema otorga un papel más crítico que nunca a los marcos reguladores de la IA para integrar salvaguardias que puedan evitar la materialización de los riesgos catastróficos asociados a las capacidades y el despliegue rápido de la IA. Aunque las autoridades estén prestando más atención a esa rivalidad y, sobre todo en el caso de la UE, a la competitividad, la comunidad académica de la IA y la sociedad civil siguen centrándose en la confianza, la seguridad y los riesgos.

En este contexto, la Ley de Inteligencia Artificial (Ley de IA) de la UE destaca como una de las primeras normativas vinculantes del mundo en este ámbito. Aunque ya hay otros gobiernos y órganos internacionales que han emitido documentos sobre seguridad de la IA, siempre incluyen principios generales y no vinculantes, con mecanismos endebles de ejecución o supervisión. En cambio, la Ley de IA es muy específica: regula casos de uso concretos en función de su riesgo previsto, en vez de abordar la tecnología en sí.

Más allá de su innovación jurídica, la Ley de IA reviste una gran importancia en el ámbito mundial. Las instituciones europeas pretendían que sirviese de modelo para la gobernanza de la IA. Presuponían que la ventaja de su regulación por su carácter pionero y por el tamaño del mercado de la UE –el llamado “efecto Bruselas”– bastaría para convencer a otras jurisdicciones de que basaran sus normativas en la Ley de IA de la UE. Aunque la influencia no fuese la motivación principal, no cabe duda de que fue un factor que ayudó a aprobar la normativa, puesto que el Consejo de la UE elogió la Ley de IA como un posible “referente mundial por lo que respecta a la regulación de la IA”.

Las reacciones de la comunidad internacional a la Ley de IA han sido dispares. En EEUU, las encuestas de opinión muestran un apoyo del público a la Ley de IA de la UE y normativas similares en su propio país, una postura que contrasta sobremanera con la de la Administración Trump. En cambio, China ha elaborado su propio marco de seguridad de la IA, ha manifestado su apoyo a “marcos jurídicos y éticos integrales” y ha presentado propuestas para su gobernanza mundial. Al mismo tiempo, otros grandes actores digitales del sur global están desarrollando su posición sobre la Ley de IA y la gobernanza de la IA en general. La India, con un sólido ecosistema digital y de inteligencia artificial, ve en la Ley de IA una fuente de inspiración, en especial por lo que respecta a su enfoque basado en riesgos, los requisitos de supervisión humana, las normas de protección de datos y la agilización de la gobernanza de IA a través de una autoridad centralizada. Este punto de vista no se comparte de forma unánime en el sur global. En Sudáfrica, por ejemplo, algunas organizaciones de la sociedad civil han afirmado que les preocupa que se sigan planteamientos europeos de forma acrítica para la regulación digital.

Aun así, para que la Ley de IA triunfe como modelo de gestión de los riesgos, la primera condición es que tenga calidad normativa. En el contexto de la IA, la calidad normativa conlleva la capacidad de abordar a lo largo del tiempo y de manera adecuada los riesgos más críticos que plantean los sistemas de IA, es decir, los relacionados con los posibles perjuicios más graves y las repercusiones más nocivas. Dicho de otro modo, el presente análisis propugna que, para que las autoridades extranjeras atentas a las consideraciones en materia de seguridad de la IA vean la Ley de IA como un referente, la regulación debe abordar y constatar los riesgos pertinentes. De lo contrario, la Ley de IA no logrará tener ninguna influencia a nivel mundial y se verá superada por marcos alternativos que afronten mejor los riesgos conocidos.

En este contexto, este análisis se centra en los riesgos derivados del uso malicioso de la IA, que son las prácticas intencionadas que recurren a la IA para hacer daño. Estos riesgos son un subconjunto de las formas más graves y previsibles de lo que las comunidades de seguridad de la IA tildan como resultados “catastróficos”, desde la desinformación y el fraude a gran escala a la ciberdelincuencia y el desarrollo de armas biológicas. El argumento que se propone es que, si la Ley de IA de la UE pretende lograr su objetivo de servir de referencia mundial para la gestión de riesgos de la IA, debe tener en cuenta de manera adecuada los riesgos derivados de su uso malicioso. De no conseguirlo en su forma actual, es importante que se introduzcan los ajustes normativos correspondientes.

Por lo tanto, el texto se estructura en cuatro partes diferenciadas: en primer lugar, se esboza el marco de uso malicioso que se empleará a lo largo del documento; en segundo lugar, se pondera si la Ley de IA reconoce en sus disposiciones los subriesgos del uso malicioso y sus posibles carencias; en tercer lugar, se examinan los motivos que subyacen al diseño y las limitaciones de la Ley de IA; y, por último, en el artículo se vinculan los problemas que plantean sus conclusiones para el efecto Bruselas pretendido para la Ley de IA.

Discrepancias entre los marcos de riesgos de la IA: Ley de IA frente a los riesgos del uso malicioso

La Ley de IA impone obligaciones a (principalmente) proveedores y distribuidores de sistemas de IA en función de la intensidad de los posibles riesgos derivados de sus casos de uso. Según el texto de la ley, los sistemas de la IA se clasifican en tres categorías de riesgo: aquellos cuyo uso plantea riesgos inaceptables y, por lo tanto, quedan prohibidos; aquellos con casos de uso de alto riesgo, los cuales presentan obligaciones en materia de transparencia, ciberseguridad y gestión de riesgos; y aquellos casos de uso cuyo riesgo reside en la falta de transparencia de los sistemas de IA y su despliegue. No obstante, este planteamiento varía para los modelos de IA de uso general (GPAI), que se consideran un tipo específico de tecnología de IA con obligaciones diferenciadas. En este caso, el texto plantea amplias obligaciones en materia de transparencia a los proveedores de modelos GPAI, que van desde la información para los desarrolladores posteriores de sistemas de IA y la divulgación de los datos empleados con fines formativos. Los requisitos son aún más exhaustivos en el caso de modelos de GPAI con riesgos sistémicos, con una gestión de riesgos y unas obligaciones reforzadas en materia de ciberseguridad.

No obstante, la categorización de riesgos de la Ley de IA no es más que una entre muchas de las elaboradas y aplicadas por la industria, los gobiernos, las organizaciones internacionales, el mundo académico y la sociedad civil. Si bien el enfoque de la Ley de IA basado en la “intensidad del riesgo” puede ser el adecuado para la rápida elaboración y aplicación de políticas, resulta menos idóneo a la hora de evaluar la cobertura de los riesgos más críticos derivados de la IA. En un contexto como este, y habida cuenta de las oportunidades extraordinarias que brinda la IA para que los agentes maliciosos causen daños, el presente análisis gira en torno a los riesgos de ese uso malicioso. Se trata de prácticas deliberadas que emplean las capacidades de la IA para poner en peligro la seguridad de distintos individuos, grupos o la propia sociedad. El elemento definitorio es la intención de causar daño, que distingue el uso malicioso del uso indebido accidental o de otras consecuencias no deseadas de la IA. El uso malicioso también se diferencia de lo que cabría llamar abuso malicioso, el cual aprovecha los puntos débiles de los propios sistemas de IA en lugar de instrumentalizar las capacidades de esos sistemas.

Los riesgos del uso malicioso se pueden dividir a su vez en subriesgos específicos. En aras de la exhaustividad, el presente análisis examina el modo en el que la Ley de IA afronta nueve subriesgos identificados. La categorización pretende ser completa y se basa en los riesgos del uso malicioso ya mencionados en los que hacen hincapié las organizaciones internacionales de seguridad de la IA, los informes sobre políticas, el mundo académico y los incidentes notificados. Los nueve subriesgos resultantes son los siguientes:

  • Armas biológicas y amenazas químicas: el uso de la IA para diseñar toxinas o patógenos novedosos (bioterrorismo), llevar a cabo un ataque biológico o proporcionar instrucciones con el fin de reproducir las armas biológicas y químicas existentes. Incluye riesgos de doble uso en los que se puede reutilizar el descubrimiento de fármacos por IA o las propias IA médicas con fines maliciosos.
  • IA con intenciones maliciosas: la creación e implantación de sistemas autónomos con fines destructivos (por ejemplo, ChaosGPT). Son sistemas que se pueden desplegar sin más o destinar a objetivos nocivos, con capacidad de adaptarse sin supervisión humana.
  • IA de desinformación y persuasión: IA empleada para generar contenido falso o engañoso a gran escala o con fines de persuasión personalizada (incluso desinformación personalizada) mediante la explotación de puntos vulnerables cognitivos. Estos usos hacen mella en la democracia y en la confianza pública y pueden incluir operaciones encubiertas de injerencia extranjera.
  • Contenido falso y abusivo: IA generativa empleada para crear contenido que perjudique a individuos. Se incluyen aquí las imágenes íntimas sin consentimiento, los materiales de abuso sexual infantil generados por IA, el fraude por suplantación de voz, el chantaje, la extorsión, el daño a la reputación y el abuso psicológico.
  • Fraude, estafas e ingeniería social: sistemas de IA (por ejemplo, WormGPT o FraudGPT) empleados para llevar a cabo phishing o suplantaciones, así como chatbots fraudulentos convincentes que potencian la eficacia del engaño a las víctimas.
  • Ciberdelincuencia: IA utilizada para respaldar y automatizar la generación de malware, el descubrimiento de vulnerabilidades y el phishing multilingüe, creando asimetrías entre delincuencia y defensa y ayudando a neutralizar las barreras de entrada en beneficio de los atacantes.
  • Armas autónomas y uso militar: despliegue de drones y sistemas de armas potenciados por IA que pueden seleccionar y atacar objetivos sin supervisión humana, lo que incrementa los riesgos de escalada.
  • Concentración de poder: cuando los gobiernos o las empresas hacen un uso indebido de la IA para afianzar su autoridad, suprimir la disidencia y monopolizar las capacidades de IA.
  • Vigilancia y opresión estatales: IA que habilita la vigilancia gubernamental a escala masiva, el control policial predictivo, la censura y la represión de las minorías.

Tal y como se ha argumentado, toda regulación que pretenda ejercer una influencia normativa mundial debe incluir una cobertura exhaustiva de los riesgos derivados del uso malicioso. Por lo tanto, las disposiciones de la Ley de IA se someterán a una prueba de resistencia frente a este marco de riesgos de uso malicioso.

Cobertura desigual de los riesgos del uso malicioso en la Ley de IA

Tal y como se muestra en la Figura 1, la cobertura de los riesgos derivados del uso malicioso es muy desigual en la Ley de IA. Cuatro de los subriesgos prácticamente no se regulan, otros cuatro se abordan solamente de manera parcial o indirecta y únicamente uno de los subriesgos está sometido a amplias prohibiciones y salvaguardias. Esta disparidad, aparte de hacer mella en la coherencia interna de la Ley de IA, menoscaba su potencial como modelo de regulación a nivel mundial.

Sin cobertura directa ni solapamiento fortuito

Cuatro subriesgos no reciben cobertura directa: armas biológicas y amenazas químicas; IA con intenciones maliciosas; armas autónomas; y concentración de poder. Sólo se abordan de manera fortuita a través de las disposiciones generales sobre el riesgo sistémico de la GPAI o quedan absolutamente fuera del alcance del ámbito de aplicación de la Ley.

En el caso de las armas biológicas y las amenazas químicas, únicamente se aplican las disposiciones genéricas sobre gestión de riesgos y notificación de incidentes para los modelos GPAI con riesgos sistémicos. Las convenciones internacionales que prohíben las armas biológicas y químicas siguen siendo la principal salvaguardia.

Las IA con intenciones maliciosas se enfrentan a un vacío regulador similar. Aunque los modelos GPAI, en especial los de código abierto, pueden servir para desarrollar agentes de IA autónomos con objetivos nocivos, la mitigación queda limitada a la gestión de riesgos y la notificación de incidentes para los modelos GPAI que incluyan riesgos sistémicos, con una capa adicional de protección derivada de las obligaciones de supervisión humana para sistemas de IA de alto riesgo. Estas últimas podrían poner coto al carácter autónomo de las IA con intenciones maliciosas y, por lo tanto, limitar su riesgo.

Mientras tanto, las armas autónomas y el uso militar quedan fuera del ámbito de aplicación de la Ley de IA de manera explícita porque las políticas de defensa y seguridad nacional son competencias de los Estados miembros. Los sistemas de IA de doble uso (aquellos con casos de uso militares y civiles) son los únicos sujetos a la Ley de IA, por lo que existen lagunas importantes en uno de los ámbitos de riesgo más catastróficos.

Por último, se hace caso omiso en gran medida de los riesgos relacionados con la concentración de poder: mientras que el uso de la IA para el poder estatal queda limitado a través de las restricciones impuestas al control policial predictivo, lo que no se controla en absoluto es la concentración de poder empresarial. Resulta especialmente pertinente en un contexto en el que el Reglamento de Mercados Digitales no aborda algunas de las dinámicas de concentración de las tecnologías de IA. Entre ellas, los beneficios derivados de la inmensa cantidad de datos que manejan los gigantes empresariales digitales o la ventaja en cuanto a infraestructura de los proveedores de la nube, los cuales concentran un tremendo poder de computación esencial tanto para el desarrollo como para el uso de grandes modelos de IA.

Cobertura parcial o indirecta

Otros cuatro subriesgos del uso malicioso únicamente se abordan de manera parcial: las IA de desinformación y persuasión; el contenido falso y abusivo; el fraude, las estafas y la ingeniería social; y, por último, la ciberdelincuencia. En todos estos casos, existen obligaciones (transparencia, prohibiciones limitadas y ciberseguridad) que, sin embargo, no abordan ni todos los aspectos ni todas las fuentes del riesgo. Con frecuencia, es necesario promulgar y utilizar legislación complementaria para completar la cobertura del riesgo.

En el caso de las IA de desinformación y persuasión, la Ley de IA prohíbe las técnicas manipuladoras y engañosas para alterar los comportamientos y exige la identificación del contenido deepfake y sintético y las interacciones entre humano y máquina. A pesar de esas obligaciones, la normativa no impide la persuasión personalizada, por ejemplo, a través de chatbots de IA, lo que deja un vacío importante que se subsana en parte gracias al Reglamento de Servicios Digitales.

El contenido falso y abusivo se aborda indirectamente a través de las prohibiciones sobre la explotación de los puntos vulnerables de los individuos para influir en su comportamiento (por ejemplo, el uso de sistemas de IA con fines de chantaje y extorsión). No obstante, quedan ausentes formas graves e importantes de contenido falso y abusivo, como las imágenes íntimas sin consentimiento o los materiales de abuso sexual infantil generados por IA –cuyas víctimas son principalmente mujeres y niños, respectivamente–. En ambos casos, las obligaciones de etiquetado de contenido deepfake y sintético apenas aportan una protección endeble de los riesgos y sus víctimas, sobre todo teniendo en cuenta que existen métodos técnicos sencillos para eludir ese etiquetado.

En el caso de fraude, estafas e ingeniería social, los riesgos tampoco se regulan de manera explícita. Los requisitos de transparencia y divulgación pueden reducir la eficacia de la suplantación o el phishing, pero no evitan por completo esas prácticas.

Del mismo modo, la ciberdelincuencia se aborda principalmente a través de legislación anterior de la UE que tipifica los ciberataques, con independencia del medio empleado. Las disposiciones de la Ley de IA se centran más en el abuso malicioso –como la protección de los sistemas de alto riesgo frente a ataques de adversarios– que en el uso malicioso en sí, por lo que los ciberataques potenciados por IA quedan en gran medida fuera de su ámbito de aplicación.

Cobertura relativamente extensa

En cambio, el único subriesgo contemplado de manera exhaustiva es la vigilancia y la opresión estatales. Entre otras prácticas, la Ley de IA prohíbe los sistemas de puntuación social, el control policial predictivo, determinados tipos de identificación y la categorización biométrica. Esa circunstancia pone de manifiesto la relevancia política de esta cuestión en los debates de la UE, lo que podría deberse al carácter novedoso de este riesgo frente a otros, así como al precedente de los regímenes autoritarios que recurren a esta tecnología, con el ejemplo notorio de China. El progreso y la amplia disponibilidad de la conectividad, los circuitos cerrados de televisión, los datos y los modelos de IA de mejor rendimiento han hecho que este riesgo pase a ser una inquietud fundamental para las autoridades y para la sociedad en su conjunto.

En resumen, la Ley de IA proporciona una cobertura desigual de los riesgos derivados del uso malicioso. Tal y como se analizará en la próxima sección, esa situación podría tener sentido desde un punto de vista intraeuropeo, pero tiene implicaciones negativas para su potencial como modelo regulador de referencia a nivel mundial.

La cobertura de los riesgos del uso malicioso está limitada por diseño en la Ley de IA

El motivo por el que la cobertura de riesgos de la Ley de IA es desigual radica en su diseño y es una circunstancia parcialmente intencionada. Tiene que ver con intentar evitar redundancias en la regulación, puesto que la Ley de IA se concibió como parte integral de un corpus legislativo más amplio. El objetivo de la Ley de IA consiste en abordar los riesgos derivados de la IA que no hayan sido contemplados en normativas anteriores. Por ejemplo, el desarrollo y uso de armas biológicas y la perpetración de estafas y ciberataques ya eran acciones tipificadas como delito antes de que apareciera la tecnología. Por lo tanto, como los delitos potenciados por IA no deben ser objeto de un tratamiento diferenciado frente a los delitos tradicionales, y las protecciones no deben ser redundantes ni excesivamente onerosas a luz de la legislación existente, no tenía sentido contemplarlos ampliamente en la Ley de IA.

La consecuencia es que, como ya se ha mencionado en la sección anterior y cabe apreciar en la última columna de la Figura 1, muchos de los subriesgos del uso malicioso aparecen recogidos en otras normativas de la UE. Por ejemplo, las IA de persuasión aparecen contempladas en parte en el Reglamento de Servicios Digitales; algunos tipos de contenido falso y abusivo, en la directiva que incluye las imágenes íntimas sin consentimiento; las protecciones contra la ciberdelincuencia, en la Ley de Ciberresiliencia; y el poder corporativo, en el Reglamento de Mercados Digitales. Esto tiene sentido desde el punto de vista interno para evitar la sobrerregulación y simplificar la conformidad. Por lo tanto, lo que se propusieron los reguladores fue abordar un aspecto singular de la IA, en concreto que la tecnología sirviera de puerta de acceso para llevar a cabo actividades de uso malicioso y sus repercusiones posteriores. En consecuencia, los legisladores intentaron incluir salvaguardias que dificultaran esa actividad y disminuyeran los incentivos derivados de optar por conductas ilegales a través de la IA.

Aparte de que esa decisión consciente sobre el diseño hace que la Ley de IA sea irregular, existen otras limitaciones en su ámbito de aplicación que no se aprecian en la cobertura de cada subriesgo específico, sino en el carácter transversal de los riesgos derivados del uso malicioso. Las limitaciones se encuentran en el tratamiento del uso personal y la definición del “mal uso razonablemente previsible”. La Ley de IA coloca el uso personal de la IA en una zona gris, ya que no se contemplan los usos personales y no profesionales de los sistemas de IA. El texto se centra en las obligaciones de desarrolladores y proveedores para limitar el riesgo de uso malicioso en fases posteriores. Por lo tanto, los individuos malintencionados se libran de las consecuencias hasta que los atrape la legislación penal más adelante. Aquí también, cabe entender esta decisión como un intento de evitar la duplicación (doble tipificación) de actividades ya consideradas ilegales en el ordenamiento jurídico de la UE y sus Estados miembros; también porque la supervisión del cumplimiento de la Ley de IA en lo que atañe al uso personal e individual sería imposible sin una gran iniciativa de vigilancia a gran escala. Ahora bien, ese ajuste genera una laguna importante y especialmente problemática en la cobertura del uso malicioso, puesto que la IA multiplica los incentivos y la facilidad con la que se produce la actividad malintencionada y, por lo tanto, debilita la capacidad de disuasión de un posible procesamiento penal.

Además, la Ley de IA establece obligaciones relacionadas con la gestión de riesgos en función del uso previsto y del “mal uso razonablemente previsible” de los sistemas de IA, tanto para los sistemas de IA de alto riesgo como para los modelos GPAI con un riesgo sistémico. La cuestión es que el mal uso “razonablemente previsible” se presta a significados e interpretaciones diferentes, lo que menoscaba tanto la coherencia en la aplicación como la seguridad jurídica. Sin duda, algunas empresas se aferrarán a esa indefinición, como hizo OpenAI ante los tribunales al defender que el uso de ChatGPT con fines de autolesión no era responsabilidad suya, puesto que formaba parte del “uso indebido, uso no autorizado, uso no previsto, uso imprevisible y/o uso inadecuado” a título personal de su producto.

Aun así, desde el punto de vista de la influencia y la expansión normativa, estas decisiones y limitaciones de diseño son un problema: al dejar fuera del alcance de la Ley de IA muchos de los riesgos derivados del uso malicioso, se reduce su valor como referente. Es posible que los reguladores de la UE hayan supuesto que las obligaciones y los principios no incluidos ya estén contemplados por los demás países en su ordenamiento jurídico; o bien, que la influencia reguladora de esas legislaciones nacionales también se expandirá en consecuencia. Sin embargo, lo más probable es que los terceros países no quieran importar todo el ecosistema regulador de la UE. Aunque estas decisiones resulten apropiadas para la protección de los usuarios y las empresas de la UE, van en contra de la promoción de la influencia.

Por último, es importante destacar que, en algunos casos, las salvaguardias propuestas en la Ley de IA son muy débiles con respecto a la amenaza en cuestión. El caso de la persuasión personalizada resulta esclarecedor, ya que se aborda a medias entre la Ley de IA y el Reglamento de Servicios Digitales sin contar con una regulación adecuada. Por ejemplo, la Ley de IA exige que los chatbots de persuasión aparezcan etiquetados convenientemente para indicar el carácter de las interacciones entre humano y máquina. Ahora bien, los casos de suicidio e incluso homicidio de los últimos meses han puesto de manifiesto que el potencial de persuasión de la IA no se consigue mitigar con el etiquetado explícito de los chatbots de IA como artificiales, ni tampoco comunicando a los usuarios las condiciones de uso de las herramientas de IA.

En definitiva, las limitaciones descritas dan pie a lagunas de aplicación que pueden permitir que el uso malicioso prospere al margen de la Ley, lo que hace mella tanto en su función de protección dentro de la UE como en su credibilidad como referente regulador a nivel mundial.

Conclusiones

La Ley de IA de la UE ha suscitado mucha atención en los últimos años. Su carácter novedoso como primer intento exhaustivo de regulación de la IA y los supuestos incentivos para atenerse a ella hicieron que los responsables políticos confiasen en que el enfoque de la UE pasaría a ser el referente mundial.

Una gran parte del debate sobre la Ley de IA tras su aprobación y entrada en vigor se ha centrado en la sobrerregulación, la innovación o los obstáculos para su aplicación. Sin embargo, se ha prestado escasa atención a la idoneidad de la cobertura de los riesgos en la Ley y su capacidad para proteger a la sociedad de los usos maliciosos de la IA. La intención del presente documento ha sido cubrir ese vacío.

El análisis pone de manifiesto que la cobertura de los riesgos derivados del uso malicioso es desigual. Pese a que los riesgos de la vigilancia y opresión estatales se tienen muy en cuenta, otros riesgos críticos –como las armas biológicas, las IA malintencionadas o la concentración de poder en manos de empresas– quedan en gran medida sin abordar. En algunos casos, como ocurre con las armas autónomas, la comunidad internacional intenta subsanar esa carencia; en otros, la expectativa es que distintas regulaciones sectoriales y horizontales mitiguen el uso malicioso.

Ese desequilibrio en la cobertura de los riesgos derivados del uso malicioso repercute negativamente en la influencia de la Ley de IA a nivel mundial. Su dependencia de otras normativas nacionales y de la UE, la prevención del “mal uso razonablemente previsible” y la exclusión de los usos personales no profesionales de los sistemas de IA plantean otros escollos para la eficacia del efecto Bruselas en el ámbito de la inteligencia artificial. Estas decisiones de diseño hacen mella en las probabilidades de que esta ley se convierta en un modelo de regulación al limitar su exportabilidad. El problema radica en ignorar la transformación que supone la IA para el análisis de coste-beneficio del uso malicioso: reduce las barreras de acceso, multiplica los incentivos y reduce los elementos disuasorios. Por lo tanto, la dependencia de las legislaciones nacionales y sectoriales, la exclusión del uso personal y la ambigüedad de la interpretación dejan margen de sobra para que los usuarios maliciosos causen daño.

Las perspectivas presentes en este análisis proporcionan tres opciones normativas complementarias a los responsables políticos de la UE que deseen que la Ley de IA se replique a nivel mundial. La primera es replantearse la Ley de IA a través del prisma de otras categorizaciones de riesgos. El presente análisis no ha ofrecido más que un ejemplo de que el ajuste del marco permite identificar lagunas y vacíos legales. Cotejar el texto a la luz de otros riesgos (por ejemplo, la instrumentalización indirecta de una IA perjudicial sin malas intenciones o el comportamiento egoísta de la IA en el contexto de las dinámicas de competencia corporativa) podría enriquecer nuestra comprensión de la cobertura de riesgos de la IA y plantearía opciones para mejorar la regulación.

La segunda opción normativa consiste en introducir enmiendas en la Ley de IA en las revisiones periódicas previstas que se contemplan en el artículo 112 a partir de las conclusiones constatadas. En particular, se podría modificar la lista de sistemas de IA de alto riesgo del Anexo III mediante actos delegados, los cuales exigen menos tiempo y menos recursos con un menor coste político. El objetivo sería subsanar las carencias desatendidas, como por ejemplo la protección frente a las IA de persuasión.

Por último, la tercera posibilidad normativa guarda relación con el diálogo internacional. Las autoridades europeas deben reconocer con franqueza ante sus socios que la Ley de IA no se puede exportar en su forma actual. Por lo tanto, la interacción y el discurso de la UE a nivel internacional deben abstenerse de presentar la Ley de IA como un modelo mundial directamente aplicable, sino como el punto de partida para iniciar una conversación. Su enfoque basado en los riesgos resulta atractivo, pero depende de la subjetividad de las percepciones y tolerancias, las cuales pueden ser distintas de una cultura o sociedad a otra. Se trata de un marco incompleto que se basa en legislación previa, la cual, a su vez, parte de concepciones subjetivas de la concentración de poder y la libertad de expresión, entre otros aspectos. En cualquier caso, la UE puede convertir esta situación en una oportunidad de mejora. El campo de la IA está en constante evolución, por lo que la UE debe optar por un planteamiento abierto de aprendizaje en su diálogo con interlocutores internacionales, utilizar su propia regulación de la IA como base inicial para el debate y encontrar posibilidades de mejora a partir de otros enfoques.

Como ya se ha mencionado, el objetivo del presente análisis consiste en presentar un punto de vista complementario para el debate en torno a la Ley de IA y el efecto Bruselas, si bien desde un ángulo que hasta ahora no ha suscitado una atención excesiva. Valorar si la regulación puede servir de modelo para la gestión de riesgos de la IA, en especial a la hora de abordar los riesgos catastróficos que pretenden mitigar las sociedades de todo el mundo, sirve de método específico para evaluar el poder de atracción de la Ley de IA. Este enfoque conlleva sus propias precauciones y limitaciones que habrá que reconocer abiertamente; entre ellas, la más importante es que otros países se fijarán en parámetros de éxito ajenos al ámbito del presente artículo. De esos parámetros, hay dos que destacan sobre los demás.

El primero es si el modelo funciona de verdad para evitar los riesgos. Para ello, hay que someterlo a prueba, lo que sólo se puede llevar a cabo cuando entren en vigor todas las disposiciones de la Ley de IA. En definitiva, solo el tiempo lo dirá.

Ahora bien, se aprecian ya señales desalentadoras en ese sentido. El Ómnibus Digital propuesto por la Comisión Europea en noviembre de 2025 incluye una serie de medidas que, por un lado, retrasan la implantación de salvaguardias contra los riesgos del uso malicioso y, por el otro, reducen la cobertura. Por ejemplo, el Ómnibus pospone la entrada en vigor de algunas obligaciones aplicables a sistemas de IA de alto riesgo incluso hasta un año o año y medio, e introduce un periodo de transición para los etiquetados de GPAI. Por lo que respecta a la reducción de la cobertura, exime de registrarse en la base de datos de alto riesgo de la IA a los proveedores de sistemas de IA de alto riesgo que lleven a cabo tareas específicas, y permite ampliar el tipo de datos empleados en el desarrollo y la formación de modelos. Esto último podría incrementar la incidencia y eficacia de los sistemas de IA de desinformación y persuasión, el contenido falso y abusivo o los usos con fines de ingeniería social.

Estos cambios, introducidos apenas dos años después de que la Comisión, el Consejo y el Parlamento Europeo llegaran a un acuerdo en los trílogos, han suscitado una fuerte incertidumbre jurídica entre las empresas e indignación entre las organizaciones de derechos humanos y digitales. Las modificaciones las deben negociar y aprobar el Consejo y el Parlamento antes de agosto de 2026, cuando empezarían a aplicarse las obligaciones conforme al marco jurídico actual. No obstante, ninguno de estos colegisladores ha dado muestras de premura, mientras la industria sigue sin saber a qué obligaciones deberá atenerse. Esta situación retrasa la prueba de fuego de la Ley de IA como referente y hace mella en la percepción sobre su eficacia.

Otro indicio de éxito para las autoridades extranjeras es que la Ley de IA acabe facilitando o entorpeciendo el desarrollo del sector de la IA en Europa. Por desgracia, el momento para llevar a cabo una evaluación objetiva en este sentido es muy inconveniente. El informe Draghi desencadenó una oleada involuntaria de críticas en el discurso político europeo sobre los efectos de la regulación europea para la competitividad y la capacidad de innovación de los distintos sectores de la UE. El ómnibus mencionado da buena muestra del afán por simplificar. Por lo tanto, toda evaluación del impacto de la Ley de IA para la innovación y el desarrollo de la IA en la UE estará sesgada por el clima político actual. En cualquier caso, el presente análisis no valora si la Ley de IA promoverá o impedirá la generación de un ecosistema dinámico de IA en Europa, aunque no cabe duda de que otros países prestarán atención a esos factores cuando se planteen replicar la regulación.

En definitiva, la Ley de IA es un paso importante para la gobernanza en el ámbito de la inteligencia artificial, pero su alcance e influencia a nivel mundial se verán limitados por los escollos que plantee su aplicación y también por su diseño. Los responsables políticos de la UE, los proveedores y la comunidad de riesgos de la IA deben reconocer las importantes limitaciones que presenta la cobertura de riesgo. Los riesgos derivados del uso malicioso no son más que una dimensión del conjunto más amplio de riesgos catastróficos que plantea la IA. Los europeos no deben bajar la guardia y limitarse a fingir que la replicación de la Ley de IA en el extranjero bastaría para evitar todos los daños. En caso de seguir esa vía, los esfuerzos de Europa en el ámbito internacional en el ámbito de la gobernanza de la IA serían infructuosos.


[1] La autora desea expresar su agradecimiento a Judith Arnal, Darío García de Viedma, Amin Hass, Raquel Jorge y Miguel Otero Iglesias por sus comentarios sobre el presente análisis, los cuales han servido para enriquecer y mejorar el texto.