LA LEY ITALIANA SOBRE INTELIGENCIA ARTIFICIAL EN EL CONTEXTO EUROPEO

THE ITALIAN LAW ON ARTIFICIAAL INTELLIGENCE IN THE EUROPEAN CONTEXT

 

Davide Ragone

Doctor en Derecho, “Persona y tutela jurídica”, Scuola Superiore Sant’Anna (Pisa)

 
resumen - abstract
palabras claves - key words

 

 

 

"ReDCE núm. 44. Julio-Diciembre de 2025" 

 

Inteligencia Artificial y Derecho Constitucional (II).

 

SUMARIO

1. ¿Instrumento de aplicación o de reequilibrio normativo?

2. Lógica, perímetro y gobernanza del AI Act.

3. La ley italiana 132/2025: estructura, contenidos y modelo.

4. Relaciones entre la ley italiana y el reglamento europeo.

5. La ley italiana sobre la inteligencia artificial: ¿quo vadis?

 

  

Volver

 

1. ¿INSTRUMENTOS DE APLICACIÓN O DE REEQUILIBRIO NORMATIVO?

 

La aprobación del Reglamento (UE) 2024/1689 (en adelante, AI Act) ha sido la decisión más impactante que las instituciones de la Unión Europea podían adoptar para establecer una disciplina sobre inteligencia artificial: un reglamento, por tanto, una fuente directamente aplicable, concebida para definir estándares uniformes, reducir las diferencias normativas entre los Estados miembros e impedir la proliferación de reglas nacionales cada vez más divergentes. Ante un acto europeo tan invasivo, el legislador italiano ha considerado, aun así, necesario intervenir con una ley estatal que, en su intención, debería acompañar, completar o incluso anticipar la regulación de perfiles específicos tratados —o cubiertos— por el reglamento.

La pregunta que guía este estudio es aparentemente sencilla: ¿por qué Italia ha decidido legislar de forma tan incisiva en un sector ya disciplinado por un reglamento europeo? Una respuesta meramente textual resultaría insuficiente: es ciertamente correcto observar que la ley nacional aborda ámbitos en los cuales el AI Act deja determinadas decisiones a los Estados miembros —como las sanciones, la organización de las autoridades competentes o la aplicación de los sistemas de IA en la administración pública—, pero ello no explica el alcance político de la intervención ni su ubicación dentro de la tutela multinivel de los derechos más expuestos a los efectos de la inteligencia artificial. La hipótesis de partida de este trabajo es, por tanto, que la ley italiana no constituye únicamente un instrumento de aplicación administrativa o de integración técnica del reglamento europeo, sino un intento de “reajuste” del poder normativo entre el nivel nacional y el nivel europeo. Sobre la base de esta hipótesis, la elección del legislador italiano puede interpretarse como un intento de preservar espacios nacionales de decisión normativa en tensión con la aspiración de la Unión Europea de gobernar centralizadamente una tecnología cada vez más estratégica.

En un sector con una fuerte integración vertical, donde la definición de requisitos técnicos, categorías de riesgo y procedimientos de conformidad se encomienda mayoritariamente a las instituciones europeas, la intervención italiana pondría de manifiesto la persistencia (o la resistencia) de un espacio estatal como lugar de regulación política, a pesar del impulso creciente hacia una disciplina común. El resultado es un campo normativo complejo y destinado a cambios frecuentes, en el cual la ley nacional puede aparecer, según los casos, como anticipación, duplicación, reinterpretación o aparente contraste respecto de las nuevas reglas europeas.

El presente estudio se estructura de la siguiente manera: en el apartado 2 se exponen el diseño del legislador europeo y la ratio general del reglamento; en el apartado 3 se analiza la ley italiana 132/2025, explicando su estructura y su enfoque centralizado; en el apartado 4 se aborda la cuestión fundamental de la relación entre ambas fuentes en sus distintas manifestaciones (márgenes nacionales, ámbitos de prevalencia de la UE, problemas de solapamiento); en el último apartado se ofrecen algunas reflexiones sobre la naturaleza híbrida de la ley italiana y sobre la sostenibilidad de este modelo.

 

 

2. LÓGICA, PERÍMETRO Y GOBERNANZA DEL AI ACT.

 

Antes de examinar las decisiones adoptadas por el legislador italiano, es necesario delimitar el marco institucional en el que estas se insertan. El AI Act [01] constituye la normativa de referencia sobre inteligencia artificial en el espacio europeo [02]; sin embargo, en esta sede no interesa realizar un análisis pormenorizado del reglamento ni ofrecer una exposición técnica de sus categorías. Lo relevante es identificar su lógica general [03], determinar el alcance efectivo de los ámbitos que cubre e identificar los márgenes residuales dentro de los cuales los legisladores nacionales pueden actuar legítimamente. Solo sobre estas bases es posible valorar si —y en qué medida— la intervención italiana se sitúa en espacios fisiológicos o, por el contrario, presenta rasgos de “desbordamiento”.

El AI Act se articula sobre un planteamiento esencialmente basado en el riesgo [04], los sistemas de inteligencia artificial se clasifican en función del riesgo que pueden representar para los derechos fundamentales. Este enfoque permite a la Unión definir los elementos básicos del sector, reduciendo la posibilidad de que los Estados miembros elaboren modelos regulatorios autónomos. También es significativa la elección del instrumento: el uso del reglamento refleja la voluntad de evitar fenómenos de fragmentación normativa que podrían derivarse de transposiciones divergentes en un ámbito sujeto a rápidas transformaciones y de garantizar un nivel uniforme de tutela para los ciudadanos y de obligaciones para los proveedores y usuarios de sistemas de IA. El impacto institucional de esta opción es evidente y responde al objetivo político de construir un marco unitario que limite la discrecionalidad estatal mediante la definición de categorías uniformes, tales como las prácticas prohibidas, los sistemas de alto riesgo, los deberes de conformidad y los requisitos de transparencia aplicables a la IA generativa.

El Reglamento identifica directamente las prácticas prohibidas [05] – aquellas en las que el riesgo se considera inaceptable –, excluyendo que los Estados puedan introducir clasificaciones autónomas que admitan aplicaciones configurables como una amenaza evidente para la seguridad, los medios de subsistencia o los derechos fundamentales de las personas [06]. Por el contrario, los sistemas calificados como de “alto riesgo” [07] están permitidos, pero sometidos a requisitos rigurosos: los criterios de designación y las obligaciones de conformidad se formulan con un grado de detalle suficiente como para impedir márgenes de redefinición nacional, en la medida en que un mosaico de regímenes nacionales divergentes haría imposible garantizar condiciones de mercado y niveles de protección coherentes en el territorio de la Unión [08]. Finalmente, los sistemas de “riesgo limitado” están sujetos principalmente a obligaciones de transparencia, mientras que la gran mayoría de las aplicaciones se incluye en la categoría de “riesgo mínimo o nulo”, que no conlleva obligaciones específicas.

Más allá de los ámbitos plenamente armonizados, existen espacios en los que la discrecionalidad nacional sigue siendo significativa. En primer lugar, el reglamento remite a los Estados la determinación concreta de las sanciones [09], limitándose a fijar categorías de infracciones y máximos. De igual modo, el uso de la IA en la administración pública no está regulado de forma orgánica por el reglamento [10], lo que deja a los Estados amplios márgenes para definir sus propios modelos de digitalización y organización administrativa. Asimismo, las legislaciones nacionales siguen siendo competentes sobre la responsabilidad civil y los perfiles laborales derivados del uso de IA. Finalmente, la configuración de las autoridades nacionales competentes continúa siendo prerrogativa estatal, aunque sujeta al respeto de las condiciones mínimas de independencia, competencia y capacidad exigidas por el reglamento [11].

Conviene subrayar que la ocupación de estos espacios residuales puede dar lugar a configuraciones normativas diversas en los distintos ordenamientos europeos. En el caso español, por ejemplo, la regulación del uso de la IA en la administración pública y la definición de las autoridades competentes pueden involucrar varios niveles de gobierno, dado el reparto de competencias [12] entre el Estado y las Comunidades Autónomas, que ejercen poderes significativos en ámbitos como la sanidad, la educación y los servicios digitales. Esta constatación no altera la lógica unitaria del reglamento, pero permite comprender que los espacios dejados por el legislador de la Unión no son meros detalles técnicos: su gestión puede generar efectos institucionales distintos según la arquitectura administrativa nacional. Además, no toda intervención nacional es automáticamente legítima: incluso una regulación situada en un espacio residual puede interferir con el equilibrio del reglamento si incide indirectamente en las categorías definidas o en las obligaciones que la Unión pretende armonizar. Es en este límite – sutil – donde se sitúa la evaluación de la intervención italiana.

El AI Act constituye una fuente self-executing [13], que produce efectos sin necesidad de medidas internas de transposición. Este dato tiene una relevancia institucional evidente: si el legislador nacional no debe transponer el reglamento, también debe abstenerse de intervenir en ámbitos en los que la disciplina europea ya es completa, pues cualquier intento de replicar o reinterpretar normas de la Unión podría comprometer la lógica de la armonización. Naturalmente, ello no excluye que los Estados desempeñen un papel central en la aplicación y en la organización administrativa, pero incluso estas funciones quedan sujetas al principio de uniformidad del mercado interior [14]. La intervención nacional debe evaluarse, por tanto, no solo en el plano formal, sino también en términos de sus efectos sistémicos: una disciplina aparentemente neutra puede introducir asimetrías, cargas adicionales o mecanismos de control capaces de alterar las condiciones operativas en el mercado interior, contraviniendo los objetivos del AI Act.

Asimismo, el AI Act no solo establece estándares: diseña un modelo de gobernanza multinivel, que atribuye a la Unión un papel de coordinación en el sector de la inteligencia artificial. El núcleo de esta arquitectura es el European Artificial Intelligence Office (AI Office), establecido dentro de la Comisión Europea, que supervisa la aplicación de las normas relativas a los modelos de gran tamaño (GPAI) [15], coordina la actividad de las autoridades nacionales, elabora estándares técnicos, recopila información sobre sistemas de alto riesgo e interviene en procedimientos específicos. No se trata de un mero órgano técnico, sino de un sujeto que ejerce un poder regulatorio y administrativo significativo, reduciendo en consecuencia la discrecionalidad de los gobiernos nacionales. Junto al AI Office operan los organismos notificados (Notified Bodies), entidades independientes encargadas de evaluar la conformidad [16] de los sistemas de IA – especialmente de los de alto riesgo – antes de su comercialización. Su designación corresponde formalmente a los Estados, pero se desarrolla dentro de límites estrictos [17] y bajo la supervisión de la Comisión Europea [18]: la lógica consiste en mantener sujetos estatales, aunque sometidos a un control europeo sustancial. Las autoridades nacionales competentes, además, deben cooperar entre sí y con el AI Office en un régimen de intercambio de información y vigilancia coordinada que deja escaso margen para soluciones administrativas autónomas [19]. En esta línea, resulta significativo que algunos países hayan comenzado a estructurar órganos nacionales dedicados a la regulación y supervisión de la IA: España ha creado la AESIA, una agencia encargada de promover un uso fiable de la inteligencia artificial y de coordinar las iniciativas internas en la materia. Estas experiencias no alteran el marco europeo, pero muestran cómo los Estados procuran posicionarse dentro de una gobernanza destinada a ser progresivamente más integrada.

El conjunto de los elementos reconstruidos permite formular la pregunta que cierra este apartado: ¿el espacio normativo que el legislador italiano está tratando de ocupar debe considerarse fisiológico o corre el riesgo de adquirir rasgos patológicos respecto de la estructura del AI Act? La distinción es sustancial. Es fisiológico el espacio en el que la intervención nacional se limita a ejercer las funciones que el propio reglamento reconoce a los Estados: organizar su aparato administrativo, determinar el importe de las sanciones, regular el uso de la IA en la administración pública, disciplinar los perfiles laborales no cubiertos por el AI Act y definir la responsabilidad civil derivada del uso de IA. En todos estos ámbitos la normativa estatal no solo es legítima, sino necesaria para hacer operativa la disciplina europea.

El espacio patológico, en cambio, surge cuando la intervención nacional, aun ubicada formalmente en un ámbito atribuido a los Estados, incide de facto en la estructura del reglamento. Ello sucede, por ejemplo, cuando una ley introduce criterios adicionales u obligaciones suplementarias respecto de las previstas por la Unión, alterando la clasificación de los sistemas o la proporcionalidad de las exigencias; o cuando el legislador replica indebidamente normas europeas, generando incertidumbre interpretativa y fragmentación aplicativa; o cuando diseña un sistema de supervisión que interfiere con la gobernanza multinivel establecida por el reglamento.

La distinción entre espacio fisiológico y patológico no puede definirse en abstracto: depende del modo concreto en el que la ley italiana ocupa los espacios residuales, de las decisiones adoptadas en las zonas grises y de los efectos sistémicos que tales decisiones generan. La evaluación de la intervención nacional exige, por tanto, considerar no solo la coherencia formal del texto, sino también su impacto en la distribución del poder normativo y administrativo entre Italia y la Unión Europea.

 

 

3. LA LEY ITALIANA 132/2025: ESTRUCTURA, CONTENIDOS Y MODELO.

 

El examen de la ley italiana 132/2025 sobre la inteligencia artificial [20] representa el necesario complemento del marco jurídico [21]: el objetivo de este apartado no es anticipar la comparación sistemática con el AI Act, sino definir la geometría global de la intervención nacional, aislando sus rasgos más significativos en los planos institucional, regulatorio y político. La ley presenta, en efecto, una naturaleza compuesta: en parte programática, en parte ya aplicable y en gran medida norma de delegación. Esta estructura deliberadamente híbrida revela las intenciones del legislador italiano y perfila un modelo de gobernanza que parece ir más allá de la mera regulación técnica de la inteligencia artificial. Antes de abordar el núcleo de la compatibilidad con el régimen europeo, resulta, por tanto, necesario comprender sobre qué pilares se articula la intervención normativa italiana.

Desde sus primeras disposiciones, la ley 132/2025 se presenta como una fuente orientada en su conjunto principalmente a diseñar un “marco”, más cercano a un acto de orientación estratégica que a una regulación plenamente operativa. Si bien es innegable el carácter innovador del texto, al tratarse de la primera ley nacional que aborda la materia de manera tan extensa tras la adopción del AI Act, su rasgo distintivo reside en una arquitectura que trata de conciliar tres planos distintos: un nivel declarativo, un nivel inmediatamente prescriptivo y un nivel ampliamente delegante.

El primer nivel, de carácter casi axiológico, se refiere a la afirmación de una visión antropocéntrica [22] de la innovación tecnológica (art. 1) y de los principios que deben guiar la investigación, el desarrollo y el uso de sistemas y modelos de IA: transparencia, proporcionalidad, seguridad, protección de los datos personales, confidencialidad, exactitud, no discriminación, igualdad de género y sostenibilidad (art. 3, ap. 1). Resulta igualmente peculiar la afirmación que el uso de sistemas de IA no debe perjudicar el desarrollo democrático de la vida institucional y política (art. 3, ap. 4). Aunque carentes de operatividad autónoma, estas enunciaciones desempeñan una función sistémica, ya que orientarán la interpretación interna y señalan, a nivel europeo, la línea político-constitucional que Italia pretende asumir en el debate sobre la regulación de la inteligencia artificial.

El segundo nivel concierne a las normas inmediatamente prescriptivas, que intervienen en algunos sectores clave mediante una serie de disposiciones específicas. El legislador no ha establecido, por tanto, normas aplicables a todo el ámbito de la inteligencia artificial, sino que se ha concentrado en determinadas áreas sensibles, en las que ha considerado necesario intervenir directamente, a menudo con un grado de detalle y de cautela superior al previsto en el marco europeo.

Una reconstrucción integral de los contenidos excedería la función de este apartado, pero resulta útil aislar algunos puntos que revelan la lógica de la intervención nacional. Sin abordar, por tanto, de forma exhaustiva todas las medidas, cabe señalar que Italia introduce un régimen específico para el tratamiento de datos realizados con fines de investigación y experimentación científica en la elaboración de sistemas de IA con finalidades terapéuticas y farmacológicas, calificándolos como de relevante interés público (art. 8). En materia laboral [23], se enumeran los objetivos que se pretende alcanzar mediante el uso de la nueva tecnología, entre los que figuran la mejora de las condiciones de trabajo, la protección de la integridad psicofísica de los trabajadores y el incremento de la productividad (art. 11, ap. 1), previendo al mismo tiempo el respeto de la dignidad humana, la confidencialidad de los datos personales (art. 11, ap. 2) [24]y la salvaguarda de los derechos inviolables del trabajador, de conformidad con lo prescrito por el Derecho europeo (art. 11, ap. 3).

Un núcleo particularmente relevante de disposiciones se dedica al uso de la IA en la administración pública: se reafirma el denominado principio de humanidad, según el cual el uso de la inteligencia artificial debe producirse «con una función instrumental y de apoyo a la actividad administrativa decisoria, respetando la autonomía y el poder decisorio de la persona», que mantiene la responsabilidad exclusiva de los actos y procedimientos en los que se haya utilizado la IA (art. 14, ap. 2) [25]. Asimismo, se explicitan las finalidades para las que la administración pública puede recurrir a la inteligencia artificial: incrementar la eficiencia de su actividad, reducir la duración de los procedimientos y aumentar la calidad y la cantidad de los servicios prestados a los ciudadanos y a las empresas (art. 14, ap. 1). Se trata de una opción de rigor, orientada a prevenir automatismos opacos, pero que constituye nuevamente una afirmación del carácter insustituible de la decisión pública como acto humano.

De manera análoga, en la actividad judicial [26], en caso de uso de sistemas de IA, corresponde al juez toda decisión relativa a la interpretación y aplicación de la ley, a la valoración de los hechos y de las pruebas y a la adopción de las resoluciones (art. 15, ap. 1), mientras que las disposiciones excluyen el recurso a la denominada “justicia predictiva” [27]. Corresponderá posteriormente al Ministerio de Justicia regular el uso de la inteligencia artificial para la organización de los servicios relacionados con la justicia, para la simplificación del trabajo judicial y para las actividades administrativas accesorias (art. 15, ap. 2).

Pese a su carácter incompleto, la ley 132/2025 contiene, por tanto, numerosas normas sobre sectores de gran relevancia. Esta selección resulta reveladora de la intención del legislador: intervenir allí donde el AI Act guarda silencio o adopta una actitud más prudente, dejando abiertos otros ámbitos que serán abordados mediante las delegaciones. El efecto inevitable es la producción de un mosaico regulatorio no uniforme, resultado de las opciones de política normativa de las fuerzas de la mayoría.

El último nivel es sin duda el más relevante en términos de impacto, a la luz del amplio espectro de delegaciones conferidas al Gobierno, que dispone de doce meses para adoptar los decretos legislativos a partir de la entrada en vigor de la ley, producida el pasado 10 de octubre. El poder ejecutivo recibe, en primer lugar, la delegación para adaptar la normativa nacional al AI Act (art. 24) [28], ateniéndose a una serie de principios y criterios directivos (art. 24, ap. 2), que se abren con una remisión expresa a las reglas generales de delegación para la aplicación del derecho europeo [29]. Se concede asimismo un amplio espacio a los itinerarios de alfabetización y formación en materia de uso de sistemas de inteligencia artificial, previstos tanto para los ciudadanos (art. 24, ap. 2, letra e), como para los profesionales y los operadores del sector a través de los colegios profesionales y de las asociaciones de categoría más representativas (art. 24, ap. 2, letra f) [30].

El Gobierno recibe igualmente la delegación para adaptar y especificar la disciplina de los supuestos de realización y utilización ilícitas de sistemas de inteligencia artificial (art. 24, ap. 3) [31]. Entre los principios y criterios directivos de esta segunda delegación, conviene destacar que el ejecutivo debe prever instrumentos, incluso de carácter cautelar, destinados a impedir la difusión y a retirar contenidos generados ilícitamente, también mediante sistemas de IA, asistidos por «sanzioni effettive, proporzionate e dissuasive» (art. 24, ap. 5, letra a), y debe introducir tipos penales autónomos, centrados en las omisiones en materia de seguridad en «la produzione, la messa in circolazione e l’utilizzo professionale» [32] de sistemas de IA (art. 24, ap. 5, letra b) [33].

Durante el procedimiento parlamentario se introdujo otra delegación de gran relevancia (ausente en el proyecto de ley originario): el Gobierno deberá ahora definir una disciplina orgánica sobre el uso de datos, algoritmos y métodos matemáticos para el entrenamiento de sistemas de IA [34], atribuyendo las controversias en esta materia a las secciones especializadas en materia mercantil (art. 16, ap. 3, letra c). El legislador delegado deberá identificar previamente los supuestos en los que considere necesario establecer el régimen jurídico del uso de datos, algoritmos y métodos matemáticos para el entrenamiento de sistemas de inteligencia artificial, así como los derechos y obligaciones que recaen sobre la parte que pretenda proceder a dicho uso (art. 16, ap. 3, letra a), y prever posteriormente instrumentos de tutela, de carácter indemnizatorio o inhibitorio, identificando un aparato sancionador para la violación de estas disposiciones (art. 16, ap. 3, letra b).

En algunas de estas materias, el legislador no delega tanto la aplicación de un marco preconstituido como su propia definición. Este elemento resulta decisivo para sostener que la ley aprobada no está destinada a constituir la disciplina final de la inteligencia artificial, sino más bien la matriz política de la que derivará un corpus regulatorio considerablemente más articulado. Resulta, en efecto, importante destacar que algunas delegaciones son absolutamente genéricas, como la relativa a la previsión de normas específicas para el uso de sistemas de IA en la actividad policial (art. 24, ap. 2, letra h) [35] o en el desarrollo de las investigaciones preliminares (art. 24, ap. 5, letra e)[36].

En esta estructura tripartita emerge el esquema de fondo: la ley italiana no está concebida únicamente para producir de inmediato efectos jurídicos, sino también para posicionar a Italia como un interlocutor institucional reconocible y proactivo en el debate europeo sobre la inteligencia artificial, anticipando la implementación del AI Act y reivindicando un espacio doméstico de elaboración normativa. En otras palabras, se trata de una ley que actúa tanto en el plano normativo inmediato como en el plano simbólico, marcando la presencia italiana en un sector percibido como decisivo para la autonomía tecnológica del país.

En conclusión, resulta necesario reflexionar sobre la configuración global del modelo nacional de gobernanza de la inteligencia artificial diseñado por el legislador italiano, que revela una orientación fuertemente centralizada del sistema de supervisión, en el que el Estado no se limita a ser un regulador que define límites y obligaciones, sino que actúa como actor estratégico de la innovación tecnológica, mediador privilegiado entre intereses públicos y privados y eje de la política industrial construida en torno a la inteligencia artificial. La centralización se manifiesta, ante todo, en el papel atribuido a la Presidencia del Consejo de Ministros, encargada de elaborar, actualizar y dirigir la Estrategia Nacional de IA (art. 19, ap. 1). Esta atribución sitúa la materia en el núcleo de la dirección política del Gobierno, evitando la dispersión sectorial y enfatizando la dimensión estratégica y transversal de la inteligencia artificial. En torno a la Presidencia del Consejo gravita el Comité de coordinación sobre los entes, organismos y fundaciones que operan en el ámbito de la innovación digital y de la inteligencia artificial (art. 19, ap. 6), el cual adopta proyectos de investigación financiados por el Estado y desempeña funciones de interfaz con otros centros decisionales nacionales.

En el plano técnico-administrativo, las funciones de vigilancia sobre la aplicación del AI Act y sobre la conformidad de los sistemas de IA se confían no a una autoridad independiente, sino a dos agencias gubernamentales: la Agencia para la Italia Digital (AgID) y la Agencia Nacional de Ciberseguridad (ACN) (art. 20) [37]. Respecto de soluciones que apuestan por una autoridad dedicada y separada de la esfera del poder ejecutivo para garantizar una mayor imparcialidad y una mejor coherencia con los estándares comunes de supervisión, esta opción revela una clara preferencia por mantener el control de los nodos esenciales del sistema en manos de las estructuras gubernamentales. La voluntad centralizadora se mide incluso al comparar este modelo con el español, que prevé una agencia dotada de autonomía funcional para la supervisión de la inteligencia artificial, la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) [38], instituida con autonomía funcional y de control respecto de la administración pública central, si bien mantiene un vínculo institucional con el ministerio competente, mientras que Italia ha confiado estas funciones a agencias gubernamentales sin un estatuto análogo de autonomía formal y ha adoptado una configuración que, aunque formalmente compatible con los márgenes dejados por el AI Act, tiende a preservar una fuerte incidencia dentro del perímetro gubernamental.

La centralidad del Estado se manifiesta también en la construcción de un auténtico sistema nacional de la innovación, en el que la intervención pública no se limita al control de la conformidad normativa. La ley establece, en efecto, criterios de contratación pública que privilegian la localización de los centros de datos en el territorio nacional (art. 5, ap. 1, letra d) y fomenta las asociaciones público-privadas como instrumento ordinario para la producción científica y tecnológica (art. 5, ap. 1, letra e). Esta orientación sugiere una concepción expansiva del Estado, que asume funciones de coordinación y de impulso mucho más amplias que las propias de una actividad regulatoria tradicional. En este sentido, la ley anticipa lo que podría definirse como una “soberanía digital implícita”, no explicitada en la letra de las normas, pero reconocible en la lógica global del sistema. El control público de los centros de datos, la promoción de un sistema nacional de IA y la clara preferencia por una gobernanza centralizada representan, en efecto, un modelo en el que el Estado ocupa una posición central no solo en el diseño regulatorio, sino también en la política industrial y en la definición de la trayectoria tecnológica del país.

Esta visión genera una potencial fricción con la gobernanza multinivel prevista por el AI Act, habida cuenta de que el Reglamento europeo atribuye a la AI Office un papel de coordinación y supervisión que requiere, como condición de funcionamiento, autoridades nacionales dotadas de autonomía técnica e independencia funcional. El modelo italiano, por el contrario, aun declarando formalmente la intención de cooperar con la AI Office y con los organismos notificados, reposiciona el centro de gravedad del poder decisorio en el propio Gobierno. Si esta orientación puede responder a una exigencia de eficiencia interna y de unidad de la política digital nacional, subsisten interrogantes sobre la capacidad del sistema italiano para integrarse plenamente en las dinámicas europeas de aplicación del Reglamento. El riesgo no es tanto que se dé un conflicto abierto, cuanto una asimetría: un sistema fuertemente gubernamental debe adaptarse a una gobernanza europea que presupone flujos decisorios multinivel en los que las autoridades nacionales forman parte de un circuito técnico, no político.

 

 

4. RELACIONES ENTRE LA LEY ITALIANA Y EL REGLAMENTO EUROPEO.

 

4.1. Margen de maniobra nacional

El análisis de los ámbitos en los que la ley italiana 132/2025 va más allá de la disciplina prevista por el AI Act requiere considerar, en primer lugar, la lógica general del reglamento europeo. Este último, como se ha señalado en el segundo apartado, concentra su fuerza normativa en un núcleo bien definido: la clasificación de los sistemas de riesgo, las obligaciones de conformidad, la gobernanza centralizada a través del AI Office y la definición precisa de los requisitos aplicables a los sistemas de inteligencia artificial. El AI Act, precisamente en virtud de su naturaleza reglamentaria, ocupa una extensión material amplia y aspira a crear un marco uniforme en el mercado interior, dejando a los Estados miembros márgenes de intervención relativamente circunscritos. Resulta, por tanto, particularmente significativo cómo, dentro de esta arquitectura, el legislador italiano ha optado por intervenir no solo en los espacios dejados abiertos por el reglamento, sino también en ámbitos que el legislador europeo ha regulado de manera más prudente o menos detallada, introduciendo obligaciones adicionales, regulaciones más restrictivas o intervenciones anticipatorias [39].

Para comprender el sentido de esta expansión, es útil partir de un sector emblemático: el trabajo (art. 11). El AI Act, aun incluyendo determinados sistemas de IA utilizados en los procesos laborales entre los high-risk systems, adopta un enfoque neutro respecto de los modelos organizativos de los Estados miembros y no regula de forma específica el impacto de la automatización sobre la dignidad del trabajo [40]. La ley italiana, por el contrario, introduce normas que prohíben expresamente el uso de la IA para evaluar o controlar de manera automatizada el rendimiento laboral cuando ello incida en la dignidad o en la seguridad del trabajador. Esta regulación refleja opciones políticas y axiológicas arraigadas en el derecho laboral nacional, mucho más protector que otros ordenamientos europeos. La norma italiana no se limita a prevenir abusos tecnológicos, sino que afirma una concepción fuertemente antropocéntrica del trabajo, que el AI Act había evitado traducir en una obligación detallada para no interferir con las distintas tradiciones laborales de los Estados miembros.

Otro ámbito de expansión viene representado por la disciplina del derecho de autor y del text and data mining [41]. La ley italiana interviene en perfiles que el AI Act ha excluido conscientemente de su ámbito de aplicación, aclarando, por un lado, el requisito de la aportación humana creativa en la protección de las obras realizadas con el auxilio de sistemas de inteligencia artificial [42] y, por otro, introduciendo una disciplina específica de las actividades de extracción de textos y datos con fines de entrenamiento y utilización de modelos de IA, supeditada a la existencia de un acceso legítimo a los contenidos [43]. De este modo, el legislador nacional no construye un régimen autónomo de copyright de la IA, sino que toma posición sobre cuestiones interpretativas centrales del debate europeo, ofreciendo una primera sistematización normativa de la relación entre creatividad humana, modelos generativos y explotación de contenidos protegidos, en un sector que el reglamento europeo ha dejado deliberadamente fuera para evitar solapamientos con la disciplina de la Unión en materia de derechos de autor.

Otro aspecto de expansión se refiere a la ciberseguridad. El AI Act establece requisitos de seguridad para los sistemas de IA, pero no interviene sobre las infraestructuras digitales nacionales ni sobre los criterios de localización de los centros de datos. La ley italiana, en cambio, introduce un marco que, aunque no afirma una obligación de soberanía digital, atribuye un papel central a la localización de las infraestructuras y a la gestión nacional de la ciberseguridad. La atribución de competencias específicas a la Agencia para la Ciberseguridad Nacional, junto con la previsión de requisitos adicionales para la seguridad de los sistemas utilizados en la administración pública, configura un régimen de seguridad más amplio que el europeo. También en este caso, dicho régimen no entra en contradicción frontal con el AI Act, pero ciertamente va más allá de lo que exigiría una mera aplicación del reglamento, promoviendo un control nacional de la infraestructura que la UE ha optado por no regular de forma detallada.

Por último, la ley se “expande” también en el plano organizativo, introduciendo estructuras y procesos que no encuentran un correlato en el reglamento europeo. La creación de un Comitato di coordinamento presso la Presidenza del Consiglio [44], los programas de partenariado público-privado [45] y los instrumentos destinados a definir líneas estratégicas nacionales constituyen una ampliación de la gobernanza más allá del perímetro estricto del AI Act. Este tipo de intervención muestra cómo el legislador italiano utiliza la ley sobre inteligencia artificial no solo para regular un sector tecnológico, sino para definir la configuración estratégica de la política industrial del país en el ecosistema digital, un elemento que el AI Act no toma en consideración.

La impresión general es que el legislador italiano ha optado por colmar de manera selectivamente expansiva los espacios residuales dejados por el AI Act, introduciendo normas que protegen sectores considerados estratégicos y construyendo, al mismo tiempo, un marco regulatorio que afirma una presencia nacional fuerte en el ecosistema de la inteligencia artificial, sin entrar, no obstante, en un conflicto explícito con la disciplina europea.

4.2. Ámbitos de primacía europea

Si anteriormente se han puesto de relieve las áreas en las que la ley italiana ejerce una función expansiva respecto del marco normativo delineado por el AI Act, resulta ahora necesario observar el fenómeno opuesto, es decir, las materias presididas por el reglamento europeo con un grado de detalle tan preciso que deja a los Estados miembros únicamente márgenes de intervención circunscritos y marginales. Esta óptica permite delimitar con mayor precisión los ámbitos en los que el legislador nacional ha optado por no intervenir o ha mantenido una formulación de carácter programático, consciente de la existencia de un sistema europeo sólido y ya vinculante.

El primer ámbito en el que se manifiesta de forma nítida la prevalencia europea es el de la clasificación de los sistemas de riesgo. El AI Act articula, en efecto, toda la disciplina de la inteligencia artificial en torno a la distinción entre prácticas prohibidas, sistemas de alto riesgo y sistemas de riesgo limitado. Esta taxonomía, central en el reglamento, no es objeto ni de recepción ni de adaptación por parte de la ley italiana: el legislador nacional ha renunciado a reformular o integrar la clasificación europea, evitando introducir categorías adicionales no previstas por el reglamento. Esta elección no es casual: la definición de las categorías de riesgo constituye la “columna vertebral” del AI Act y, por tanto, eventuales correcciones nacionales sobre estos elementos habrían podido generar graves fricciones con el objetivo europeo de garantizar la uniformidad y la previsibilidad del mercado interior. La ley italiana, por consiguiente, acepta íntegramente el perímetro europeo sin proponer relecturas ni especificaciones.

La prevalencia europea resulta igualmente evidente en el ámbito de la evaluación de la conformidad y del marcado CE de los sistemas de inteligencia artificial. El AI Act dedica numerosas disposiciones a los requisitos técnicos, a la documentación, a los procesos de ensayo y a los mecanismos de control de la calidad, configurando un sistema detallado y complejo que atribuye a los organismos notificados un papel de supervisión y certificación. También en este caso, la ley italiana no modifica la disciplina europea, no añade requisitos técnicos adicionales ni prevé procedimientos alternativos de certificación; por el contrario, se limita a reconocer que los organismos notificados operan conforme al marco europeo, evitando interferir con la armonización técnica prevista por el reglamento.

La primacía del marco de la UE se manifiesta asimismo en los requisitos relativos a la documentación técnica y a la seguridad de los sistemas. El AI Act contiene prescripciones detalladas sobre la calidad de los datos de entrenamiento, la gestión de los riesgos, la robustez de los sistemas y la transparencia: estos elementos constituyen el núcleo de la disciplina técnica y la ley italiana no los complementa [46].

Resulta significativo observar que incluso en algunas delegaciones al Gobierno, como las relativas a la responsabilidad civil o a la definición de reglas para la experimentación de sistemas de IA, la ley hace una referencia expresa a la necesidad de respetar el marco europeo, reconociendo que el reglamento determina un perímetro infranqueable dentro del cual la disciplina nacional solo puede intervenir para especificar cuestiones no armonizadas.

Considerando todos estos elementos, resulta un contexto en el que la ley italiana, aunque es expansiva en determinados ámbitos, reconoce la naturaleza fuertemente armonizadora del AI Act y se abstiene de intervenir en las áreas en las que el reglamento ya ha fijado una normativa precisa. La ley italiana se muestra, por tanto, consciente del alcance sistémico del AI Act y respeta su estructura esencial, optando por situarse de manera complementaria y dejando que los elementos clave (la clasificación de los riesgos, determinados aspectos técnicos y la gobernanza) permanezcan como prerrogativas del nivel europeo.

4.3. Ámbitos de intersección y de posible fricción

Tras haber examinado, por un lado, las áreas en las que el legislador italiano ha ampliado el perímetro normativo respecto del AI Act y, por otro, aquellas presididas por el nivel europeo con un grado de detalle que deja márgenes limitados de intervención nacional, resulta ahora necesario detenerse en los espacios en los que ambas disciplinas se superponen parcialmente, interactúan o corren el riesgo de interferir negativamente entre sí: es en estas “zonas de frontera” o grises donde pueden surgir tensiones interpretativas o aplicativas que exigirán un esfuerzo de coordinación multinivel.

El primer ámbito de intersección se refiere al uso de la inteligencia artificial en la administración pública. El AI Act no interviene de manera directa en la organización de la administración pública nacional, limitándose a identificar determinados sistemas utilizados en el ámbito público entre los de alto riesgo. La ley italiana, en cambio, establece principios y obligaciones que se aplican transversalmente al uso de la IA en la administración pública, imponiendo la trazabilidad de las decisiones algorítmicas, la prohibición de delegar la decisión final a un sistema automatizado y la exigencia de que el proceso decisorio permanezca imputable a un sujeto humano. Estas obligaciones, aun situándose en un ámbito formalmente dejado abierto por el AI Act, inciden de facto en el funcionamiento de los sistemas de alto riesgo y en los requisitos de transparencia y control humano previstos por el reglamento. En este caso, la intersección entre la disciplina nacional y la europea parece más complementaria que conflictiva: la ley italiana refuerza determinadas garantías, pero podría generar redundancias o duplicaciones de obligaciones, especialmente cuando la administración pública utiliza sistemas de alto riesgo ya plenamente regulados por el reglamento.

Un segundo ámbito de potencial fricción es el de la sanidad: los sistemas de IA utilizados en el ámbito sanitario suelen encuadrarse entre los de alto riesgo y están, en consecuencia, sujetos a los requisitos técnicos y procedimentales del AI Act. La ley italiana ha adoptado disposiciones que, evitando un correlato directo en el AI Act [47], introducen obligaciones adicionales de transparencia e información al paciente [48], así como requisitos específicos para la gestión de los datos sanitarios [49], que corren el riesgo de intersecar la disciplina europea de manera no siempre lineal. Si, por un lado, el AI Act establece que el control humano debe ser significativo y que los usuarios deben poder comprender el funcionamiento del sistema, por otro, no impone un deber de disclosure tan amplio como el previsto por la ley italiana [50]. Este desajuste podría generar dudas aplicativas en los casos en que un proveedor europeo comercialice un sistema conforme al reglamento, pero que, para ser utilizado en Italia, deba cumplir requisitos adicionales no exigidos en otros Estados miembros. No se trata necesariamente de un conflicto, sino de una situación en la que la superposición de obligaciones nacionales y europeas produce una estratificación normativa que requerirá atención en la fase de aplicación.

Otro ámbito de intersección es la gobernanza: el AI Act ha construido un sistema multinivel que atribuye al AI Office un papel central en la supervisión de los sistemas de alto riesgo, acompañado por las autoridades nacionales competentes. La ley italiana atribuye poderes significativos a agencias gubernamentales como la AgID y la ACN, cuyo papel podría generar solapamientos funcionales en la fase aplicativa. Una posible área de fricción se refiere a la distinción entre funciones de vigilancia y funciones de orientación estratégica: el AI Act concibe autoridades técnicas e independientes, mientras que la ley italiana sitúa la gobernanza de la IA dentro de la esfera del poder ejecutivo. Este elemento estructural no produce un conflicto normativo inmediato, pero plantea interrogantes sobre la capacidad del sistema nacional para adherirse plenamente a la lógica multinivel del reglamento, especialmente en la gestión de las notificaciones y en las actividades inspectoras.

En síntesis, los ámbitos de intersección no llevan a un enfrentamiento directo entre la disciplina europea y la nacional, sino que delinean un escenario en el que la superposición de obligaciones puede generar complejidades aplicativas y exigir una coordinación interpretativa no sencilla. Esta coexistencia de normas europeas y nacionales en materias contiguas está destinada a producir una tensión fisiológica, que solo podrá gestionarse mediante una aplicación cuidadosa de los principios de coherencia multinivel y a través de un diálogo constante entre las autoridades nacionales y europeas, con el fin de evitar que la disciplina italiana, aun legítima, termine incidiendo indirectamente en la armonización perseguida por el AI Act.

 

 

5. LA LEY ITALIANA SOBRE INTELIGENCIA ARTIFICIAL: ¿QUO VADIS?

 

El examen de la ley italiana sobre inteligencia artificial en el perímetro del AI Act permite articular una reflexión conclusiva sobre la forma en que un ordenamiento nacional puede situarse dentro de la arquitectura de la gobernanza europea de la IA. El análisis desarrollado en los párrafos anteriores ha tratado de mostrar cómo la Ley 132/2025 se caracteriza por una naturaleza híbrida: por un lado, un texto programático y de delegación normativa, orientado a construir un marco estratégico; por otro, un conjunto de intervenciones puntuales, a menudo ubicadas en sectores altamente sensibles desde el punto de vista constitucional. En un sistema jurídico en el que un reglamento europeo ejerce una fuerza armonizadora amplia y vertical, esta ley representa un intento de delimitar un espacio nacional de elaboración normativa, sin contradecir, no obstante, la estructura común. Italia se inserta así en un marco multinivel con un enfoque peculiar, en el que la afirmación de una presencia interna no se traduce en la elaboración de un modelo alternativo, sino en la opción de intensificar o anticipar la regulación en ámbitos dejados abiertos por el legislador europeo.

El elemento prioritario que emerge de este contraste es la conciencia del legislador nacional respecto de la dimensión sistémica del AI Act. La decisión de no intervenir sobre los aspectos técnicos más relevantes —la clasificación de los sistemas de riesgo, los requisitos de conformidad, la evaluación de la seguridad, la documentación técnica, el papel de los organismos notificados— pone de manifiesto el reconocimiento sustancial de la primacía europea en los componentes esenciales del régimen jurídico. La ley italiana acepta el núcleo de la armonización y concentra su intervención en ámbitos que, por razones culturales, sociales o institucionales, el legislador nacional percibe como merecedores de una tutela propia. Esta selectividad no constituye un límite, sino el signo de una comprensión madura de las dinámicas multinivel: Italia no cuestiona el entramado europeo, sino que explora aquellos espacios que el reglamento no ha querido o no ha podido regular.

Entre estos espacios, la opción antropocéntrica de la ley representa uno de los elementos más significativos: si bien el AI Act se basa también en un principio de control humano, la ley italiana acentúa dicha perspectiva y la proyecta más allá de los confines del reglamento. En el ámbito sanitario, como en el laboral, y, más en general, en las relaciones entre la IA y los derechos fundamentales, Italia afirma una visión de la tecnología que insiste en la primacía de la persona y en la necesidad de que toda aplicación de la inteligencia artificial se sitúe dentro de un horizonte de responsabilidad humana. Esta visión no constituye un alejamiento del marco europeo, sino una especificación más intensa de un principio que el AI Act evoca sin llevarlo hasta sus últimas consecuencias. Se trata de un rasgo distintivo que emerge de la tradición constitucional nacional y que contribuye a modelar una declinación doméstica de la inteligencia artificial.

Igual de relevante es el papel que la seguridad nacional asume en el modelo italiano. Mientras que el AI Act regula la seguridad en términos estrictamente técnicos —seguridad del sistema, robustez, mitigación de riesgos—, la ley italiana incorpora en su arquitectura referencias más amplias a la ciberseguridad, a las infraestructuras estratégicas, a la localización de los datos y al control público de los activos críticos. Esta ampliación refleja una concepción de la seguridad que no se reduce a los perfiles técnicos, sino que se extiende a la capacidad del Estado para gobernar las infraestructuras que sostienen el desarrollo de la inteligencia artificial. Una vez más, la ley nacional no contradice el reglamento, sino que introduce una dimensión que el AI Act no aborda, situándola en la intersección entre política industrial, ciberseguridad y autonomía tecnológica.

Un ejemplo adicional de esta selectividad se manifiesta en la disciplina sanitaria. Como ya se ha señalado, la ley italiana introduce obligaciones de transparencia e información más amplias que las previstas a nivel europeo, configurando un régimen en el que el paciente debe ser colocado en condiciones de comprender de manera significativa la aportación de la IA en el itinerario terapéutico. Se trata de una intervención que refleja la particular sensibilidad del ordenamiento italiano en materia de autodeterminación sanitaria y de protección de los sujetos vulnerables, y que traduce al contexto de la IA una tradición jurídica ya consolidada. También este elemento contribuye a definir un modelo nacional que, aun respetando el AI Act, refuerza determinadas garantías por razones constitucionales internas.

Las profesiones intelectuales constituyen otro ámbito en el que el legislador italiano se aparta, al menos en parte, del enfoque europeo [51]. El AI Act no interviene de manera específica en estas profesiones, situando los sistemas utilizados en dichos contextos dentro de categorías técnicas de riesgo. La ley italiana, en cambio, presta una atención particular a la dignidad profesional, prohibiendo el uso de la inteligencia artificial para procesos de evaluación automatizados que comprometan su calidad. También en este caso, la finalidad es preservar espacios en los que la aportación humana siga siendo decisiva, poniendo de manifiesto un rasgo axiológico que no contradice el reglamento europeo, pero que evidencia una sensibilidad nacional específica.

En el marco general, la intersección entre la disciplina nacional y la disciplina europea no genera un conflicto directo, sino más bien una estratificación normativa que requerirá atención y coordinación. Las áreas de superposición —la sanidad, la administración pública, la protección de datos personales, la gobernanza— delinean una zona gris en la que la aplicación simultánea de ambas fuentes podría producir incertidumbres o duplicaciones. No obstante, la presencia de estas intersecciones no debe interpretarse como un indicio de incompatibilidad, sino como un rasgo fisiológico de la coexistencia entre un reglamento armonizador y una ley nacional que interviene en ámbitos de alta sensibilidad normativa.

Por último, Europa se está orientando hacia una pluralidad de adaptaciones nacionales en la aplicación del AI Act, y el modelo italiano, más gubernamental y coordinado a nivel central, se sitúa junto a modelos más autónomos o técnicamente independientes. Esta diversidad no representa una desviación de la lógica europea, sino una confirmación de la naturaleza multinivel del sistema, en el que la armonización convive con diferencias estructurales internas a los Estados miembros. En conjunto, la Ley 132/2025 sobre la inteligencia artificial parece concebir la gobernanza de la IA como un elemento clave de la política industrial y de la estrategia nacional de innovación, más que como un mero capítulo de regulación técnica, tratando de afirmar una presencia italiana consciente y selectiva en el ecosistema europeo de la IA. Su equilibrio entre el respeto del AI Act, la tutela de sus propias especificidades y la construcción de una gobernanza doméstica muestra un modelo que no se opone a la armonización, sino que la matiza a la luz de sus intereses estratégicos. La sostenibilidad de este modelo dependerá de la capacidad de consolidar un diálogo eficaz entre el nivel europeo y el nivel nacional, evitando que las áreas de intersección se traduzcan en conflictos y valorizando, por el contrario, la complementariedad entre ambas fuentes. Desde esta perspectiva, la ley italiana representa un caso paradigmático de cómo un ordenamiento puede adaptarse a un marco regulatorio europeo sólido, manteniendo espacios de autonomía interpretativa sin renunciar a la coherencia del ordenamiento multinivel.

 

Resumen: El artículo analiza la relación entre el Reglamento Europeo de Inteligencia Artificial (AI Act) y la Ley italiana n.º 132/2025 sobre inteligencia artificial. Se examinan la lógica estructural del AI Act, la naturaleza híbrida de la ley italiana y los ámbitos en los que la regulación nacional amplía, complementa o se superpone al marco europeo. El análisis pone de relieve la orientación antropocéntrica del enfoque italiano, el uso selectivo de normas preceptivas en sectores sensibles y el papel central de las delegaciones al Gobierno. Finalmente, se valora el modelo italiano como un ejemplo de adaptación nacional dentro de un sistema europeo fuertemente armonizado y de carácter multinivel.

 

Palabras claves: Inteligencia Artificial, Reglamento Europeo de Inteligencia Artificial (AI Act), Ley italiana sobre la inteligencia artificial, Gobernanza multinivel, Armonización regulatoria.

 

Abstract: This article analyses the relationship between the EU Artificial Intelligence Act and the Italian Law No. 132/2025 on artificial intelligence. It examines the structural logic of the AI Act, the hybrid nature of the Italian statute, and the areas in which national regulation expands, complements, or intersects with the European framework. The analysis highlights the anthropocentric orientation of the Italian approach, the selective use of binding provisions in sensitive sectors, and the central role of governmental delegation. The article concludes by assessing the Italian model as an example of national adaptation within a strongly harmonised, yet multilevel, EU regulatory system.

 

Key words: Artificial Intelligence, EU AI Act, Italian AI Law, Multilevel Governance, Regulatory Harmonisation.

 

Recibido: 10 de octubre de 2025

Aceptado: 10 de noviembre de 2025

______________________________________

[01] Para un examen global de l’AI Act, véase, ex aliis, L. COTINO HUESO, D.U. GALLETTA (eds), The European Union Artificial Intelligence Act: A systematic commentary, Editoriale scientifica, Nápoles, 2025; A. MANTELERO, G. RESTA, G.M. RICCIO (a cura di), Intelligenza artificiale Commentario, Ipsoa, Milán, 2025; O. POLLICINO, F. DONATI, G. FINOCCHIARO, F. PAOLUCCI (a cura di), La disciplina dell’intelligenza artificiale, Giuffrè, Milano, 2025; M. BARRIO ANDRÉS (dir.), Comentarios al Reglamento Europeo de Inteligencia Artificial, Madrid, La Ley, 2024; L. COTINO HUESO, P. SIMÓN CASTELLANO (dir.), Tratado sobre el Reglamento Europeo de Inteligencia Artificial, Aranzadi, Pamplona, 2024; C.N. PEHLIVAN, N. FORGÓ, P. VALCKE, The EU Artificial Intelligence (AI) Act: A Commentary,Wolters Kluwer International, Alphen aan den Rijn, 2024. F. BALAGUER CALLEJÓN, “La regulación digital europea en el nuevo contexto global”, en esta Revista, núm. 43, 2025, contextualiza el AI Act dentro del entorno global, evidenciando las dificultades de las mismas para responder a desafíos de los mercados y de las grandes compañías tecnológicas.

[02] La relación entre normas y espacio jurídico es fundamental: en M. ALMADA, “The EU AI Act in a global perspective”, en M. FURENDAL, M. LUNDGREN (eds), Handbook on the Global Governance of AI, Edward Elgar, Cheltenham, 2025, se identifican dos obstáculos a la difusión de este modelo, vinculados precisamente a la especificidad europea: «the AI Act’s reliance on specific features of the EU’s institutions and its calibration towards EU-specific political compromises». Véanse también M. GARDEÑES SANTIAGO, “Algunas cuestiones de aplicabilidad territorial del Reglamento (UE) 2024/1689, de 13 de junio de 2024, de Inteligencia Artificial”, Revista Española de Derecho Internacional, vol. 77, núm. 1, 2025; A. LÓPEZ-TARRUELLA MARTÍNEZ, “Claroscuros del “efecto Bruselas” del reglamento de inteligencia artificial”, Revista Española de Derecho Internacional, vol. 77, núm. 1, 2025; M. ALMADA, A. RADU, “The Brussels Side-Effect: How the AI Act Can Reduce the Global Reach of EU Policy”, German Law Journal, vol. 25, núm. 4, 2024; A. BRADFORD, Digital Empires: The Global Battle to Regulate Technology, Oxford University Press, Oxford, 2023; A. LÓPEZ-TARRUELLA MARTÍNEZ, “El futuro Reglamento de Inteligencia Artificial y las relaciones con terceros Estados”, Revista Electrónica de Estudios Internacionales, núm. 45, 2023; A. BRADFORD, The Brussels Effect: How the European Union Rules the World, Oxford University Press, Oxford, 2020; T. CHRISTAKIS, ‘European Digital Sovereignty’: Successfully Navigating Between the ‘Brussels Effect’ and Europe’s Quest for Strategic Autonomy, e-book, 2020.

[03] Sobre la posible naturaleza híbrida del AI Act, entendida como resultado de la combinación entre la lógica de la seguridad de los productos y la protección de los derechos fundamentales, véase, entre otros, M. ALMADA, N. PETIT, “The EU AI Act: Between the rock of product safety and the hard place of fundamental rights”, Common Market Law Review, vol. 62, núm. 1, 2025.

[04] Sobre la estructura risk-based y su implementación, véase M. EBERS, “Truly Risk-based Regulation of Artificial Intelligence How to Implement the EU’s AI Act”, European Journal of Risk Regulation, vol. 16, núm. 2, 2025; C. NOVELLI, F. CASOLARI, A, ROTOLO, M. TADDEO, L. FLORIDI, “AI risk assessment: a scenario-based, proportional methodology for the AI Act”, Digital Society, núm. 3, 2024; U. RUFFOLO, A. AMIDEI, “La regolazione ex ante dell’intelligenza artificiale tra gestione del rischio by design, strumenti di certificazione preventiva e “autodisciplina” di settore”, en A. PAJNO, F. DONATI, A. PERRUCCI (a cura di), Intelligenza artificiale e diritto: una rivoluzione?, vol. I, il Mulino, Bologna, 2022; M.E. KAMINSKI, “Regulating the risks of AI”, Boston University Law Review, vol. 103, 2023; mientras que para un análisis crítico de las tensiones sistémicas generadas por este enfoque, N. RANGONE, “Risks Without Rights? The EU AI Act’s Approach to AI in Law and Rulemaking”, European Journal of Risk Regulation, vol. 16, núm. 3, 2025.

[05] Se incluyen en dicha categoría, entre otros, la categorización biométrica basada en características sensibles (art. 5 AI Act, párr. 1, letra c), las prácticas de manipulación cognitivo-conductual dirigidas a personas vulnerables (letra a) y los sistemas de “social scoring” por parte de autoridades públicas (letra b).

[06] El tema conectado a ello, el impacto sobre las democracias ha sido analizado en esta misma Revista, núm. 43, 2025 por J.F. SÁNCHEZ BARRILAO, “El impacto de la Inteligencia Artificial en los procesos democráticos”.

[07] Entre los sistemas de alto riesgo se incluyen, por ejemplo, aquellos utilizados en la selección y evaluación de trabajadores (Anexo III, 1), en la gestión de la educación y formación profesional (Anexo III, 3), en los procesos de asilo y migración (Anexo III, 7) o como componentes de seguridad en dispositivos regulados, incluidos los productos médicos (art. 6; Anexos II–III).

[08] Véase M.Á. PRESNO LINERA, “El Reglamento europeo de inteligencia artificial: ¿garantía del mercado o defensa de los derechos?”, Revista Española de Derecho Constitucional, núm135, 2025.

[09] Art. 99 AI Act.

[10] El AI Act no prevé una disciplina específica para la administración pública: solo resultan aplicables las normas sobre prácticas prohibidas y sobre sistemas de alto riesgo (art. 2 AI Act).

[11] Art. 70 AI Act.

[12] En los sistemas descentralizados, como España, la implementación de la IA en los servicios públicos depende, en efecto, del reparto interno de competencias (arts. 148-149 CE), sin perjuicio del respeto de las categorías y obligaciones fijadas por el reglamento.

[13] Los reglamentos de la UE son directamente aplicables y no requieren transposición (art. 288 TFUE), como ha confirmado la jurisprudencia del Tribunal de Justicia: STJUE. 15 julio 1964, asunto 6/64, Costa/ENEL; STJUE. 10 octubre 1973, asunto 34/73, Variola; STJUE. 9 marzo 1978, asunto 106/77, Simmenthal; y, más recientemente, STJUE. 19 enero 2023, asunto C-680/21.

[14] Sobre este tema, véanse F. BALAGUER CALLEJÓN, “La regulación digital europea en el nuevo contexto global”, op. cit.; M. INGLESE, “Il regolamento sull’intelligenza artificiale come atto per il completamento e il buon funzionamento del mercato interno?”, Quaderni AISDUE, núm 2, 2024.

[15] Sobre las dificultades regulatorias relacionadas con la disciplina de los sistemas de AI de uso general, véase O.J. GSTREIN, N. HALEEM, A. ZWITTER, “General-purpose AI regulation and the European Union AI Act”, Internet Policy Review, vol. 13, núm. 3, 2024.

[16] En los procedimientos de evaluación de conformidad que requieren la intervención de un organismo notificado, este verifica la documentación técnica y el sistema de gestión del riesgo (art. 43 AI Act; Anexo IV), evalúa la calidad y adecuación de los datos y la mitigación de sesgos (Anexos III y VII), examina la robustez, la ciberseguridad y la fiabilidad del sistema (art. 15; Anexo VII), y controla las medidas de transparencia y supervisión humana previstas por el proveedor (arts. 13-14). La intervención puede referirse a sistemas completos o, en los casos previstos, a componentes sujetos a certificación separada (Anexo VI).

[17] Los organismos notificados deben cumplir los requisitos del Anexo VII del AI Act, que exigen independencia e imparcialidad, ausencia de conflictos de interés y prohibición de actividades de consultoría incompatibles, disponibilidad de personal con competencias específicas en IA, gestión del riesgo y calidad de los datos, recursos adecuados para realizar verificaciones, auditorías y pruebas, así como mecanismos internos para la gestión de reclamaciones y el control de la imparcialidad.

[18] La designación de los organismos notificados por parte de los Estados miembros está sujeta, de hecho, a una supervisión europea estructurada: evaluaciones entre pares obligatorias ex ante (“peer review”), conforme al art. 33 del AI Act y al Anexo VII; poderes de la Comisión para impugnar, suspender o revocar la designación en caso de no conformidad (art. 34, párrs. 4-7); vigilancia continua mediante auditorías y coordinación con los organismos nacionales de acreditación (art. 34, párrs. 1-3).

[19] Sobre el sistema de supervisión del AI Act y la relación entre autoridades nacionales y el AI Office, véanse L. COTINO HUESO, “La supervisión del cumplimiento del Reglamento de inteligencia artificial por las autoridades de vigilancia del mercado”, Revista Canaria de Administración Pública, núm. 4, 2024; S. VILLANI, “Il sistema di vigilanza sull’applicazione dell’AI ACT”, Quaderni AISDUE, núm. especial 2, 2024.

[20] Un primer comentario sistemático se encuentra en A.F. URICCHIO, C. CALDAROLA (a cura di), L’intelligenza artificiale tra regolazione e esperienze applicative - AI ACT (regolamento UE) e disegno di legge governativo, Cacucci, Bari, 2025.

[21] Las modalidades para regular la inteligencia artificial difieren notablemente entre los distintos modelos y han dado lugar a una auténtica competición. VéanseS. SCHMID, D. LAMBACH, C. DIEHL, C. REUTER, “Arms race or innovation race? Geopolitical AI Development”, Geopolitics, vol. 30, núm. 4, 2025; S. ACETO di CAPRIGLIA, “Intelligenza artificiale: una sfida globale tra rischi, prospettive e responsabilità. Le soluzioni assunte dai governi unionale, statunitense e sinico. Uno studio comparato”, Federalismi.it, núm. 9, 2024; J.G. CORVALÁN, M.V. CARRO, “El Reglamento de inteligencia artificial desde fuera de la Unión Europea: impulsos reguladores desde otras partes del mundo y una visión desde Iberoamérica”, en L. COTINO HUESO, P. SIMÓN CASTELLANO (dir.), Tratado sobre el Reglamento Europeo de Inteligencia Artificial, op cit., p. 83 ss.; M. PÉREZ-UGENA, “Análisis comparado de los distintos enfoques regulatorios de la inteligencia artificial en la Unión Europea, EE. UU., China e Iberoamérica”, Anuario Iberoamericano de Justicia Constitucional, vol. 28, núm. 1, 2024; O. Pollicino, “Washington effect o Bruxelles effect? Regolamentazioni dell’IA a confronto”, Formiche.net, 31 oct. 2023; C. WEISE, K. METZ, “The race to dominate A.I.”, The New York Times, 8 dic. 2023; A. ARENAL, C. ARMUÑA, C. FEIJOO, S. RAMOS, Z. XU, A. MORENO, “Innovation ecosystems theory revisited: The case of artificial intelligence in China”, Telecommunications Policy, vol. 44, núm. 6, 2020.

[22] L. DI GIACOMO, “Antropocentrismo e diritto dell’intelligenza artificiale: tra legge italiana e AI Act”, Diritto.it, 17 oct. 2025.

[23] El artículo 12 instituye, en el seno del Ministero del lavoro e delle politiche sociali, el Osservatorio sull’adozione di sistemi di intelligenza artificiale nel mondo del lavoro, con el fin de contener los riesgos derivados del empleo de sistemas de IA en el ámbito laboral, maximizando sus beneficios.

[24] Asimismo, el artículo 11, apartado 2, establece que el empleador o el comitente está obligado a informar al trabajador sobre la utilización de la inteligencia artificial.

[25] La literatura sobre esta cuestión es ya extremadamente amplia: véanse G. CLEMENTE DI SAN LUCA, M. PALADINO, “Decisione amministrativa e intelligenza artificiale”, Federalismi.it, núm. 4, 2025; J. PONCE SOLÉ, “Il regolamento dell’Unione Europea sull’intelligenza artificiale, la discrezionalità amministrativa e la riserva di umanità”, Rivista trimestrale di diritto pubblico, núm. 3, 2024; A. MASUCCI, “L’automatizzazione delle decisioni amministrative algoritmiche fra “big data” e “machine learning”. Verso l’algocratic governance”?”, Diritto e procedimento amministrativo, núm. 2, 2022.

[26] Sobre la cuestión general, véanse M.I. GARRIDO GÓMEZ, “La operatividad de la inteligencia artificial aplicada a las resoluciones judiciales”, Estudios de Deusto, vol. 73, núm. 1, 2025; G. DE MINICO, “Giustizia e intelligenza artificiale: un equilibrio mutevole”, Rivista AIC, núm. 2, 2024; P. SIMÓN CASTELLANO, “La evaluación de impacto algorítmico en los derechos fundamentales”, Estudios de Deusto, vol. 72, núm. 1, 2024; S. BARONA VILAR, Algoritmización del derecho y de la justicia. De la inteligencia artificial a la smart justice, Tirant lo Blanch, Valencia, 2021.

[27] M. GAUR, “An In-Depth Exploration of Predictive Justice with AI”, en P. POKHARIYAL, A. PATEL, S. PANDEY, (eds), AI and Emerging Technologies: Automated Decision-Making, Digital Forensics, and Ethical Considerations, Taylor & Francis, Abingdon, 2024; A. SIMONCINI, “La dimensione costituzionale della giustizia predittiva. Riflessioni su intelligenza artificiale e processo”, Rivista di diritto processuale, vol. 79, núm. 2, 2024; F. GALLI, G. SARTOR, “AI approaches to predictive justice: a critical assessment”, Humanities and rights global network journal, vol. 5, núm. 2, 2023; M. DE ASÍS PULIDO, “La justicia predictiva. Tres posibles usos en la práctica jurídica”, en F.H. LLANO ALONSO (dir.), Inteligencia artificial y filosofía del derecho, Murcia, Laborum, 2022; E. Battelli, “La decisión robótica: algoritmos, interpretación y justicia predictiva, Revista de Derecho Privado, núm. 40, 2021; M. HAMILTON, “The biased algorithm evidence of disparate impact of Hispanics”, American Criminal Law Review, vol. 56, núm. 4, 2019;S.G. MAYSON, “Bias in, bias out”, Yale Law Journal, núm. 8, 2019; A. CHANDER, “The Racist Algorithm?”, Michigan Law Review, vol. 115, 2017.

[28] El procedimiento prevé la obtención de los dictámenes de las Comisiones parlamentarias competentes, de la Conferenza Unificata y del Garante para la protección de los datos personales (art. 24, ap. 1).

[29] El art. 24, ap. 2, contiene, en efecto, una remisión pleonástica al art. 32 de la ley 234/2012, que establece las normas generales sobre la participación de Italia en la formación y en la aplicación de la normativa y de las políticas de la Unión Europea.

[30] Existen asimismo principios y criterios directivos para el ejercicio de la delegación en materia de enseñanza escolar, formación superior e investigación, en línea con recomendaciones de política ya existentes (por ejemplo, la Estrategia Nacional italiana de IA 2024-2026), que confirman el énfasis en la urgencia de la formación técnica y de un uso más consciente de la IA. Las referencias conciernen al refuerzo del desarrollo de competencias científicas, tecnológicas, ingenieriles y matemáticas vinculadas a las disciplinas STEM (art. 24, ap. 2, letra g); a la previsión, en determinados cursos universitarios y de formación tecnológica superior, de actividades formativas destinadas a la comprensión técnica y al uso consciente de las nuevas tecnologías (art. 24, ap. 2, letra i); a la revalorización de las actividades de investigación y de transferencia tecnológica en materia de inteligencia artificial realizadas por universidades, instituciones de formación artística superior y entes públicos de investigación (art. 24, ap. 2, letra l).

[31] Aquí el procedimiento es distinto: los proyectos de decretos legislativos se adoptan a propuesta del Presidente del Consejo de Ministros y del Ministro de Justicia, de acuerdo con el Ministro del Interior, y se remiten posteriormente al Parlamento para la emisión del dictamen de las Comisiones (art. 24, ap. 4).

[32] Estas figuras delictivas pueden ser sancionadas a título de dolo o de culpa y centrarse en la falta de adopción o en la falta de adecuación de dichas medidas de seguridad, cuando de tales omisiones se derive un peligro concreto para la vida o la integridad pública o individual, o para la seguridad del Estado.

[33] En el ejercicio de la delegación deberá asimismo precisarse los criterios de imputación de la responsabilidad penal de las personas físicas y de la responsabilidad administrativa de las entidades por los ilícitos relativos a sistemas de IA, teniendo en cuenta el denominado “control humano significativo” (véase, ex aliis, G. UBERTIS, “Intelligenza artificiale, giustizia penale e controllo umano significativo”, Diritto penale contemporaneo, núm. 4, 2020), esto es, el nivel efectivo de control de estos sistemas por parte del agente (art. 24, ap. 5, letra c), y deberán preverse, en los supuestos de responsabilidad civil, instrumentos de tutela del perjudicado, también mediante una regulación específica de los criterios de distribución de la carga de la prueba (art. 24, ap. 5, letra d). Más en general, véase B. Fragasso, Intelligenza artificiale e responsabilità penale – Principi e categorie alla prova di una tecnologia “imprevedibile”, Giappichelli, Torino, 2025.

[34] Los proyectos de decretos legislativos se adoptan a propuesta del Presidente del Consejo de Ministros y del Ministro de Justicia y se remiten posteriormente a las Cámaras para la emisión del dictamen de las Comisiones parlamentarias competentes (art. 16, ap. 2).

[35] El AI Act incluye entre los sistemas de alto riesgo aquellos utilizados para actividades de aplicación de la ley, esto es, actividades relativas a la prevención, investigación, detección o persecución de delitos o a la ejecución de sanciones penales. El Reglamento prevé la posibilidad de excepcionar la prohibición de utilizar sistemas de identificación biométrica remota en tiempo real en espacios de acceso público con fines de aplicación de la ley, cuando dicho uso sea estrictamente necesario para objetivos específicos vinculados a tales actividades (art. 5, ap. 1, letra h) y a la fase/procedimiento de evaluación de la conformidad de los sistemas de IA de alto riesgo para el uso de dichos sistemas, salvo la obligación de autorización (art. 46).

[36] En el ejercicio de la delegación para regular el uso de sistemas de inteligencia artificial en las diligencias de investigación preliminar, el Gobierno debe respetar las garantías relativas al derecho de defensa y a los datos personales de terceros, así como los principios de proporcionalidad, no discriminación y transparencia.

[37] Durante el examen parlamentario, sus prerrogativas se ampliaron ulteriormente, delegándose al Gobierno la atribución a estas dos Autoridades nacionales de los poderes de supervisión, inspección y sanción previstos por el AI Act para verificar el cumplimiento de las normas del Reglamento europeo y de la normativa de desarrollo (art. 24, ap. 2, letra a), así como la potestad de imponer sanciones y otras medidas administrativas, respetando los límites edictales y los procedimientos previstos (art. 24, ap. 2, letra d).

[38] L’AESIA ha sido creada mediante el Real Decreto 729/2023, de 22 de agosto, por el que se aprueba su Estatuto (BOE, núm. 202, de 23 de agosto de 2023), y entró en vigor el 2 de septiembre de 2023, conforme a lo dispuesto en su disposición final tercera. De acuerdo con dicho Estatuto, la AESIA es una entidad de derecho público (art. 1, apartado 1) con personalidad jurídica pública, patrimonio propio y autonomía de gestión (art. 1, apartado 2), adscrita al Ministerio para la Transformación Digital y de la Función Pública a través de la Secretaría de Estado de Digitalización e Inteligencia Artificial. La Presidencia de la Agencia corresponde, ex lege, a la persona titular de dicha Secretaría de Estado (art. 12). Aunque la AESIA goza de autonomía funcional y técnica en el ejercicio de sus competencias de supervisión, no constituye una autoridad administrativa independiente en sentido estricto, al mantenerse estructuralmente integrada en la organización administrativa del Gobierno y no estar dotada de un estatuto de independencia reforzada con rango legal comparable al previsto para otras autoridades independientes del ordenamiento español, como el Banco de España. Su autonomía se proyecta, por tanto, principalmente sobre el plano operativo y técnico, y no sobre una separación orgánica plena respecto del poder ejecutivo.

[39] Véanse M. PAOLANTI, “Italy’s Constitutional Gamble Democratic Safeguards and Fragmentation Risks in Europe’s First National AI Law”, VerfBlog, 30 oct. 2025.

[40] Sobre el AI Act y el trabajo, véase V. DI CERBO, “Digitalizzazione e rapporto di lavoro. L’AI Act nel quadro normativo europeo a tutela del lavoratore”, Lavoro Diritti Europa, 20 nov. 2024.

[41] Para un comentario sobre estos aspectos, véase B. ROSA, A. PEDUTO, G.M. RICCIO, “New Italian Law on AI: a general framework”, Kluwer Copyright Blog, 3 dic. 2025.

[42] El artículo 25, apartado 1, letra a), de la Ley 132/2025 modifica el artículo 1, apartado 1, de la Ley 633/1941.

[43] El artículo 25, apartado 1, letra b), de la Ley 132/2025 introduce el artículo 70-septies en la Ley sobre derecho de autor.

[44] Artículo 19, apartado 6, de la Ley 132/2025.

[45] Artículo 18 de la Ley 132/2025.

[46] La opción de no superponer obligaciones nacionales adicionales a los operadores económicos en estos ámbitos parece estar orientada a evitar la generación de dificultades aplicativas o incentivos a la deslocalización, dejando que la armonización del mercado sea guiada por la disciplina común.

[47] La opción italiana no constituye, por tanto, un mero complemento del marco europeo, sino la construcción de un régimen específico que responde a exigencias de protección vinculadas al derecho interno, en el que la tradición bioética y el papel central de la figura del médico revisten una relevancia particular en el ordenamiento.

[48] El artículo 7, apartado 3, de la Ley 132/2025 establece que «l’interessato ha diritto di essere informato sull’impiego di tecnologie di intelligenza artificiale».

[49] El artículo 8 de la Ley 132/2025 establece que los datos sanitarios y la investigación científica se consideran de relevante interés público (apartado 1) y prevé una obligación de comunicación al Garante para la protección de los datos personales (apartado 5).

[50] El AI Act prevé obligaciones de transparencia y de suministro de información a los deployers (art. 13), así como obligaciones de transparencia para los proveedores y los deployers de determinados sistemas de IA (art. 50), pero no impone a los médicos un deber de divulgación detallada caso por caso.

[51] A. BARBIERO, B. CAMPASSO, A. CIPRIANI, R. DI CILLO, D. SCELTA, “Trust at the core: Italy’s first comprehensive AI Law and its impact on the professional practice”, MediaLaws, 3 noviembre. 2025.