CONSTITUCIONALISMO DIGITAL, PODERES DE LAS PLATAFORMAS, INTELIGENCIA ARTIFICIAL Y DEMOCRACIA

DIGITAL CONSTITUTIONALISM, PLATFORM POWERS, ARTIFICIAL INTELLIGENCE AND DEMOCRACY

 

Armando Lamberti

Catedrático de Derecho constitucional y público en la Universidad de Salerno

 
resumen - abstract
palabras claves - key words

 

 

 

"ReDCE núm. 44. Julio-Diciembre de 2025" 

 

Inteligencia Artificial y Derecho Constitucional (II).

 

SUMARIO

1. Preámbulo y delimitación del campo de investigación.

2. El constitucionalismo digital: perfiles teóricos.

3. Fases de desarrollo del constitucionalismo digital.

4. El predominio de las plataformas: perfiles generales.

5. El constitucionalismo digital ante el nuevo desafío de la inteligencia artificial. Oportunidades y críticas del AI Act europeo.

6. Inteligencia artificial y derechos fundamentales: cuestiones constitucionales y equilibrios de intereses.

7. La inteligencia artificial en el Parlamento: cuestiones abiertas y perspectivas.

8. De la libertad de manifestación del pensamiento a la libertad de formación del pensamiento. Inteligencia artificial y “neuro-derechos”.

9. Conclusiones: constitucionalismo y democracia frente al desafío de la técnica.

 

  

Volver

 

1. PREÁMBULO Y DELIMITACIÓN DEL CAMPO DE INVESTIGACIÓN.

 

El objetivo de estas páginas es ofrecer una descripción general de las dinámicas del denominado “constitucionalismo digital”. Se pondrá de relieve, en primer término, que dicho constitucionalismo surge de la necesidad de encontrar una adecuada solución al problema constitucional de la emergencia de poderes privados, con referencia específica a las grandes plataformas digitales. Solo teniendo clara esta premisa —que focaliza desde el inicio la cuestión a afrontar, esto es, el “poder privado” de las grandes plataformas[01]— será posible delinear las coordenadas teóricas generales necesarias para describir el constitucionalismo digital cuyas “fases” de desarrollo, con particular atención —y evocando aquí la lección de Peter Häberle [02]— al “derecho constitucional europeo” (o, si se prefiere, al “patrimonio constitucional europeo” [03]) se intentarán trazar a continuación. Se pondrá de manifiesto, así, la primera afirmación en sede jurisprudencial no exenta de límites y contradicciones, de los paradigmas del constitucionalismo digital, para luego observar la emergencia de la progresiva necesidad de sensibilizar la acción del legislador europeo, con especial referencia a la conformación de un entramado de garantías de carácter “procedimental” frente a los poderes privados. Nos detendremos, al efecto, sobre todo en el ejemplo del Digital Services Act.

Asimismo, se observará cómo los poderes privados de las plataformas representan un “riesgo” para la democracia constitucional (también en consideración del carácter monopolístico del nuevo capitalismo digital), con especial atención a la libertad y la autenticidad del debate público, cada vez más condicionado, no solo por la difusión de las fake news, sino también por los poderes de moderación y selección de contenidos en línea ejercidos por las plataformas (y, al efecto, se abrirá un foco sobre la desinformación en la era de la nueva guerra híbrida).

Finalmente, se subrayará cómo los desafíos planteados por la inteligencia artificial repercuten en la efectividad de los derechos fundamentales de la persona y cómo, por ello, se impone una readaptación de las tradicionales garantías constitucionales. Se examinará, en este sentido, la relación entre IA y derechos fundamentales a la luz del reciente Reglamento europeo y las consecuencias de la IA en el circuito de la democracia representativa, con particular referencia a sus posibles usos en los procedimientos parlamentarios.

Se planteará, en definitiva, la necesidad de un nuevo paradigma de tutela de los derechos fundamentales que alcance incluso la salvaguardia de la dimensión cognitiva del individuo: es en este contexto donde emerge la reflexión constitucional sobre los neuroderechos, orientada a proteger la formación del pensamiento y la integridad mental de la persona.

Pues bien, como se anticipaba, el gran desafío para el constitucionalismo contemporáneo está representado por la emergencia de los poderes privados, en particular de los gigantes de la red (las grandes plataformas), protagonistas de lo que Shoshana Zuboff ha descrito puntualmente como el “capitalismo de la vigilancia” [04] en la era de una nueva —apelando a una categoría de Polanyi— “gran transformación” [05].

En este contexto de anomia de lo público y de protagonismo de lo privado parece realizarse la intuición de Forsthoff en El Estado de la sociedad industrial [06], según la cual las constituciones —frente a un Estado reducido a macro administración carente de toda potencia política, funcional a las exigencias de la realización técnica— pierden su capacidad ordenadora, de modo que el individuo se encuentra desprovisto, indefenso, ante las pretensiones de los grupos sociales y de los grandes actores privados: “el elemento de poder de los productos de la técnica” —escribía Forsthoff— “se manifiesta así en la natural oposición de esta a la ideología de las libertades”[07].

Ahora bien, ¿cómo se manifiesta hoy “el elemento de poder de los productos de la técnica” del que hablaba Forsthoff?

Si se observa con lúcido realismo la complejidad del escenario actual, parecen ya lejanos los tiempos en los que, quizá con un optimismo algo ingenuo, se cultivaba el sueño, la utopía libertaria, de una red independiente de todo poder, como nuevo reino de la libertad: desde la provocadora Declaración de independencia del ciberespacio de Barlow de 1996 —verdadero himno a la libertad y a Internet como nueva morada de la mente, lejos de las injerencias de los “Gobiernos del Mundo Industrial, cansados gigantes de carne y acero”— se ha llegado a una situación en la que tiranizan poderes privados y en la que la libertad del usuario —ya una “libertad vigilada” (para decirlo con el título provocador del libro de David Kaye [08])— se ve cada vez más puesta a prueba [09].

Y ello —conviene subrayarlo— también por una característica estructural fundamental de los mercados digitales.

Una de sus principales características, en efecto, es que en ellos the winner takes it all: es decir, están intrínsecamente marcados por una tendencia al oligopolio y al monopolio (baste pensar que Google detenta una cuota de mercado del 92,48% entre los motores de búsqueda), como resultado de altas barreras de entrada, economías de escala, efectos de red y utilización de datos.

Una vez que el “vencedor” ha conquistado el mercado, la oportunidad para las potenciales empresas competidoras de contrarrestar su posición es mínima, si no nula. De este modo, los colosos de la red se convierten también en los gatekeepers del mercado, es decir, en los detentores de sus llaves de acceso, puesto que su intermediación deviene un paso necesario para las empresas ordinarias en sus relaciones con la clientela, de modo que desde esta posición las Big Tech pueden imponer con facilidad condiciones particularmente onerosas [10].

De esta condición monopolística u oligopolística se derivan, como se verá, consecuencias importantes bajo diversos perfiles (desde la monetización de los datos y la orientación del comportamiento de los usuarios hasta los riesgos para la protección de los datos y el condicionamiento del pluralismo informativo) [11].

 

 

2. EL CONSTITUCIONALISMO DIGITAL: PERFILES TEÓRICOS.

 

Si este es el cuadro de la “realidad efectiva” del entorno digital, ¿cuál es el “margen de reacción”, por así decirlo, del derecho constitucional? ¿Qué instrumentos tiene a su disposición el arsenal del constitucionalismo frente a los desafíos de un orden —como el digital— caracterizado por poderes privados transnacionales escurridizos, en una dimensión que trasciende estructuralmente las fronteras de los Estados nacionales?

El constitucionalismo digital, en efecto, nace precisamente —en el plano de la elaboración teórica— de esta necesidad.

En la literatura reciente, esta expresión ha asumido al menos tres acepciones distintas.

En primer lugar, al constitucionalismo digital se remiten aquellos autores [12] que sostienen la necesidad de aplicar los principios del constitucionalismo contemporáneo a la sociedad digital, especialmente mediante el reconocimiento de la eficacia interprivada u horizontal de los derechos fundamentales (la denominada Drittwirkung de la doctrina alemana [13], acogida también por la jurisprudencia del Tribunal Constitucional Federal desde el célebre caso Lüth).

En segundo lugar, hablan de constitucionalismo digital aquellos autores que pretenden rediseñar el constitucionalismo para adaptarlo a la nueva realidad, repensando algunos ordenamientos e imaginando nuevas formas de protección de los derechos fundamentales, en particular a través de garantías procedimentales que puedan limitar y circunscribir la acción de los poderes privados [14].

Finalmente, existe una acepción de constitucionalismo digital —sobre la cual conviene detenerse críticamente— propuesta por quienes consideran que el nuevo entorno digital sería portador de principios lato sensu constitucionales, traicionando sin embargo el espíritu del constitucionalismo y del derecho constitucional como ciencia de la fundación y de la limitación del poder legítimo.

Se hace referencia, en particular, a las perspectivas del denominado societal constitutionalism de Gunther Teubner [15], según el cual la regulación de la red debería ser “solo fruto de la misma sociedad civil y de las dinámicas sociales y económicas por ella producidas”, superando así “la lógica política de los Estados para imponer en la sustancia el dominio de los regímenes privados globales, esto es, de aquel derecho producido exclusivamente por los mismos portadores de los intereses sectoriales del mercado” [16].

La tesis de Teubner, en efecto, como ya señalaba Stefano Rodotà, conduce a una especie de “medievalismo institucional” que “revela la incapacidad de elaborar categorías interpretativas aptas para afrontar los problemas del presente” [17].

Hablar de fantasmáticas “constituciones civiles” transnacionales, fruto de subsistemas autónomos de la sociedad civil global, significaría rendirse ante los gigantes de la red, en nombre de teorías meramente descriptivas olvidadizas de la vocación prescriptiva del constitucionalismo [18], elevando así los poderes privados del universo digital “al rango de sujetos constitucionales” y “verdaderos soberanos”, “legisladores, ejecutivos y jueces del ciberespacio, sin separación alguna de poderes”, en un peligroso “Medievo digital” [19].

Más que ante un nuevo “constitucionalismo”, nos encontraríamos frente a la regresión de la ciencia jurídica a un sociologismo descriptivo, que resulta engañoso y peligroso, pues desvirtúa la capacidad conformadora del derecho —y del derecho constitucional en particular—, considerando el ius como un producto espontáneo emergente directamente de las dinámicas sociales, sin la intermediación del poder público [20].

No es casual, en efecto, que Teubner sea, por formación, un sociólogo del derecho. Tampoco escapa que la idea de “subsistemas autónomos de la sociedad civil” haya sido retomada por él de la elaboración de Niklas Luhmann, célebre teórico del funcionalismo, quien también —ça va sans dire— era sociólogo.

Asimismo, la perspectiva teubneriana y, en general, la idea de “sistemas autorreguladores de la frontera digital” parecen evocar la teoría hayekiana sobre el orden espontáneo, esto es, un kosmos “carente de un centro, entendido en el sentido de un ordenamiento constituido centralizado”, que por ello “favorece fisiológicamente el descentralismo colaborativo y no posee un fin unificado, aunque se base en interacciones cognitivas y en la esencia de un derecho natural, espontáneo precisamente” [21].

De este modo, la tesis teubneriana de la existencia de constituciones civiles transnacionales (espontáneas, porque derivadas de las dinámicas de las interacciones sociales) traiciona la pretensión ideológica del mercado como orden espontáneo y autorregulado según leyes naturales objetivas —una falacia, esta, demostrada desde hace tiempo [22]— y no tiene en cuenta, además, que “las interacciones sociales nunca son neutrales” [23] (como tampoco lo es la técnica y su dominio sobre la realidad contingente).

No en vano, Dieter Grimm ha afirmado con claridad que las “civil constitutions cannot escape their originating conditions” [24] y, en cuanto complejos de normas privadas (como, por ejemplo, los estándares de las community que regulan la difusión de contenidos en línea en las plataformas digitales), reflejan solo intereses parciales, jamás intereses generales: se trataría, pues, de teorías meramente descriptivas de una realidad, que no se plantean en absoluto el problema crucial de su legitimación.

Incluso una doctrina anglófona más antigua, a decir verdad, se había movido según coordenadas favorables al papel de la autonormación privada, aunque dentro de una configuración teórico general distinta de la de Teubner.

Por ejemplo, Fitzgerald, reconociendo que, en el ámbito de la sociedad de la información, el ejercicio del poder se comparte entre actores públicos y privados, sostuvo que el constitucionalismo digital —entendido como mediación o definición de las relaciones de poder en la esfera precisamente “digital”— implica necesariamente la participación de ambos actores, públicos y privados.

Según Fitzgerald, la naturaleza intrínseca de la sociedad de la información (internacional, inmaterial, carente de fronteras territoriales y caracterizada por una estructura descentralizada) habría requerido un modelo de gobierno mixto, capaz de conjugar la autorregulación del sector privado con la vigilancia de las instituciones públicas: de un lado, los actores privados ejercerían su influencia mediante la regulación del código informático; de otro, los actores públicos tendrían un papel relevante en el ámbito de la governance. El autor, a este respecto, evocaba un “constitucionalismo informacional” para designar el conjunto de normas estatales (en particular: el derecho de propiedad intelectual, el derecho contractual, el derecho de la competencia y el derecho de la privacidad) que deberían ser invocadas con el fin de circunscribir la autorregulación de los actores privados [25].

De ahí las críticas, en la doctrina norteamericana, formuladas por Berman, quien, considerando la facultad de los actores privados de definir el código del ciberespacio como instrumento regulativo de extraordinaria potencia, propuso un modelo distinto de “constitucionalismo constitutivo” para eludir las estrecheces de la state action doctrine y tratar de someter a los actores privados al derecho constitucional de los Estados Unidos.

En contraste con Fitzgerald, que reconocía al derecho privado (propiedad intelectual, derecho contractual, derecho de la competencia, privacy law) la función de contener el poder de los actores privados, Berman rechazó explícitamente la idea de que lo que él denomina “derecho ordinario” (esto es, el derecho privado) pudiera desempeñar una función constitucionalizante semejante [26].

En 2015, Gill, Redeker y Gasser publicaron un ensayo preliminar sobre el concepto de “constitucionalismo digital”, proponiendo adoptar tal expresión como término paraguas, destinado a conectar un conjunto de documentos orientados a delinear una suerte de Internet Bill of Rights [27]. Según los autores, los textos de estas Declaraciones, surgidos en el transcurso de los últimos veinticinco años, pese a su heterogeneidad, pueden considerarse parte de un discurso más amplio “pre-” o “proto-constitucional”, a modo de “ladrillos intelectuales” para la edificación de una materia constitucional propia de la esfera digital, cuyo fin último consistiría en la definición de un corpus coherente de derechos, principios y normas de gobernanza para la red[28].

Este discurso constitucional, por lo demás, no se concibe como estático; para los autores se señalaría una tendencia progresiva hacia la cristalización de principios en textos jurídicos vinculantes. Sin embargo, según Gill, Redeker y Gasser, estas Declaraciones de derechos para Internet no pueden ser consideradas constituciones en sentido clásico, entendidas como “mecanismos destinados a delimitar los confines del poder estatal frente a los ciudadanos”. En efecto, tales textos carecen de una característica esencial de las constituciones: no ocupan una posición fundacional o primaria en la jerarquía de las fuentes del derecho. No obstante, los autores estiman que dichos documentos pueden ser aproximados a las constituciones, en cuanto comparten los “aspectos sustanciales fundamentales” del constitucionalismo, tales como sus valores, sus problemáticas, sus principios y sus funciones principales, entre ellas la limitación del poder estatal y la atribución de poderes a las instituciones dentro de la sociedad.

En verdad, esta perspectiva no difiere mucho de la teubneriana, aunque no declaradamente inspirada en el funcionalismo luhmanniano. Se trata, en el caso de las Declaraciones estudiadas por los autores, de actos de soft law, a menudo de matriz privada, no muy distintos de aquellas civil constitutions que, pese a la ambición de expresar intereses generales, siguen siendo proyección de intereses parciales.

No es esta, entonces, la senda a seguir: el esfuerzo, más bien, debe ser el de reivindicar la centralidad de la dimensión prescriptiva del constitucionalismo y la imprescindibilidad de la regulación pública.

Y aquí, precisamente, entran en juego las dos primeras acepciones de constitucionalismo digital, que, en realidad, no solo representan dos caminos a seguir —dos vías, conviene subrayarlo, no alternativas, sino capaces de coexistir—, sino que reflejan, asimismo, en muchos aspectos, dos “fases de desarrollo” del derecho constitucional europeo: la primera, relativa sobre todo a la jurisprudencia del Tribunal de Justicia; la segunda, concerniente a la legislación.

Conviene un ulterior esclarecimiento en el plano teórico dogmático. La primera “vía” del constitucionalismo digital, en efecto, se inserta en una tradición constitucional europeo continental bastante arraigada —muy distinta, cabe señalar, de la tradición del constitucionalismo estadounidense—, a saber, la de la afirmación de la eficacia interprivada de los derechos fundamentales; es esta, en otros términos, la conocida doctrina alemana de la Drittwirkung, esto es, del reconocimiento de la eficacia horizontal de las normas constitucionales relativas a los derechos fundamentales.

Si consideramos la doctrina italiana, resulta imposible no evocar la gran intuición de Giorgio Lombardi, quien ya en tiempos, por así decirlo, no sospechosos, escribió un volumen sobre el tema Potere privato e diritti fondamentali [29]: una intuición que requiere ser ulteriormente desarrollada y actualizada a la luz de los desafíos de la sociedad digital.

Más en general, esta concepción refleja la superación —propio de las constituciones de la Segunda Posguerra— de la visión decimonónica de los derechos públicos subjetivos (de memoria jellinekiana [30]) y la afirmación de la plena eficacia de la Constitución también en la sociedad civil y en las formaciones sociales que la componen, lo cual implica —como señaló la Corte Constitucional italiana en la sentencia n.º 122 de 1970, dedicada a la libertad de manifestación del pensamiento— que el mandato constitucional debe “imponerse al respeto de todos, de las autoridades públicas como de los conciudadanos, y que nadie pueda atentar contra él sin violar un bien asistido por rigurosa tutela constitucional”.

Por lo demás, retomando la lección lombardiana, no tiene sentido hablar de garantías de libertad únicamente frente a las autoridades públicas; dado que el ordenamiento presenta un carácter de unidad en su conjunto, la distinción entre una esfera de garantía frente al Estado y un ámbito de tutela respecto de los conciudadanos resulta infundada (sin contar, además, la enorme dificultad de aislar, en el marco de una tutela unitaria de la persona, la dimensión de la garantía de las libertades operante solo frente a los poderes públicos).

 

 

3. FASES DE DESARROLLO DEL CONSTITUCIONALISMO DIGITAL.

 

3.1 Desde la jurisprudencia del TJUE de los años 2014 2015...

La mencionada primera modalidad de contención del nuevo poder digital fue seguida con particular atención por la jurisprudencia del Tribunal de Justicia, también gracias a una adecuada valorización de los precedentes en materia de aplicación horizontal de los principios generales del derecho de la Unión y de algunos artículos de la Carta de los Derechos Fundamentales de la Unión Europea (piénsese, por ejemplo, en la sentencia Egenberger de 2018 [31]).

Se trata de una fase de desarrollo jurisprudencial del constitucionalismo digital que se caracteriza por una primera reacción significativa frente a la emergencia de un poder digital que, en sus inicios, no era contenido por un legislador de inspiración neoliberal o, sencillamente, inerte ante los complejos desafíos de la nueva realidad (como lo demuestran, por lo demás, los larguísimos tiempos de gestación del GDPR de 2016).

Un aspecto importante que distingue esta jurisprudencia es, en efecto, una aplicación “subrepticia” y “no explicitada” [32] de los arts. 7 y 8 de la Carta de los Derechos Fundamentales de la Unión Europea, respectivamente en materia de tutela de la vida personal y de protección de los datos personales, en el marco de un enforcement de la privacidad digital frente al emergente poder algorítmico.

Piénsese, por ejemplo, en el caso Digital Rights Ireland, originado a partir de procedimientos de remisión prejudicial promovidos por el Alto Tribunal de Irlanda y por el Tribunal Constitucional de Austria con referencia a las normativas nacionales de transposición de la Directiva de 2006 sobre conservación de datos (Directiva 2006/24/CE), que permitía a las autoridades nacionales recopilar de manera intrusiva informaciones relativas a múltiples aspectos de la vida privada de quienes hubieran suscrito contratos para la prestación de servicios de telecomunicaciones.

El Tribunal, utilizando la Carta de Niza como parámetro lato sensu constitucional para la legitimidad de los actos comunitarios, anuló por primera vez en la historia del proceso de integración europea una legislación derivada en su totalidad por contravenir el bill of rights europeo: la interferencia indiscriminada con el derecho fundamental a la vida privada, la referencia genérica a investigaciones sobre “delitos graves” para legitimar dicha injerencia, la ausencia de garantías sustanciales y procesales, eran todos indicios de una violación de los principios de necesidad y proporcionalidad y, con ellos, de las normas de la Carta.

3.2 Pasando por el ejemplo del derecho al olvido.

Resulta particularmente interesante el caso Google Spain, en materia de derecho al olvido, en el cual se advierte una modalidad específica de conformación jurídica de las relaciones entre el usuario y el “poder privado”.

Aquí, en efecto, el Tribunal extiende también a los motores de búsqueda —mediante “una aplicación horizontal subrepticia de la Carta” [33]— las tutelas previstas en los artículos 7 y 8 de la Carta de Niza. Como es sabido, la autoridad española de protección de datos había solicitado a Google la eliminación de ciertos enlaces que aparecían al introducir el nombre del recurrente como palabra clave en una búsqueda. Google se negó a cumplir con la solicitud, alegando no estar sujeta al derecho de la Unión Europea (por tener su sede social en Estados Unidos). La aplicación horizontal —entonces algo heterodoxa— de la Carta de Niza permitió al Tribunal de Luxemburgo aplicar la disciplina de la Directiva sobre protección de datos también a los motores de búsqueda, incluidos en la noción de “responsables del tratamiento”.

Este constituye, pues, un claro ejemplo de Drittwirkung de los derechos fundamentales que el Tribunal de Justicia aplicó oportunamente. Pero conviene subrayar que se trata solo de un primer paso, ya que dicha operación no se sustrajo a una “contraindicación” [34].

En efecto, uno de los efectos de la codificación jurisprudencial del derecho al olvido fue confiar, por parte del propio Tribunal, a un motor de búsqueda —es decir, a un “poder privado”— la tarea de realizar un delicado equilibrio entre el derecho al olvido, en sentido estricto, el derecho a la desindexación, y el derecho a ser informado que corresponde a la comunidad de usuarios: “una operación que debería ser de exclusiva atribución de una autoridad jurisdiccional o para jurisdiccional y cuya delegación a un operador privado casi en blanco, sin (…) las adecuadas garantías procedimentales, no puede sino amplificar su poder” [35].

De este modo, la jurisprudencia anticipó la intervención normativa del legislador europeo: baste pensar en el art. 17 del GDPR, que configura, precisamente, como derecho subjetivo típico el denominado “derecho al olvido” [36], en la perspectiva de la “plena efectividad del derecho fundamental consagrado en el artículo 8 de la Carta de Derechos de la UE” [37].

Según dicho artículo,

“el interesado tendrá derecho a obtener del responsable del tratamiento la supresión de los datos personales que le conciernan sin dilación indebida, y el responsable del tratamiento estará obligado a suprimir sin dilación indebida los datos personales cuando concurra alguno de los siguientes motivos: a) los datos ya no sean necesarios en relación con los fines para los que fueron recogidos o tratados; b) el interesado retire el consentimiento en que se basa el tratamiento y no exista otro motivo legítimo para tratar los datos; c) el interesado se oponga al tratamiento de los datos personales y no exista ningún motivo legítimo prevalente para proceder al tratamiento; d) los datos hayan sido tratados ilícitamente; e) los datos deban suprimirse para cumplir una obligación legal establecida en el derecho de la Unión o de los Estados miembros al que esté sujeto el responsable del tratamiento; f) los datos se hayan recogido en relación con la oferta de servicios de la sociedad de la información” [38].

El reconocimiento —jurisprudencial y normativo— del derecho al olvido, por tanto, no resuelve plenamente el problema de los “poderes privados”. De hecho, la propia sentencia Google Spain de 2014, como se decía, confió de facto a las plataformas la función de valorar el interés público en el mantenimiento en los archivos de la red de las informaciones cuya eliminación hubiera solicitado el sujeto implicado, hasta el punto de que podría afirmarse, a la luz de los poderes discrecionales de valoración comparativa de los intereses en juego, que “Google está operando casi como una agencia gubernamental con numerosas responsabilidades, incluidas funciones cuasi legislativas, cuasi adjudicativas y cuasi ejecutivas” [39].

Sobre el tema, para completar el análisis, conviene señalar, frente a las aperturas provenientes del derecho de la Unión Europea, la actitud particularmente prudente, por no decir conservadora, del Tribunal de Estrasburgo, inclinado a valorar más intensamente la libertad de comunicar informaciones e ideas protegida por el artículo 10 del CEDH.

Así, en el caso Fuchsmann c. Alemania de 2017, relativo a una solicitud de eliminación de una noticia de los archivos digitales de un periódico importante, el New York Times, rechazada por los tribunales nacionales. El Tribunal confirmó una “fuerte presunción a favor del art. 10 CEDH, vencible únicamente en presencia de argumentos adecuados” [40], teniendo en cuenta la contribución de la noticia al debate público, la fiabilidad de las fuentes utilizadas, la amplitud o limitación de la difusión, la continencia del artículo y la eventual condición del sujeto como figura pública.

De manera análoga, en el caso M.L. y W.W. c. Alemania de 2018, el TEDH, al declarar la ausencia de una violación del art. 8 del Convenio en la hipótesis de difusión en línea de los nombres de los autores de un delito cometido casi treinta años antes, objeto de transcripciones de programas radiofónicos y de artículos periodísticos, llegó a valorar la función democrática y de interés público de los archivos digitales (rindiendo homenaje, evidentemente, a la conocida concepción de la prensa —aplicada así también a los archivos en línea— como “perro guardián” [41] de la democracia, patrocinada por el Tribunal desde históricas sentencias de los años setenta y ochenta [42]).

El ejemplo del derecho al olvido resulta de máximo interés también porque revela una tendencia: la “procedimentalización” del ejercicio del poder privado, que, afirmada inicialmente en la jurisprudencia, ha caracterizado posteriormente el enfoque de la normativa europea, como se verá más adelante.

El Tribunal de Justicia, en el citado caso Google Spain, había confiado a un sujeto privado (el motor de búsqueda) el poder de realizar un equilibrio de intereses, entre el derecho del solicitante a ser olvidado y el derecho del público a ser informado. Sin embargo, el Tribunal no indicaba en aquel caso directrices de carácter procedimental para circunscribir el ejercicio del poder privado en relación con el derecho al olvido del solicitante, ni siquiera la previsión expresa de un procedimiento contradictorio “procedimental” entre las partes.

Tampoco aclaró mejor las dudas al respecto, el mencionado art. 17, párr. 1, del GDPR, que se limitó a afirmar que el interesado, en determinadas condiciones, tiene derecho a solicitar la supresión de los datos personales que le conciernen, no la desindexación, a la que se refería la sentencia Google Spain.

Más recientemente, sin embargo, con la sentencia de 8 de diciembre de 2022 (en el asunto C 460/20), el Tribunal de Justicia “consagró el poder privado de desindexación en cabeza del motor de búsqueda, afirmando que, a efectos del examen de una solicitud de desindexación de noticias no relevantes, falsas, difamatorias o inexactas, no es necesario que el interesado obtenga una previa resolución judicial contra el proveedor del contenido” [43].

La sentencia configura una “relación directa entre el individuo que invoca el derecho al olvido mediante desindexación y el motor de búsqueda: la solicitud de olvido se vincula de manera inmediata con una carga de verificación por parte del motor de búsqueda” [44].

De ello deriva el deber, para el motor de búsqueda, de dotarse de un procedimiento de acceso directo por parte del usuario, cuya fisonomía esencial la propia sentencia delinea. En ausencia de intervención del legislador europeo: el interesado debe demostrar al gestor del motor de búsqueda “la inexactitud manifiesta de la información o, al menos, de una parte de ella que no tenga importancia menor”, mientras que el motor de búsqueda está obligado a garantizar un acceso sencillo al procedimiento de desindexación y a asegurar el respeto del procedimiento contradictorio (pudiendo proceder a la desindexación solo si el interesado aporta “elementos de prueba pertinentes y suficientes, idóneos para corroborar su solicitud y demostrar el carácter manifiestamente inexacto de la información incluida en el contenido indexado” [45]).

Se manifiesta, así, la mencionada “procedimentalización del ejercicio del derecho a la desindexación” [46], la cual parece responder a una exigencia, la de mayores garantías en las relaciones interprivadas, que, como se verá, subyace a la “segunda etapa” del constitucionalismo digital.

3.3 … A los interventos del legislador europeo: el procedimentalismo como entramado de garantías frente a los poderes de las plataformas digitales. Obligaciones de las plataformas y garantías para los usuarios en el Digital Services Act.

Precisamente los mencionados “inconvenientes” —puestos de relieve por la materia del derecho al olvido— han conducido a una segunda fase, actualmente en curso, del “constitucionalismo digital” europeo [47], que posee una tracción no solo axiológica sustancial, sino también y sobre todo procedimental, sin dejar de reconocer la eficacia horizontal de los derechos fundamentales.
Se trata, en efecto, de “una nueva declinación del constitucionalismo digital que intenta resolver las problemáticas de opacidad que emergen con frecuencia en los mecanismos algorítmicos propios de los nuevos poderes, mediante garantías procedimentales que ofrezcan remedio a la ausencia de garantías sustanciales comparables a las propias de las relaciones con actores públicos” [48].

El énfasis en la dimensión procedimental —“que puede definirse como una aplicación europea, de geometría horizontal y por tanto entre privados, del due (data) process” [49]— tiene la gran ventaja de valorizar el principio de transparencia, haciendo permeable el ejercicio del poder por parte de los sujetos privados a dinámicas de control jurisdiccional más precisas, incluso cuando actúan como ejecutores de estrategias o medidas introducidas por los propios poderes públicos (según mecanismos de “delegación” cada vez más frecuentes en la legislación europea).

Esto ocurre, de manera particular, en el Digital Services Act (DSA), que puede considerarse un ejemplo paradigmático de la segunda fase del constitucionalismo digital europeo y del nuevo entramado de garantías frente a los poderes privados, de base esencialmente procedimental [50].

El objetivo del DSA, así como del coetáneo Digital Markets Act (DMA), es reformar el espacio digital europeo, asegurando a los ciudadanos usuarios europeos una tutela más eficaz tanto como consumidores como titulares de derechos fundamentales, reconocidos también por la Carta de Derechos de la Unión.

Si bien el DMA se centra más en la protección de los consumidores y en la competencia, especialmente de las plataformas en línea de menor tamaño, ambos reglamentos disponen una serie de instrumentos para contrarrestar el poder de las plataformas en línea de mayores dimensiones, previendo la introducción de obligaciones a su cargo, de remedios accionables por los usuarios contra las decisiones de dichas plataformas y de organismos encargados de garantizar la correcta implementación de tales garantías.

En líneas generales, el DSA, aun dejando prácticamente intactas las exenciones de responsabilidad para los proveedores contenidas en la Directiva de 2000 sobre comercio electrónico, introduce una serie más estricta de obligaciones procedimentales en garantía de las situaciones jurídicas subjetivas de los usuarios. Esto se advierte, de manera particular, en el terreno de la moderación y selección de contenidos, que representa quizá la expresión más evidente de la relevancia jurídica del “poder privado”, capaz de incidir en un derecho fundamental de la persona, cual es la libertad de manifestación del pensamiento.

En primer lugar, debe recordarse que los prestadores de servicios intermediarios de Internet deben incluir en sus condiciones generales información sobre eventuales restricciones al uso de sus servicios, en particular en lo que respecta a “las políticas, los procedimientos, las medidas y los instrumentos utilizados para la moderación de contenidos, incluidos el proceso decisorio algorítmico y la verificación humana” (art. 12, párr. 1).

Esta norma resulta especialmente significativa, pues introduce de hecho el principio de la “explicabilidad ex ante” [51] de los mecanismos algorítmicos frente a los usuarios: al disciplinar la transparencia de los términos y condiciones contractuales elaborados por las plataformas, se prevé que estas últimas deben comunicar de manera clara no solo las restricciones impuestas respecto al uso de los servicios, sino también, precisamente, las políticas, los procedimientos, las medidas y los instrumentos utilizados para la actividad de moderación; además, se establece expresamente que las reglas de moderación elaboradas por la plataforma deben ser implementadas de manera “diligente, objetiva y proporcionada” [52].

En cuanto a la moderación de contenidos, se precisa asimismo que los prestadores deben publicar una vez al año un informe que, entre otras cosas, incluya información sobre las actividades de moderación iniciadas por los operadores (excluidas las microempresas) por iniciativa propia (art. 13, párr. 1, letra c).

Además, los prestadores de servicios de hosting, incluidas las plataformas en línea, están obligados a establecer un mecanismo de notificación y acción (notice and action) respecto de los “contenidos ilegales” y un sistema para asegurar la notificación de una respuesta sobre la decisión adoptada por la plataforma tras la señalización (art. 14).

Estos mismos operadores, cuando decidan eliminar información específica proporcionada por un destinatario del servicio o deshabilitar el acceso a la misma, deben informar al destinatario de la decisión a más tardar en el momento de la eliminación o deshabilitación, proporcionando además una motivación clara y específica (art. 15, párr. 1), que contenga al menos determinados elementos (art. 15, párr. 2).

Este aspecto es de particular interés, pues la obligación de motivación representa el primer instrumento eficaz de garantía procedimental frente al ejercicio de un poder: un elemento que puede ser indicio de una tendencia a la “administrativización” del poder privado [53], esto es, de una extensión a la esfera de las relaciones privadas de garantías originariamente concebidas para limitar y circunscribir la acción del poder público (y, en particular, administrativo).

Asimismo, las plataformas están obligadas a organizar un sistema de reclamaciones eficaz, sobre el cual no pueden pronunciarse recurriendo exclusivamente a instrumentos automatizados (art. 17). El reclamante, si no queda satisfecho con el resultado, puede además solicitar que la cuestión sea definida por un organismo de resolución extrajudicial de controversias, sin perjuicio en todo caso de su derecho a acudir a la autoridad jurisdiccional competente conforme al derecho del Estado miembro (art. 18, párr. 1).

Este es otro aspecto sumamente interesante de la disciplina: por un lado, se encuentra otro ejemplo de extensión a la dimensión de las relaciones privadas digitales de una garantía típicamente pública —esto es, un sistema interno de reclamaciones, de carácter procedimental—; por otro, permanece plenamente firme —y no podría ser de otro modo— el derecho del individuo a acudir a la autoridad jurisdiccional competente, a la cual se abren así inéditos “espacios” de control sobre el ejercicio de un poder privado [54] (incluso aquel ejercido por el sujeto privado en sede de reclamación).

Además, según el DSA, las plataformas en línea de muy gran tamaño deberán realizar anualmente una evaluación de riesgos con referencia específica a la difusión de contenidos ilegales a través de sus servicios, a eventuales efectos negativos para el ejercicio de los derechos fundamentales (entre ellos la libertad de expresión e información), y a la manipulación intencional del servicio, incluso mediante un uso no auténtico o una explotación automatizada del mismo, con repercusiones negativas, efectivas o previsibles, sobre la protección de la salud pública, de los menores, del debate cívico, o con efectos reales o previsibles sobre los procesos electorales y la seguridad pública (art. 26).

Para verificar el cumplimiento de estas obligaciones, las plataformas de muy gran tamaño deberán someterse, a su cargo, a auditorías independientes realizadas por terceros que cumplan determinados requisitos (art. 28).

En conclusión, el complejo sistema prevé finalmente poderes de control y garantía, confiados a una autoridad nacional de nueva creación o a una autoridad ya existente y —novedad absoluta— poderes sancionadores, que en el aspecto pecuniario se calibran sobre un porcentaje nada despreciable de la facturación de los prestadores de servicios intermediarios (art. 42).

Los reglamentos DSA y DMA tienen, por tanto, el mérito indudable de promover una “primera, importante, responsabilización transversal” de las plataformas [55], sancionando una transformación de estas —para recurrir a las fórmulas empleadas en su momento por Bianca [56]— de “autoridades de hecho” a “autoridades de derecho”.

Sin embargo, no escapa que el legislador europeo, al prever principalmente medidas de carácter procedimental, deja de hecho manos libres a las plataformas, “al menos en primera instancia, para decidir qué contenidos pueden circular o no, como se deduce de la elección de equiparar contenidos ilícitos y contenidos potencialmente ‘dañinos’ (aunque lícitos) y del poder atribuido a las propias plataformas, en ambos casos, de eliminar o limitar contenidos, sin necesidad de pasar por la intervención de la autoridad jurisdiccional para efectuar un equilibrio con los derechos fundamentales de los ciudadanos: paso que, paradójicamente, sí se impone a las autoridades públicas cuando adoptan medidas con efectos totalmente análogos” [57].

La configuración de base, en suma, no cambia profundamente: el poder sustancial de moderar los contenidos permanece en manos de las plataformas, a las que se delega la tarea de identificar los contenidos que deben admitirse o eliminarse, “conforme a condiciones generales de contrato fijadas unilateralmente por ellas o incluso a códigos de conducta que, en todo caso, han contribuido a elaborar” [58].

También a nivel nacional, por lo demás, se ha acogido con frecuencia la misma lógica de “delegar” en las plataformas el ejercicio de un (invasivo) poder de control y selección de contenidos: baste pensar, a título meramente ejemplificativo, en la ley italiana sobre ciberacoso del 29 de mayo de 2017, n.º 71, que dispuso que fueran las plataformas, mediante el procedimiento de notice and take down, las encargadas de identificar los comportamientos incluidos en la definición de ciberacoso y distinguirlos de aquellos que forman parte de la libre expresión del pensamiento.

Es evidente, entonces,

“que todos los sistemas que institucionalmente delegan ‘poderes censores’ a las plataformas, además de manifestar un sustancial y total abandono del campo de juego por parte de los poderes públicos, conllevan riesgos y críticas. En primer lugar, la atribución expresa de responsabilidad a las plataformas podría comportar como efecto dominó la constante eliminación de contenidos, incluso allí donde los proveedores alberguen meras dudas sobre su legitimidad (…). A ello debe añadirse la consideración nada menor de que confiar la decisión sobre la eliminación de contenidos a sujetos que aún se consideran meros agentes económicos puede llevarlos a modular sus respuestas en conformidad con las pulsiones económicas consideradas más eficientes y convenientes, sin una verdadera garantía para el correcto equilibrio de los derechos en conflicto. Finalmente, teniendo en cuenta la configuración oligopólica de la Red, delegar por completo tareas tan relevantes para el orden democrático de la manifestación del pensamiento a los poquísimos gatekeepers, que reúnen el mayor número de usuarios, conduciría de hecho a limitar fuertemente los espacios de debate solo a aquellas ágoras públicas” [59].

En cualquier caso, permanecen firmes los principales méritos del DSA, en particular el haber hecho más abierta y transparente la actividad de moderación de contenidos en línea. Es posible, por tanto, aun con las reservas descritas, acoger favorablemente las estrictas normas procedimentales introducidas por el legislador europeo, por las cuales todos los prestadores de servicios digitales están hoy obligados a:

1. motivar de manera clara y exhaustiva la moderación de un contenido específico;

2. prever un procedimiento de revisión interna;

3. adoptar principios de transparencia.

Los hosting providers y las plataformas en línea, además, están obligados a prever:

1. un mecanismo de notice and take down, que permita a los usuarios señalar la presencia de contenidos ilegales;

2. la obligación de notificación en caso de sospecha de ilícitos penales;

3. un procedimiento de resolución extrajudicial de controversias;

4. la previsión de un canal prioritario de señalamiento de contenidos ilegales para los denominados “señaladores fiables”.

 

 

4. EL PREDOMINIO DE LAS PLATAFORMAS: PERFILES GENERALES.

 

Como se ha visto, la nueva etapa del constitucionalismo digital europeo ha intentado circunscribir los poderes privados de las grandes plataformas imponiéndoles una serie de obligaciones esencialmente de carácter procedimental.

Sin embargo, también se ha señalado que la configuración de base no cambia profundamente: por ejemplo, si consideramos el Digital Services Act, el poder sustancial de moderar los contenidos permanece firmemente en manos de las plataformas, a las que se delega la tarea de identificar los contenidos que deben admitirse o eliminarse.

La realidad fáctica de las grandes plataformas, actores protagonistas del nuevo capitalismo de la vigilancia, queda así jurídicamente “conformada”, pero no se ve, en muchos aspectos, afectada en la “sustancia” de su poder económico [60].

Reconocer garantías procedimentales a los usuarios es, por tanto, ciertamente importantísimo, pero constituye solo una de las componentes necesarias de un diseño más amplio, que no puede prescindir de afrontar sistemáticamente los problemas —todos estrechamente interconectados— que caracterizan el entorno digital.

Conviene, en este sentido, al menos mencionar tres cuestiones [61]:

1. Perfil de la monetización de los datos y de la orientación del comportamiento de los usuarios: gracias al uso de ingentes cantidades de datos, que, de hecho, representan la monetización del consentimiento de los usuarios, las plataformas adquieren un número y una variedad extraordinarios de informaciones sobre el sujeto, de modo que pueden prever y orientar comportamientos futuros y elecciones del consumidor. Las plataformas digitales, en otros términos, operan según modelos de negocio basados en la recopilación, análisis y explotación de los datos de los usuarios: la denominada data monetization se articula en estrategias que van desde la personalización de contenidos hasta la venta directa de datasets a terceros y, en este contexto, el consentimiento de los usuarios se convierte en una moneda de cambio, a menudo obtenida mediante mecanismos opacos o modelos de opt out, como en el caso de Meta (que ha anunciado el uso de los contenidos públicos de Facebook e Instagram para el entrenamiento de sus modelos de inteligencia artificial).

2. Perfil de la protección de los datos personales: precisamente la tendencia al monopolio privado incrementa los riesgos en términos de protección de datos personales; baste pensar que las cuestiones más significativas sobre la privacidad relativas a Facebook surgieron cuando la plataforma asumió un dominio en el mercado con la salida de los principales competidores y la adquisición de Instagram.

3. Perfil del pluralismo informativo: un impacto relevante sobre el sistema democrático lo asume el papel de los gatekeepers, tanto en la actividad de recomendación como en la moderación de contenidos por parte de las plataformas en línea; en particular, “la riqueza de las redes, crecida a la sombra de la convicción de que la técnica es un instrumento neutral que permite ampliar la esfera de libertad y reforzar la participación democrática, aunque permite en teoría el más amplio acceso al pluralismo informativo, no ha consentido ‘en’ la red en estas condiciones afirmarse plenamente” [62], de modo que el descentralismo y la apertura en la producción de informaciones se ven reducidos por el hecho de que en poquísimas manos se concentran aquellos servicios esenciales para poner a disposición de los usuarios esa misma ingente masa de informaciones.

Las plataformas, en cuanto árbitros del discurso público, ejercen con frecuencia un poder para jurisdiccional que incide directamente en la formación de la opinión pública y en la calidad del debate democrático. La moderación automatizada, el no priorizar contenidos y la personalización algorítmica corren el riesgo de marginar visiones disidentes y de reducir la pluralidad ideológica a una diversidad meramente aparente.

Por un lado, pues, se plantea el problema de los gatekeepers que detentan las llaves de la información en el vasto universo de la web: aunque a veces tendemos a creer que Internet es el no lugar de la desintermediación, con el usuario ciudadano solo frente a las informaciones que fluyen en la red, en realidad, como recordaba Stefano Rodotà, “la enorme disponibilidad de informaciones en la red sería poco más que una vana promesa, es decir, una información imposible, si no existiera la intermediación de los portales que recogen, filtran, ordenan y ponen en pocos segundos a disposición la información sobre una determinada materia” [63].

Por otro lado, se plantea el problema tanto de la selección y moderación de contenidos en línea —que abre a perspectivas de auténtica “censura privada”— como del uso de algoritmos, que se presentan ontológicamente como contrarios a la idea misma de pluralismo.

4.1 (continuación) Poderes de las plataformas y riesgos para la democracia. El problema de la penetración de las fake news.

Precisamente el problema de la selección y moderación de los contenidos en línea se entrecruza, en efecto, con el de las denominadas fake news y, en particular, con la cuestión relativa a las estrategias de lucha contra la desinformación [64].

La cuestión no es de poca importancia, pues atañe, de un lado, al interés constitucionalmente relevante en la genuinidad y autenticidad del debate público y, de otro, a la efectividad de la libertad de manifestación del pensamiento.

Como es sabido, las denominadas fake news han sido utilizadas incluso para alterar los resultados de importantes consultas electorales (baste pensar en el referéndum sobre el Brexit o en las elecciones presidenciales de 2016 en Estados Unidos).

Algunos investigadores han propuesto distinguir, dentro del fenómeno de las fake news, entre la “desinformación”, caracterizada por el hecho de que las noticias, además de ser falsas, se crean deliberadamente para dañar a alguien; la “mis información”, en la que las noticias, aunque falsas, no han sido creadas con intención de perjudicar; y la “mal información”, consistente en que las noticias (de carácter público, pero más a menudo incluso privado) son verdaderas y se hacen públicas con la intención de causar daño [65].

En general, resulta claro, en la dimensión digital, la conjunción de tres fenómenos estrechamente relacionados entre sí, como señaló Moses Naim: las tres “p”: populismo, polarización y posverdad. A estos fenómenos se añade una cuarta “p”, no menos peligrosa, la de la “promesa”, típica del populismo y de las ilusiones de desintermediación, que alimentan el descontento de masas que se perciben “traicionadas” por las élites: “el populismo promete al pueblo cualquier cosa, aun sabiendo que no podrá cumplirse, que será muy oneroso o que tendrá consecuencias negativas; pero, en todo caso, el populismo promete” [66].

Las fáciles promesas de la ilusión populista generan polarización (incitando al “pueblo” contra las “élites”), ofreciendo lecturas emotivas e instintivas de los hechos históricos, hasta llegar a alterarlos. Este es el cortocircuito de la posverdad, en el que la distinción entre lo verdadero y lo falso no solo se difumina, si no se subvierte, sino que incluso se percibe como irrelevante [67].

Fuente de mayor preocupación son, evidentemente, aquellas noticias “completamente inventadas, fabricadas y difundidas (…) con el propósito de engañar al público y manipular su orientación, recurriendo a estados emocionales, por motivos ideológicos, políticos o de ventaja económica” [68].

A través de las redes sociales, en particular, estas “logran circular con una velocidad y una capacidad de difusión enormemente superiores al pasado”: las redes, cuya característica fundamental es la descentralización de las comunicaciones, representan un alimento decisivo para la proliferación y difusión de noticias falsas y tendenciosas, sobre todo si se considera que “los sistemas de compartición de informaciones” y la propia difusión de las noticias determinan el incremento del beneficio “de los anunciantes publicitarios” y de los propios gestores de las redes sociales [69]. En otras palabras, las redes sociales, sin una adecuada regulación, corren el riesgo de degenerar en “cajas de resonancia en las que los usuarios electores de la red […] tienden a corroborar y amplificar ciertos convencimientos” basados en noticias falsas, erróneas, difundidas a gran escala [70].

La situación se torna aún más grave si se considera que la mayoría de las fake news proviene no de perfiles de usuarios reales, sino de los llamados bots: “aplicaciones de software que crean automáticamente perfiles falsos y contenidos en las redes sociales e incluso en los chats” [71].

Son, por tanto, evidentes las interrelaciones que se generan entre nuevas tecnologías, derechos fundamentales y libertad de manifestación del pensamiento, esta última caracterizada, en el nuevo entorno digital, por una distinción cada vez más difícil entre la “comunicación” del art. 15 de la Constitución italiana y la “manifestación del pensamiento” del art. 21 de la misma, hasta el punto de que se ha hablado de un cambio existencial en la noción de libertad de información, la cual —precisamente a raíz de la extraordinaria “ampliación de las potencialidades comunicativas”— “pierde (…) los rasgos de un derecho profesional, para asumir los de un derecho precisamente ‘reticular’, ejercitable tanto mediante manifestaciones del pensamiento como a través de comunicaciones intersubjetivas” [72].

4.2 Un ejemplo: fake news y poderes de las plataformas en la guerra híbrida.

El problema de las fake news ha vuelto a ocupar un lugar central tras el estallido del conflicto ruso ucraniano en febrero de 2022, hasta el punto de que la propaganda en línea y las campañas de desinformación han sido consideradas un verdadero frente bélico virtual (la denominada info war), paralelo a la guerra sobre el terreno.

La empresa NewsGuard, por ejemplo, al iniciar un monitoreo del flujo de noticias que circulaban en la red durante las primeras semanas del conflicto, señaló la presencia de 116 sitios web responsables de actividades de desinformación prorrusa (desde fuentes oficiales de medios estatales rusos hasta sitios anónimos, pasando por páginas de fundaciones u otros entes de dudosos canales de financiación), que habrían propagado tesis como las del supuesto genocidio contra los rusos en el Donbass o la necesidad de “desnazificar” las instituciones ucranianas, en línea con la narrativa rusa y prácticamente desmentidas de manera unánime. El mismo centro independiente de fact checking observó que la gran mayoría de tales sitios formaba parte de una auténtica “máquina de propaganda” activa desde 2018 (si no antes).

También por parte ucraniana no faltaron operaciones de desinformación propagandística, aunque en medida claramente menor (y en respuesta a las pretensiones neo imperiales de la potencia vecina), como por ejemplo las relativas a la presencia del “Fantasma de Kiev”, un avión “fantasma” que habría derribado seis aeronaves rusas en los cielos ucranianos. La manipulación de imágenes y vídeos sobre las operaciones militares en curso fue confirmada en varias ocasiones por los aparatos de seguridad italianos, según revelaron fuentes anónimas a la agencia AdnKronos [73].

Asimismo, el Observatorio Europeo sobre la Desinformación en la Red puso de relieve la multitud de noticias falsas difundidas en los circuitos digitales, sobre todo por parte rusa: desde el falso vídeo publicado por la cuenta “Made in Russia” que mostraba la llegada sin obstáculos de paracaidistas rusos a Járkov (ciudad en ese momento bajo control ucraniano), hasta fotografías que representaban banderas rusas ya izadas en numerosos edificios administrativos de Kiev.

En reacción a estas formas de “guerra híbrida”, el Consejo de la Unión Europea (Reglamento 2022/350 del Consejo de 1 de marzo de 2022, relativo a medidas restrictivas en consideración de las acciones de Rusia que desestabilizan la situación en Ucrania; así como la Decisión PESC 2022/351 del Consejo de 1 de marzo de 2022) prohibió difundir o facilitar la difusión de contenidos audiovisuales de proveedores de medios vinculados al gobierno ruso, incluso si se transmitían por cable, satélite, IP TV, plataforma o aplicación de compartición de vídeos en Internet. Prohibición confirmada en sede cautelar por el Tribunal de la UE de primera instancia (Auto del Presidente del Tribunal de la UE de 30 de marzo de 2022 en el asunto T 125/22 R, promovido por Russia Today France contra el Consejo), precisamente en consideración de la actividad de desinformación sistemáticamente realizada por los medios controlados por el gobierno ruso.

Ahora bien, si es cierto que las campañas de desinformación son connaturales a todo conflicto militar, existe un aspecto que constituye la peculiaridad de esta vicisitud y que resulta sumamente interesante para nuestros fines.

Se trata del papel de las plataformas en la eliminación de contenidos considerados falsos o propagandísticos, vinculados a perfiles prorrusos.

El grupo Meta (Facebook/Instagram), por ejemplo, instituyó un comité operativo (Special Operations Center), compuesto por expertos independientes, incluidos hablantes nativos de ruso y ucraniano, para monitorear la calidad de los contenidos difundidos y verificar su fiabilidad, a fin de proceder a todas las actividades necesarias de contraste, hasta la eliminación de estos y la suspensión de las cuentas.

Twitter, por su parte (antes del cambio de propiedad), aplicaba sus normas internas “sobre contenidos multimedia artificiosos y manipulados” para la limitación y eliminación de aquellos “que promovieran violencia o desinformación dañina”, aunque no faltaron errores por parte de los algoritmos utilizados, como señalaron el analista Nick Waters del centro periodístico de investigación Bellingcat y la parlamentaria francesa Françoise Ballet Blu.

De manera análoga, Alphabet (la sociedad matriz que controla Google y YouTube) impidió la monetización de los contenidos (es decir, la recepción de contraprestaciones por inserciones publicitarias) del canal estatal Russia Today y desindexó los vídeos del mismo canal, hasta suspender los canales Russia Today y Sputnik dentro de los confines europeos.

Intención noble, podría decirse. Pero las dudas ciertamente no faltan [74], dado que las plataformas no son agentes “neutrales” e independientes, sino que están perfectamente insertas en un contexto de “guerra híbrida”, respondiendo a intereses geopolíticos y geoeconómicos bien precisos (en suma, la pregunta es legítima: ¿es amor por la verdad lo que manifiestan, o más bien sensibilidad a las sirenas del deep state de ultramar en función antirrusa?).

En otros términos, no podemos dejar de considerar cómo, incluso en este caso, asistimos —aun admitiendo estar, como hoy suele decirse, “del lado correcto de la Historia”— a una peligrosa privatización de la censura, susceptible de constituir un (nuevo) precedente (hoy los canales oficiales rusos, mañana quién sabe…).

Si, entonces, este conflicto, trágico y abyecto, es también una guerra de la autocracia contra la liberal democracia occidental (y sus garantías), con mayor razón estamos llamados a demostrar, como ciudadanos europeos antes aún que como juristas y estudiosos, que las libertades y los derechos deben ser “tomados en serio” no solo frente a las instituciones públicas, sino también frente a los “poderes privados” y sus lógicas (ora económico comerciales, ora geo económicas y geo políticas), a fin de que la lucha (necesaria) contra las fake news no degenere en una sutil, ambigua y peligrosa represión del disenso.

 

 

5. EL CONSTITUCIONALISMO DIGITAL FRENTE AL NUEVO DESAFÍO DE LA INTELIGENCIA ARTIFICIAL. OPORTUNIDADES Y CRÍTICAS DEL AI ACT EUROPEO.

 

El enfoque del “nuevo constitucionalismo digital” —enriquecido, sin embargo, por una más marcada (y meritoria) atención a la definición de reglas sustanciales— ha sido confirmado también por el Reglamento europeo sobre Inteligencia Artificial, que representa el primer intento significativo de regulación de la inteligencia artificial a nivel global, expresión de una estrategia antropológica (personalista y antropocéntrica) de gobierno de la técnica [75].

En la fase actual del constitucionalismo digital, el acento se coloca “sobre las complejidades introducidas por la IA y otras tecnologías avanzadas”: “la autonomía de los sistemas de inteligencia artificial pone en cuestión las nociones tradicionales de responsabilidad y supervisión, empujando a los estudiosos y a los políticos a buscar nuevos marcos de referencia que puedan regular adecuadamente estas tecnologías, sosteniendo al mismo tiempo valores constitucionales como la democracia, el Estado de derecho y los derechos fundamentales” [76].

El AI Act se propone mejorar el funcionamiento del mercado europeo mediante un marco jurídico uniforme que abarque: a) el desarrollo, la introducción en el mercado, la puesta en servicio y el uso responsable de sistemas de inteligencia artificial, en conformidad con los valores de la Unión Europea; b) la difusión de una IA antropocéntrica, segura, transparente y fiable, garantizando al mismo tiempo un elevado nivel de protección de la seguridad, de la salud y de los derechos fundamentales de la persona reconocidos por la Carta de Niza; c) la prevención de la desinformación, la tutela de la democracia, del Estado de derecho y de la protección del medio ambiente frente a los efectos nocivos de los sistemas de IA en la Unión; d) la promoción de la innovación digital asegurando siempre un control humano de última instancia.

En esta perspectiva, el Reglamento pretende introducir garantías para los sistemas de inteligencia artificial de uso general, reglas específicas para sistemas de IA considerados de alto riesgo, prohibiciones de utilización de mecanismos de crédito social o de manipulación y explotación de las vulnerabilidades de los usuarios, así como reglas de tutela de los consumidores mediante el reconocimiento del derecho a presentar reclamaciones y a recibir explicaciones pertinentes [77].

En la base del Reglamento se encuentra la definición de sistema de IA como “un sistema automatizado diseñado para funcionar con niveles de autonomía variables y que puede presentar adaptabilidad tras su difusión y que, con objetivos explícitos o implícitos, deduce de la entrada que recibe cómo generar salidas tales como previsiones, contenidos, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales” (art. 3).

El legislador europeo muestra plena conciencia, desde los largos y densos “Considerandos” del Reglamento, del impacto de la inteligencia artificial en un vastísimo ámbito de relaciones sociales [78] y, sobre todo, en el disfrute y ejercicio de los derechos fundamentales de la persona [79] (y, en última instancia, sobre su dignidad [80]), con particular atención a la protección de los datos personales.

No por casualidad, el AI Act retoma algunas garantías ya previstas por el GDPR, comenzando por el principio de no exclusividad de la decisión automatizada, el principio de comprensibilidad [81] y, sobre todo, la prohibición de discriminación.

Este último, en particular, se revela como un principio de importancia fundamental en el gobierno de la inteligencia artificial, frente a los no pocos fenómenos de discriminación algorítmica derivados de un diseño condicionado por sesgos y prejuicios capaces de producir efectos lato sensu discriminatorios.

Es ya conocido el ejemplo del sistema algorítmico de IA empleado para apoyar la evaluación pronóstica de la reincidencia penal en la práctica de algunos tribunales de Estados Unidos, que se reveló intrínsecamente discriminatorio, pues condicionado por el dato numérico de las condenas penales definitivas y de la población carcelaria, terminaba produciendo efectos directamente discriminatorios en perjuicio de personas pertenecientes a minorías raciales (en particular, de la minoría afroamericana).

Como es sabido, además, el Reglamento europeo prohíbe ciertas aplicaciones de IA que son ipso iure consideradas lesivas de los derechos fundamentales de la persona. Mayor, por tanto —en este Reglamento—, es la atención a las reglas sustanciales, lo que parece marcar un avance significativo respecto al “procedimentalismo” del Digital Services Act: frente, pues, al “desafío” de la inteligencia artificial —que impacta de manera aún más incisiva en los derechos fundamentales de la persona— el legislador europeo se ha preocupado con razón de introducir reglas sustanciales más incisivas y estrictas.

Es el caso, ante todo, de las prohibiciones de determinadas aplicaciones de IA, de las que se hablaba. Entre ellas, por ejemplo, los sistemas de categorización biométrica basados en características sensibles y la extracción indiscriminada de imágenes faciales de la red de Internet o de grabaciones de sistemas de cámaras de circuito cerrado para la constitución de bases de datos de reconocimiento facial.

Igualmente, están prohibidos los sistemas de reconocimiento de emociones en el lugar de trabajo y en las escuelas, los sistemas de crédito social, las prácticas de policía predictiva (si se basan exclusivamente en la perfilación o en la evaluación de las características de una persona) y los sistemas que manipulan el comportamiento humano o explotan las vulnerabilidades de las personas.

Dentro de una perspectiva impregnada por los principios de prevención y precaución [82] —según un “enfoque basado en el riesgo” [83] (definido el riesgo como “la combinación de la probabilidad de que se produzca un daño y la gravedad del mismo”, conforme al art. 3, n.º 2)—, el legislador europeo ha previsto obligaciones específicas, especialmente respecto de los sistemas de inteligencia artificial de alto riesgo (esto es, aquellos sistemas susceptibles de causar daños significativos a la salud, a la seguridad, a los derechos fundamentales, al medio ambiente, a la democracia y al Estado de derecho).

Se asiste, así, a un modo típico de regulación propio de la Unión Europea (desde el derecho ambiental hasta la materia sanitaria), sensible a la aplicación de los principios de prevención y precaución, en este caso con el fin primordial de acrecentar la responsabilidad de los actores públicos y privados en relación con los efectos de estas tecnologías y con la tutela de los datos personales [84]: una perspectiva captada en su momento por Erhard Denninger, siguiendo la elaboración de Ulrich Beck sobre la “sociedad del riesgo” [85], señalando que seguridad y prevención se han configurado, con el tiempo, respectivamente “como fin y método de la acción pública según un equilibrio con las garantías propias del Estado de derecho” [86].

El intento de equilibrar intereses y finalidades a veces contrapuestas, por tanto, “se ha articulado mediante el recurso a un enfoque basado en el riesgo: a través, es decir, de una categorización de diferentes niveles de riesgo asociados a las aplicaciones de IA, a los que corresponde, de manera especular, una graduación de la severidad de los regímenes jurídicos aplicables” [87]. Se está, pues, ante un modelo de regulación de aplicación general, con un espacio de geometría variable de la autonomía privada en función de la conformación y, en lo que respecta a los sistemas de alto riesgo, una actividad de conformación de matriz pública en función de límite externo [88].

En particular, entran en la categoría de “sistemas de alto riesgo”, según el Reglamento, los usos vinculados a infraestructuras críticas, educación y formación profesional, empleo, servicios públicos y privados básicos, algunos sistemas de seguridad, migración y gestión de fronteras, justicia y procesos democráticos (con especial referencia a los procedimientos electorales).

Para estos sistemas rige, por tanto, la obligación, en cabeza del sujeto que recurre al empleo de la IA, de evaluar y reducir los riesgos, mantener registros de uso, asegurar plena transparencia y garantizar siempre la supervisión humana.

Más en general, para estas aplicaciones se requiere la presencia de un sistema interno de gestión del riesgo, además de un sistema de control de calidad de los datos y de la información. Respecto del primero, ello implica, según el Reglamento, la identificación y el análisis de los riesgos conocidos y previsibles, la estimación y evaluación de los riesgos potenciales en caso de uso conforme y no conforme de la IA, la valoración de otros eventuales riesgos que puedan emerger del monitoreo tras la introducción en el mercado, y la adopción de medidas adecuadas en la gestión de los riesgos conforme a criterios específicos delineados por el propio Reglamento.

En cuanto al segundo, el Reglamento proporciona indicaciones específicas para satisfacer el requisito de calidad de los datos y de la información: es necesario determinar qué se presume que los datos midan y representen; evaluar preliminarmente la disponibilidad, cantidad y adecuación de los conjuntos de datos necesarios; identificar posibles distorsiones; detectar eventuales lagunas o carencias en los datos y las modalidades para colmarlas.

Permanece firme el derecho de los ciudadanos a presentar reclamaciones sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en sistemas de IA de alto riesgo que incidan en los derechos de los que son titulares [89].

Asimismo, conforme al art. 5 del Reglamento, está prohibido el uso de IA de alto riesgo en relación con prácticas de manipulación de los comportamientos humanos, mediante técnicas subliminales o técnicas que exploten las condiciones de vulnerabilidad de un sujeto, así como —igualmente— están prohibidos aquellos sistemas de IA que pretendan atribuir una puntuación social (social scoring [90]) en favor de determinados grupos de individuos.

El AI Act aspira, por tanto, a sentar las bases para un gobierno “antropocéntrico” y “personalista” de la inteligencia artificial, tomando del GDPR muchos enfoques y opciones de política legislativa (desde las garantías reforzadas para los datos sensibles y para las personas vulnerables —menores en primer lugar— hasta el principio de transparencia, el favor por la co regulación y los institutos de gobernanza nacional y supranacional) para enriquecerlos y potenciarlos frente a un marco aún más articulado y complejo.

Se trata de una intervención normativa del legislador europeo que ha parecido cuanto más necesaria —aunque en ocasiones se haya subrayado que la realidad subyacente al Reglamento está en buena parte superada por los “hechos”, no siendo ya central el sujeto provider, sino la propia plataforma—, especialmente a la luz del ya consolidado paso de los métodos de inteligencia artificial discriminativa a los de inteligencia artificial generativa, que plantean desafíos particularmente relevantes —cuando menos por su eficiencia “creativa”— para la capacidad regulatoria de las formas jurídicas tradicionales y para el respeto de los derechos fundamentales de la persona.

Quedan abiertas, en todo caso, varias cuestiones: desde la necesidad de una definición más puntual de obligaciones de transparencia para la evaluación del riesgo hasta la exigencia de un monitoreo continuo de los algoritmos, sin olvidar la urgencia de una coordinación significativa entre los sujetos reguladores a nivel transnacional e internacional (elemento considerado decisivo para una intervención eficaz en tutela y garantía de los derechos fundamentales).

Por otra parte, aunque es sin duda loable la elección de definir un marco normativo fundado en un recorrido articulado de responsabilización de todos los operadores implicados en la realización, distribución y uso de estas nuevas tecnologías, ello corre el riesgo al mismo tiempo de representar también un límite del Reglamento europeo: de hecho, corre el riesgo de confiar la concreta aplicación del sistema de garantías en tutela de los usuarios finales casi completamente a las capacidades previsionales, técnicas y organizativas de las empresas operantes en el sector[91]. No obstante, este riesgo se ve atenuado por el reconocimiento del derecho del usuario a presentar reclamaciones sobre los sistemas de IA y, en conexión con el art. 22 del GDPR de 2016, a no ser sometido a una decisión completamente automatizada.

La confianza en la autoevaluación por parte de los deployers de IA, sin una adecuada supervisión independiente, podría conducir a una “subestimación de los riesgos, reduciendo la eficacia de las medidas de tutela”: un elemento particularmente crítico precisamente para los sistemas de IA de alto riesgo, “donde el enforcement deberá jugar un papel relevante para contener graves consecuencias para los derechos fundamentales de los usuarios”. Las disposiciones del Reglamento “corren el riesgo de ser ineficaces si no están respaldadas por un control adecuado e independiente”: en este sentido, “la creación de un marco normativo que se basa principalmente en la autorregulación reduce la capacidad de la UE de garantizar que los sistemas de IA operen en conformidad con los más altos estándares de seguridad y ética, y reproduce, una vez más, viejos errores que parecen pertenecer a otra época de la regulación digital” [92].

Aun así, aunque el AI Act representa indudablemente un desarrollo altamente positivo en el enfoque europeo hacia la regulación de la inteligencia artificial, del cual emerge el compromiso del legislador de establecer las coordenadas normativas dentro de las cuales poder desarrollar las tecnologías de inteligencia artificial de manera constitucional y democráticamente razonable, dicho Reglamento no está exento de críticas adicionales: baste señalar que, pese a previsiones relevantes como la evaluación de impacto sobre los derechos fundamentales para los sistemas de inteligencia artificial de alto riesgo (art. 27) y el ejercicio de derechos procedimentales ante las autoridades de vigilancia del mercado instituidas o designadas por los Estados miembros (art. 70), persisten “algunos motivos de preocupación”, en particular respecto de la adecuación o no del aparato procedimental previsto en favor de los individuos para la tutela de sus derechos fundamentales.

El régimen jurídico introducido por el AI Act podría así “resolverse en una mera ‘burocratización’ del mercado europeo vinculado a la inteligencia artificial —baste pensar en que se prevén numerosas obligaciones de naturaleza a menudo formal y no sustancial, o en el nuevo sistema de certificación de productos de inteligencia artificial— sin que de ello derive necesariamente un beneficio relevante y sustancial en cuanto a la tutela efectiva de los derechos fundamentales” [93].

En particular, el Fundamental Rights Impact Assessment (FRIA), que debería identificar y mitigar los riesgos para los derechos fundamentales, “adolece de carencias estructurales similares a otras evaluaciones de impacto”[94] : “sin un adecuado nivel de enforcement y armonización, el riesgo es que estas evaluaciones se conviertan en meros ejercicios burocráticos, que duplican los controles que las empresas están obligadas a realizar, sin una verdadera consideración de los riesgos complejos y en evolución planteados por los sistemas autónomos de IA” [95].

Entre otras cosas —una elección poco convincente— la evaluación de impacto sobre los derechos fundamentales, no prevista en la propuesta originaria presentada por la Comisión de la UE e introducida posteriormente mediante enmiendas del Parlamento Europeo, se exige únicamente para algunas categorías de sujetos (organismos de derecho público o privados que prestan servicios públicos, operadores bancarios y aseguradores) [96].

La importancia de la intervención normativa europea, en todo caso, reside también en el impulso que ella, inevitablemente, ha ejercido respecto de la acción de los propios legisladores nacionales.

No es casualidad, en efecto, que, manteniéndose firme la disciplina del AI Act europeo, en mayo de 2024 el Gobierno italiano haya presentado al Senado un proyecto de ley destinado a regular el uso de la IA (A.S. 1146), que se declara expresamente como acto encaminado a acompañar “el marco regulatorio (definido por el Reglamento de la UE) en aquellos espacios propios del derecho interno”.

De particular relevancia es el capítulo dedicado a la disciplina del empleo de los sistemas de inteligencia artificial en algunos sectores específicos (profesiones intelectuales, administración pública, ejercicio de la actividad judicial). En concreto, se precisa expresamente que, en la actividad de la administración pública, el uso de dichos sistemas debe estar orientado únicamente a incrementar la eficiencia de las actividades, reducir los tiempos de conclusión de los procedimientos, aumentar la calidad y la cantidad de los servicios prestados a los ciudadanos, asegurando a los interesados la cognoscibilidad y la trazabilidad del empleo.

El art. 14 del proyecto de ley, a tal efecto, circunscribe la utilización de la IA “en función instrumental y de apoyo a la actividad resolutiva, en respeto de la autonomía y del poder decisorio de la persona que permanece como única responsable de las resoluciones y de los procedimientos en los que se haya utilizado la inteligencia artificial”. Se habla, pues, únicamente de “medidas técnicas, organizativas y formativas destinadas a garantizar un uso responsable de la inteligencia artificial y a desarrollar las capacidades transversales de los usuarios”.

Similar cautela rodea, oportunamente, también la actividad judicial: según el artículo 15 del proyecto de ley, en efecto, el empleo de la IA se justifica “para la organización de los servicios relativos a la justicia, para la simplificación del trabajo judicial y para las actividades administrativas accesorias”, mientras que “queda siempre reservada al magistrado toda decisión sobre la interpretación y aplicación de la ley, sobre la valoración de los hechos y de las pruebas y sobre la adopción de las resoluciones”.

 

 

6. INTELIGENCIA ARTIFICIAL Y DERECHOS FUNDAMENTALES: CUESTIONES CONSTITUCIONALES Y EQUILIBRIOS DE INTERESES.

 

El análisis del Reglamento europeo sobre Inteligencia Artificial demuestra que no son pocas las cuestiones constitucionales que atañen al impacto de los sistemas de IA en el disfrute y en la garantía de los derechos fundamentales de la persona. Podemos aquí recordar algunas con mayor detalle.

En primer lugar, la denominada discriminación algorítmica [97]. Central, en efecto, es el papel del derecho en la reducción de la opacidad jurídica ligada al empleo de algoritmos y sistemas de inteligencia artificial, no solo por parte de los poderes privados, sino también cuando tales instrumentos sean utilizados por las propias autoridades públicas en el ejercicio de la acción administrativa.

Toda decisión, incluso si es producida con el auxilio de medios tecnológicamente avanzados, se funda en el equilibrio de derechos e intereses diversos, que, evidentemente, “necesitan ser graduados según un orden de prioridad de manera transparente y constitucionalmente razonable”: “en particular, cuando estén implicados derechos fundamentales, como la dignidad, la protección de los datos, el derecho al trabajo, resulta evidente que es necesario proporcionar garantías para que esa decisión respete aquellas prioridades constitucionalmente previstas” [98].

Y este es, en definitiva, el motivo fundamental por el cual, en presencia de sistemas de inteligencia artificial basados en el uso de datos, es preciso asegurar que estos últimos, en su forma de data set, no oculten discriminaciones, es decir, que no estén condicionados, en el enfoque tecnológico, por errores de valoración o prejuicios que puedan minar la fiabilidad de los resultados o falsear la consecución de un objetivo, reproduciendo estereotipos u otros bias directa o indirectamente discriminatorios contra determinadas categorías de personas (en una óptica claramente antitética respecto al espíritu del art. 3 de la Constitución italiana).

No es casualidad que se ha llegado incluso a evocar el riesgo de que la IA pueda contribuir a la realización de “una sociedad caracterizada por una segmentación en castas, donde el estatus no deriva del nacimiento o de la pertenencia a clasificaciones sociales tradicionales (aquellas sobre las que vigilan las normas en materia de no discriminación), sino de algoritmos y de los valores de quienes los generan” [99].

Una de las garantías fundamentales, en este sentido, puede estar representada, como se desprende también de la letra y del espíritu del Reglamento, por el principio de “cognoscibilidad” [100] (que ya, en verdad, la jurisprudencia administrativa interna había afirmado en relación con el uso de técnicas algorítmicas en apoyo de la acción administrativa [101]), el cual asume un carácter de prevalencia —en un ideal equilibrio— incluso sobre no pocos derechos e intereses, comenzando por el derecho de propiedad intelectual (aspecto, este, también evocado por el Consejo de Estado en una sentencia de 2020 [102]). Asimismo, siempre en la óptica de prevenir el bias algorítmico, se confirma el principio, ya previsto por el art. 22 del GDPR, de la prohibición de adoptar una decisión basada únicamente en el tratamiento automatizado.

Transparencia, igualdad e información correcta, por lo demás, son también los principios inspiradores de la histórica Convención del Consejo de Europa sobre inteligencia artificial y derechos humanos, democracia y Estado de derecho (conocida también como Convención marco sobre inteligencia artificial), adoptada en Estrasburgo el 15 de mayo de 2024, en la perspectiva de asegurar, en última instancia, como se desprende del art. 7 de la propia Convención, la tutela de la dignidad humana y de la autonomía individual.

Un segundo aspecto que merece ser señalado, con respecto al impacto sistémico del Reglamento europeo según un análisis constitucional [103], atañe al ya mencionado risk based approach.

Este enfoque, en efecto, presupone que se defina de antemano “la centralidad de un derecho fundamental específico, su irrenunciabilidad o, en todo caso, su menor o mayor relevancia para un determinado sector o para una determinada aplicación de IA” [104]: en otras palabras, “la identificación ex ante de los derechos que en un determinado ordenamiento se consideran inviolables e irreparables respecto de otros que pueden ser considerados ‘cedibles’ es una operación obviamente indispensable con referencia a los sistemas que se consideran de riesgo inaceptable y, por tanto, prohibidos” [105].

En esta óptica, el Reglamento responde ciertamente a la tradición constitucional europea, al considerar la dignidad de la persona, la vida y la salud como valores irrenunciables frente a otras exigencias que, aunque abstractamente dignas de tutela, no pueden prevalecer.

Responden a esta perspectiva axiológica, por ejemplo, la extensión a los privados de la prohibición, ya concebida en la primera redacción para los sujetos públicos, del empleo de sistemas de puntuación social (art. 5, párr. 1, letra c), o la previsión de la prohibición de sistemas que utilicen técnicas subliminales y manipuladoras no solo respecto de sujetos considerados vulnerables por razón de edad o de una condición de discapacidad, sino también en consideración de la “situación social o económica específica” (art. 5, párr. 1, letra b).

Piénsese, además, en la prohibición de emplear sistemas de evaluación del riesgo de comisión de delitos por parte de personas físicas, o en la prohibición de utilizar técnicas destinadas a crear o ampliar bases de datos de reconocimiento facial o a detectar las emociones de una persona en el lugar de trabajo o en instituciones educativas, o incluso en la prohibición de usar sistemas de categorización biométrica que clasifiquen individualmente a las personas sobre la base de datos biométricos para extraer deducciones o inferencias sobre la raza, las opiniones políticas, la pertenencia sindical, las convicciones religiosas o filosóficas, la orientación sexual.

Otra cuestión lato sensu constitucional atañe, luego, a las elecciones de equilibrio entre derechos fundamentales (y no simplemente entre derechos y exigencias del mercado) realizadas por el Reglamento.

Por ejemplo, “el riesgo inaceptable que plantea un sistema de reconocimiento biométrico en tiempo real por parte de las autoridades públicas con fines de seguridad (y por tanto su prohibición) y la definición, en todo caso, como de alto riesgo de dicho sistema si se utiliza a posteriori, expresa la elección de dar prioridad al derecho fundamental a la vida privada y a la protección de los datos personales (…) respecto al derecho a la seguridad, que podría ser garantizado mediante una actividad general de vigilancia masiva con fines de lucha contra el crimen” [106].

Pues bien, esta elección de equilibrio se inserta en la línea de una jurisprudencia consolidada del Tribunal de Justicia, que ha censurado las actividades de recogida y conservación generalizada e indiferenciada de datos personales con fines de seguridad nacional [107].

Consideración análoga corresponde, a modo de ulterior ejemplificación, al empleo de los deepfake. En una perspectiva de equilibrio con el interés subyacente al ejercicio de la libertad de manifestación del pensamiento y a la libre expresión del arte, en efecto, la versión final del Reglamento ha previsto la excepción al deber informativo no solo si el uso está autorizado por la ley para comprobar, prevenir, investigar y perseguir delitos, sino también cuando el contenido “forma parte de una obra o de un programa manifiestamente creativo, satírico, artístico o ficticio, sin perjuicio de las adecuadas garantías para los derechos y libertades de terceros”.

Lo que significa que “los proveedores y usuarios de sistemas de IA como los deepfake están exonerados de obligaciones informativas únicamente cuando sea clara y manifiestamente evidente la manipulación de imágenes y contenidos de audio para los fines mencionados” [108], vinculados al ejercicio de intereses igualmente calificables como constitucionalmente relevantes.

 

 

7. LA INTELIGENCIA ARTIFICIAL EN EL PARLAMENTO: CUESTIONES ABIERTAS Y PERSPECTIVAS.

 

El análisis del impacto de la inteligencia artificial sobre la democracia requiere, por un lado, como se ha visto, un cuadro de las problemáticas relativas a la garantía de los derechos fundamentales a prueba de la IA; y, por otro, un examen de los principales aspectos atinentes al circuito de la democracia representativa, con particular referencia al Parlamento, como órgano constitucional que de ella es primaria expresión.

En lo que respecta a nuestro ordenamiento, el uso de la IA dentro de las Cámaras está ya en marcha desde hace tiempo, mientras se estudia la aplicación de los esquemas de inteligencia artificial generativa (de nueva generación).

Por ejemplo, es sabido que la Cámara de Diputados utiliza la IA para mejorar el reconocimiento automático del habla durante las sesiones de las Comisiones y de la Asamblea, mientras que en el Senado es un sistema de inteligencia artificial el que respalda el programa de estenotipia “Eclipse”.

Sistemas automatizados análogos se emplean para la subtitulación en tiempo real de las transmisiones audiovisuales de las sesiones, así como para el servicio de traducción (en cuyo caso se utilizan programas desarrollados por la Comisión Europea).

También en la gestión de las enmiendas, la IA está ya en uso para la automatización de la organización de las enmiendas presentadas a los textos en discusión: “sistemas de IA ‘entrenados’ en las reglas procedimentales pueden clasificar las enmiendas según su tipo y la parte del texto a la que se refieren, facilitando el trabajo del personal parlamentario y acelerando el proceso de votación. El Senado prevé el uso de la IA para el reconocimiento automático de enmiendas ‘similares’, con el fin de agruparlas y simplificar aún más el proceso decisorio. Sin olvidar, finalmente, “el sector de la clasificación automática de los textos de ley y de los actos de control parlamentario según ontologías definidas ad hoc o relacionadas con sistemas de clasificación más generales como Teseo o Eurovoc” [109].

La Cámara de Diputados, además, ha desarrollado una plataforma (“Enmiendas en comisión”) que permite la gestión digital de todo el proceso relativo a la actividad enmendativa sobre los proyectos a examen en las Comisiones, ofreciendo apoyo también para la definición del orden de publicación de las enmiendas propuestas.

Las actividades de documentación de las administraciones parlamentarias, por su parte, se encuentran entre los sectores “más dinámicos en la experimentación de aplicaciones de IA” [110].

Más allá del caso italiano, cabe recordar la actividad del European Center for Parliamentary Documentation (ECPRD), una plataforma de intercambio de experiencias particularmente activa, de la que emerge una amplia experimentación por parte de los servicios de investigación y documentación parlamentaria de toda Europa con los más importantes chatbots, destinados a la producción de borradores, la síntesis de actos parlamentarios y la verificación de la completitud de los productos (manteniéndose, en todo caso, la prohibición común de delegar a los instrumentos de IA el ciclo completo de documentación y el correlativo mantenimiento de un riguroso control humano sobre la calidad y la completitud de los elaborados, también para evitar la producción de bias).

Los algoritmos basados en inteligencia artificial asegurarían, además, una reconstrucción sistemática del estado del arte de la materia objeto de regulación legislativa, por ejemplo “identificando patrones recurrentes dentro de vastos volúmenes informativos, elaborando inferencias capaces de hacer emerger relaciones e interdependencias no inmediatamente detectables mediante los métodos tradicionales, y ofreciendo así una visión orgánica de las dinámicas subyacentes al fenómeno sometido a la atención parlamentaria” [111]; más aún, los modelos de inteligencia artificial, gracias al empleo de técnicas de predictive analytics, permitirían también simular escenarios hipotéticos para “poner a prueba” la eficacia de posibles intervenciones regulatorias.

Así, por ejemplo, “estos sistemas inteligentes podrían ofrecer un apoyo significativo a la evaluación de impacto, también bajo el perfil económico, de la futura legislación, contribuyendo a estimar las probabilidades de su concreta aplicación y a definir, en consecuencia, objetivos y cronogramas coherentes con las reales capacidades de implementación de las políticas públicas” [112].

Ciertamente, el empleo de la IA en el marco de los diversos procedimientos parlamentarios puede representar una oportunidad en términos de eficiencia y de mejora de la calidad de los trabajos. Y ello, evidentemente, sobre todo en el apoyo a la resolución de problemas más propiamente “técnicos” como los mencionados arriba.

Del mismo modo, un papel positivo de la IA podría desempeñarse, como se decía, en el ámbito del análisis de impacto de la regulación [113] y, aún más, en asegurar un perfeccionamiento de la calidad de la técnica legislativa [114] (a través de programas que aseguren la máxima inteligibilidad de los textos y reduzcan las oscuridades y las incertidumbres interpretativas, contribuyendo así a la efectividad de aquel “deber constitucional de hacerse entender” [115] que representa un elemento esencial para garantizar tanto la certeza del derecho así como la democracia global del sistema).

No se escapa que la apertura del drafting normativo a la inteligencia artificial podría traducirse “en una sensible mejora de la claridad, de la inteligibilidad y, más en general, de la calidad lingüística y estilística de los textos normativos de origen parlamentario” [116]. Pero, sobre todo, “tal salto cualitativo en la producción normativa de las Cámaras podría permitir a estas últimas reconquistar, progresivamente, una posición de mayor centralidad en el ámbito del iter legis: por un lado, reforzando su capacidad de incidir de manera transformadora sobre las iniciativas de matriz gubernativa y por otro, permitiéndoles —al menos en parte— recuperar un papel activo en la fase de la iniciativa legislativa, hoy de hecho patrimonio del poder ejecutivo” [117].

Por el momento, sin embargo, el Informe del Comité de Vigilancia sobre la actividad de documentación de la Cámara de Diputados ha identificado tres posibles ámbitos de desarrollo en relación con el empleo de la IA dentro del Parlamento: el apoyo a los procedimientos de la administración parlamentaria (con particular referencia, por ejemplo, a los servicios de preparación de la documentación); el empleo de tecnologías innovadoras en el apoyo a la actividad de cada parlamentario; la mejora de la consulta de las fuentes parlamentarias (también para conocer rápida y detalladamente las posiciones expresadas y los votos emitidos por cada diputado).

Asimismo, no se escapa la oportunidad de emplear tecnologías AI powered en el marco de la decisión parlamentaria de presupuesto: por ejemplo, las aplicaciones de inteligencia artificial predictiva pueden proporcionar indicaciones capaces de mejorar la fiabilidad de los resultados obtenidos mediante los sistemas tradicionales de previsión (con particular referencia a las tendencias del ciclo económico, al cálculo probabilístico de las principales variables macroeconómicas y financieras y al relativo monitoreo), no solo en la actividad de la Oficina parlamentaria de presupuesto, sino también en el apoyo al ejercicio de la acción de control parlamentario sobre el presupuesto y sobre los flujos de ingresos y de gasto, así como en la planificación y evaluación de las políticas de relevancia financiera [118].

Naturalmente, sin embargo, un eventual mayor empleo de los instrumentos de IA en las actividades parlamentarias requeriría la deseable creación de “estructuras institucionales específicamente dedicadas a la verificación y validación de los resultados producidos por los sistemas de inteligencia artificial, confiando semejante tarea a la administración parlamentaria” [119]; por lo demás, la observación comparada revela que no pocas asambleas electivas han instituido ya organismos internos especializados, con funciones consultivas, con la tarea principal de analizar los desafíos planteados por la transición digital y de evaluar la incidencia del progreso tecnológico en las dinámicas parlamentarias.

Al mismo tiempo, no puede ocultarse una primera y relevante crítica relativa a la adaptabilidad misma de la tecnología a los procedimientos parlamentarios, dado que estos últimos, “a menudo basados en costumbres y prácticas y en una cierta elasticidad interpretativa, resultan difíciles de estandarizar en un sistema tecnológico predefinido” [120].

Por otra parte, también en sede parlamentaria debería evitarse que los algoritmos utilizados puedan introducir elementos de bias político-ideológicos. Ya se ha visto, en efecto, que el diseño de los sistemas de IA no es inmune a prejuicios de diversa índole, que pueden terminar produciendo, en la aplicación concreta del software, resultados de facto discriminatorios, aunque enmascarados tras la aparente neutralidad técnico matemática del procedimiento automatizado.

Resultados de “discriminación algorítmica”, sin embargo, suscitarían aún mayor preocupación si se manifestaran precisamente dentro del Parlamento, que, expresión por excelencia de la dialéctica entre fuerzas políticas de distinto signo y de diversa sensibilidad social y cultural, debería ser el lugar privilegiado del debate abierto, sin prejuicios, y de la garantía de las minorías.

No puede tampoco subestimarse otro dato: “aunque la actividad parlamentaria contempla necesariamente ya una componente informal —basada en contactos personales y negociaciones entre los distintos grupos— la introducción de decisiones automatizadas corre el riesgo de acentuar esta falta de transparencia (…). La IA generativa, en efecto, podría hacer aún más difícil comprender las dinámicas que conducen a la redacción y aprobación de una ley, creando un distanciamiento entre el Parlamento y la opinión pública” [121], contribuyendo así a agravar [122] aquel proceso de crisis de la representación política que se alimenta de desconfianza, abstencionismo y torsiones populístico-plebiscitarias.

De estos riesgos, en todo caso, parece ser consciente la administración parlamentaria, que se ha dotado, mediante una circular de abril de 2024, de sus propias “Reglas de conducta para el uso de instrumentos de inteligencia artificial generativa en la administración de la Cámara de Diputados”, relativas al doble uso de la IA tanto como instrumento destinado a mejorar los procesos de trabajo existentes como instrumento de innovación. La circular reconoce expresamente que el rápido progreso de las tecnologías de inteligencia artificial de tipo generativo constituye un elemento de transformación cuyas potencialidades no pueden dejar de ser consideradas también en el ámbito parlamentario, dentro de una perspectiva orientada a desarrollar las capacidades de anticipación y de respuesta a las necesidades de los órganos parlamentarios y de los diputados en el ejercicio de su mandato.

La disciplina “interna” de la Cámara remite al respeto de los derechos fundamentales, así como al respeto de los principios de equidad y de no discriminación, además de a la tutela de la confidencialidad.

Corolario directo de tales principios es la previsión expresa de la obligación de realizar una evaluación del riesgo vinculado al uso de soluciones o modelos de inteligencia artificial, que debe extenderse también a la seguridad misma de la infraestructura, a fin de excluir el acceso a informaciones críticas por parte de sujetos no autorizados. Se especifica expresamente, además, que la introducción de soluciones AI based debe seguir criterios de prioridad y de relevancia, en el marco de la coordinación global de la acción administrativa. Así, “tras la identificación de posibles casos de uso, en colaboración entre las estructuras administrativas competentes en el fondo y aquellas para los aspectos tecnológicos, deberá prepararse una documentación para ilustrar los objetivos, los beneficios esperados, las métricas de evaluación, así como los impactos administrativos, los procesos de trabajo implicados y las competencias involucradas” [123].

 

 

8. DE LA LIBERTAD DE MANIFESTACIÓN DEL PENSAMIENTO A LA LIBERTAD DE FORMACIÓN DEL PENSAMIENTO. INTELIGENCIA ARTIFICIAL Y “NEURO DERECHOS”.

 

El análisis realizado de algunos aspectos del Reglamento europeo sobre inteligencia artificial permite ahora ofrecer una ulterior reflexión, que concierne a una “nueva frontera” del constitucionalismo digital [124].

Tradicionalmente, como es sabido, el derecho (y su ciencia) ha considerado el “foro externo” —tanto es así que, incluso en estas páginas, se ha hecho referencia, por ejemplo, al impacto de la actividad de moderación de contenidos en línea sobre las libertades fundamentales, a la manifestación del pensamiento, es decir, a su expresión y difusión fuera de la esfera íntima de la persona, en una dimensión intrínsecamente social, relacional y pública—; hoy, sin embargo, a la luz de las transformaciones de la tecnología y, sobre todo, del impacto de los sistemas de inteligencia artificial, comienza a plantearse el problema de la formación misma del pensamiento [125], dentro de ese “foro interno” que el derecho —según el paradigma hobbesiano fundador del Estado moderno— había excluido de su pretensión ordenadora.

Se trata de un desafío enorme no solo para el núcleo tradicional de los derechos fundamentales del individuo, sino también para la dimensión más íntima de la personalidad humana, relativa a su mente y a su psique.

No se trata, conviene subrayarlo, únicamente del —aunque significativo— riesgo de “condicionamientos” en la formación misma del pensamiento como consecuencia de la proliferación indiscriminada de informaciones o de la formación de las denominadas burbujas, sino, más radicalmente aún, del peligro de que la combinación del empleo de la inteligencia artificial y de la aplicación de nuevas “neuro tecnologías” pueda incidir ampliamente en la dimensión mental, psíquica y moral de la persona, hasta manipular, directa o indirectamente, su pensamiento.

La inteligencia artificial, en efecto, nos impone —he aquí la “nueva frontera del constitucionalismo digital”— reconsiderar el tema de la libertad de manifestación del pensamiento, induciendo a reflexionar también sobre la fase “primordial”, “germinativa”, de la formación del pensamiento.

Esa libertad moral de la persona —primera expresión del derecho a la autodeterminación (reconducible, por ejemplo, al art. 2 de la Constitución italiana)—, tradicionalmente objeto de garantía ante todo frente al poder punitivo del Estado (ya sea como límite infranqueable a la discrecionalidad legislativa en la determinación de las figuras penales incriminadoras —en cuanto expresión del “foro interno”, por definición inatacable, cuyas abstractas determinaciones ni siquiera son verificables según los mecanismos del derecho penal del hecho—, ya sea como objeto de una garantía procesal fundamental —que se traduce en la prohibición, ex arts. 64 y 188 del Código de Procedimiento Penal, de “utilizar métodos y técnicas idóneos para influir en la libertad de determinación o alterar la capacidad de recordar o de valorar los hechos” [126]—), corre hoy el riesgo de ser condicionada primariamente también por parte de los “nuevos” poderes privados.

Es en este contexto distinto, por tanto, donde se comienza a hablar de “neuroderechos”, locución introducida por los estudiosos de neurociencias y ética de la inteligencia artificial Marcello Ienca y Roberto Andorno, posteriormente asumida por la Neurorights Foundation [127].

En particular, Ienca y Andorno hablan de cuatro neuroderechos cuya garantía se impondría hoy para salvaguardar la esfera de la libertad moral de la persona —y, por ende, el “foro interno”— frente a la incidencia combinada de la IA y de las neurotecnologías: el derecho a la privacidad mental (que, en palabras de Marcello Ienca , “significa sustancialmente proteger las informaciones mentales que son las más sensibles de todas, porque conciernen a nuestros pensamientos. Y nuestros pensamientos son, sustancialmente, el último refugio de la esfera privada, porque están protegidos incluso cuando exhibimos, mediante el comportamiento, las expresiones faciales, la palabra o compartimos datos con el mundo externo” [128]), el derecho a la integridad mental, el derecho a la continuidad psicológica y —sobre todo, para nuestro interés directo— el derecho a la libertad cognitiva, que, en su dimensión negativa, busca tutelar al individuo frente al uso coercitivo y no consentido de la inteligencia artificial y de las neuro-tecnologías [129].

Posteriormente, en 2019, la Neurorights Foundation, instituida en el Centro de Neuro-tecnologías de la Universidad de Columbia bajo la guía del prestigioso neurocientífico Rafael Yuste, afirmó la existencia de cinco neuro-derechos, entre los cuales, en particular, el derecho al libre albedrío, entendido como la posibilidad de los individuos de tener el control final sobre su proceso decisorio sin manipulaciones desconocidas por parte de sistemas de inteligencia artificial y neuro-tecnologías externas, y el derecho a la protección frente a los bias algorítmicos, respecto del cual la Fundación propuso establecer medidas normativas contra los prejuicios en el diseño algorítmico, como la utilización de la contribución de grupos de usuarios relevantes en los conjuntos de datos de formación cognitiva.

Este último derecho, en particular, se describe convincentemente en los términos de una expectativa que puede reconducirse a un más general «derecho constitucional a una tecnología “razonable”», que impida “zonas francas, en las que la incomprensibilidad de ciertos sistemas de IA haga de hecho no justiciables las decisiones tomadas sobre la base de estos sistemas.
De esta exigencia se encuentran huellas en los sectores más diversos: piénsese en la Carta ética europea sobre el uso de la inteligencia artificial en los sistemas judiciales y en los ámbitos conexos, cuyos principios de «calidad y seguridad» y de «transparencia, imparcialidad y equidad» de los “algoritmos” se refieren al mismo ámbito, sin que existan razones suficientes a favor de una especificidad del riesgo en el sector neuro-tecnológico. Se trataría, entonces, no de una clase autónoma de derechos, sino de una expectativa genérica hacia la calidad de la tecnología, en protección de intereses variados [130].

Se trata, en definitiva, si se quiere partir de estos recientes aportes doctrinales interdisciplinares para llegar a una conclusión parcial en el plano dogmático, de un conjunto de situaciones jurídicas subjetivas en todo caso reconducibles a la tradicional “libertad moral” de la persona y, por tanto, en última instancia (si consideramos el derecho constitucional italiano) a aquel derecho de autodeterminación subyacente en el art. 2 de la Constitución.

Libertad moral, conviene subrayarlo, que representa la condición misma de posibilidad de la garantía de la libertad prevista en el art. 21 de la Constitución, en la medida en que no puede existir libre manifestación del pensamiento si, en su origen, ese mismo pensamiento no se ha formado libremente, exento de condicionamientos y, sobre todo, de incidencias directas sobre la esfera íntima —lato sensu moral, es decir, psíquica y mental— de la persona.

No es casualidad, en esta perspectiva, que, como ha afirmado el Presidente de la Autoridad Garante para la Protección de los Datos Personales, Pasquale Stanzione, la tutela de los derechos fundamentales hoy requiera no solo el tradicional habeas corpus, ni únicamente aquel habeas data que se sitúa en la base de la noción contemporánea de privacidad, sino un habeas mentem en resguardo de la libertad moral de la persona, en un mundo en el que se difuminan cada vez más los límites entre hombre y máquina y en el que, por ello, es necesario regular el uso de la inteligencia artificial, con particular referencia a las aplicaciones neurotecnológicas [131].

Al respecto, la observación comparada evidencia desarrollos interesantes [132]. Es conocido, por ejemplo, el caso chileno, donde la ley sobre protección de los neuroderechos y la integridad mental, y el desarrollo de la investigación y las neurotecnologías, propuesta simultáneamente a la enmienda del art. 19 de la Constitución, reutilizó la propuesta de Yuste para prohibir la interferencia neurotecnológica que dañe la continuidad psicológica y psíquica de la persona, la identidad personal, la autonomía de la voluntad y la capacidad de tomar decisiones libremente, y para asegurar la protección del sustrato mental de la identidad personal (art. 4); la ley elevó además los datos neuronales a categoría especial de datos sanitarios (art. 6), sometiendo su difusión y transmisión a la normativa sobre trasplante de órganos (art. 7).

También el Reglamento Europeo sobre Inteligencia Artificial ha intervenido oportunamente sobre el punto: en primer lugar, el “considerando” n.º 16 sugiere “prohibir la introducción en el mercado, la puesta en servicio o el uso de determinados sistemas de IA destinados a distorsionar el comportamiento humano y que puedan provocar daños físicos o psicológicos”; consecuentemente, en la lista de prácticas de IA prohibidas, indicada en el art. 5, figura “la introducción en el mercado, la puesta en servicio o el uso de un sistema de IA que utilice técnicas subliminales que actúen sin que una persona sea consciente de ello con el fin de distorsionar materialmente su comportamiento de un modo que provoque o pueda provocar a dicha persona o a otra un daño físico o psicológico” [133].

 

 

9. CONCLUSIONES: CONSTITUCIONALISMO Y DEMOCRACIA FRENTE AL DESAFÍO DE LA TÉCNICA.

 

Se ha dicho ampliamente que el problema crucial del constitucionalismo contemporáneo está representado por la aparición de escurridizos poderes privados transnacionales.

La elaboración del “constitucionalismo digital” —tanto en el plano teórico como, sobre todo, en el de la “política del derecho” (en sus dos fases de desarrollo en Europa: primero la jurisprudencial, luego la normativa)— nace precisamente de la necesidad de ofrecer un instrumental conceptual y dogmático adecuado para afrontar los desafíos planteados por el entorno digital y, más en general, por el avance de la técnica y de sus paradigmas.

Se ha visto claramente, en efecto, cómo la red, a pesar de las promesas de una inédita apertura democrática de un debate público finalmente igualitario, gracias a la posibilidad para cada ciudadano usuario de compartir con una comunidad potencialmente planetaria sus propias ideas, se ha revelado como un mundo mucho más complejo y multifacético.

Las iniciativas asumidas a nivel de la UE, inspiradas en la “segunda fase” del constitucionalismo digital, han pretendido ciertamente invertir la tendencia, absolutamente mayoritaria hasta hace pocos años, del “no intervención” pública en la disciplina de Internet y de las plataformas, dejando atrás las ilusiones sobre la autorregulación y situándose así —aunque entre no pocas ambigüedades y contradicciones— en la línea de una visión más decididamente prescriptiva del constitucionalismo, que sujete a los nuevos poderes (privados) y garantice los derechos de los usuarios.

No puede ocultarse que nos encontramos ante un desafío de nueva época para el derecho, y en particular para el derecho constitucional.

He aquí, pues, la “gran transformación” evocada en múltiples ocasiones, en un recodo de la Historia que representa, para decirlo con el Papa Francisco, un “cambio de época” (más que, meramente, una “época de cambios” [134]).

Pero este es el desafío de nuestro presente y de nuestro futuro, que debe ser afrontado con el máximo rigor, en nombre de una visión que reafirme la centralidad de la persona humana frente a la lógica de los nuevos dueños del capitalismo de la vigilancia [135].

De ahí, en verdad, frente al giro del Tecnoceno [136], la necesidad de un papel fuerte de la política, de “vigilancia crítica” y de prudente activismo: si todavía demasiado a menudo, como lamentaba ya en tiempos no sospechosos Stefano Rodotà, se asiste a una “tecnología que sorprende y a una política que se deja seducir”, resulta fundamental un cambio de paradigma, que reivindique la centralidad de la buena política como presupuesto para una regulación eficaz, en ese espacio “entre la innovación y su distorsión” en el que ella puede actuar para “garantizar Internet como espacio neutral y en su capacidad ‘generativa’, en su aptitud para producir innovación” [137], vigilando el respeto de la persona humana y de su núcleo de derechos inviolables.

Un papel de vigilancia crítica, este, tanto más necesario en las democracias constitucionales, para no abandonarnos a la desoladora realidad del Hombre unidimensional evocada por Marcuse ya en 1964: “una confortable, pulida, razonable, democrática ‘no libertad’ prevalece en la civilización industrial avanzada, signo del progreso técnico (…)”. “Bajo este aspecto, el hecho de que la capacidad de satisfacer las necesidades en medida creciente”, gracias a los éxitos de la técnica, “sea asegurada por un sistema autoritario o por uno no autoritario, parece hacer poca diferencia” [138].

La tarea de quienes se reconocen en un constitucionalismo digital “tomado en serio” —y, al mismo tiempo, de una política pública adecuada para cumplir con ese papel de vigilancia crítica que debería serle propio— es, entonces, la de ser “apocalípticos e integrados” [139] (es decir, si se quiere, “integrados con la conciencia de la Apocalipsis”).

Fuera de la metáfora: no rechazar los progresos de la técnica, sino construir un paradigma jurídico capaz de sujetar el poder digital, con el objetivo último de asegurar —contra el riesgo de toda distopía técnicamente perfecta à la Huxley [140]— que la persona humana jamás sea tratada como medio, sino siempre como fin.

 

Resumen: En este trabajo se propone una reflexión acerca de las transformaciones del derecho constitucional en la era digital, destacando la presencia cada vez mayor de nuevos poderes privados transnacionales, con particular atención a las grandes plataformas on-line y a la inteligencia artificial. A través de una reconstrucción teórica y dogmática del constitucionalismo digital, se examina el tránsito desde la jurisprudencia europea hacia las intervenciones legislativas de la Unión, tales como la Digital Services Act y la AI Act. Se subraya cómo el “procedimentalismo” (del cual puede hallarse un ejemplo anticipador en la jurisprudencia europea sobre el derecho al olvido), aun favoreciendo la transparencia y la responsabilización de las plataformas, no logra incidir de manera sustancial en su poder económico e informativo, con repercusiones sobre la democracia y el pluralismo. Posteriormente, se aborda la cuestión de los desafíos constitucionales planteados por la inteligencia artificial, analizando críticamente el Reglamento europeo (con especial atención a la relación entre IA y derechos fundamentales) y abriendo un foco sobre el empleo de la IA en los procedimientos parlamentarios, para finalmente poner de manifiesto la necesidad de un nuevo paradigma de tutela de los derechos fundamentales que alcance incluso la salvaguardia de la dimensión cognitiva del individuo. En este contexto emerge asimismo la reflexión constitucional sobre los neuroderechos, orientada a proteger la formación del pensamiento y la integridad mental.

 

Palabras claves: poderes privados; constitucionalismo digital; democracia y pluralismo; Reglamento Europeo de Inteligencia Artificial; neuroderechos.

 

Abstract: This paper reflects on the transformations of constitutional law in the digital age, highlighting the growing presence of new transnational private powers, with particular attention to large online platforms and artificial intelligence. Through a theoretical and dogmatic reconstruction of digital constitutionalism, it examines the transition from European case law to legislative interventions by the Union, such as the Digital Services Act and the AI Act. It is emphasised how “proceduralism” (an early example of which can be found in European case law on the right to be forgotten), while promoting transparency and accountability on the part of platforms, fails to have a substantial impact on their economic and informational power, with repercussions for democracy and pluralism. Subsequently, the issue of constitutional challenges posed by artificial intelligence is addressed, critically analysing European regulations (with special attention to the relationship between AI and fundamental rights) and focusing on the use of AI in parliamentary procedures, ultimately highlighting the need for a new paradigm for the protection of fundamental rights that even extends to safeguarding the cognitive dimension of the individual. In this context, constitutional reflection on neurodiverse rights also emerges, aimed at protecting the formation of thought and mental integrity.

 

Key words: private powers; digital constitutionalism; democracy and pluralism; European Artificial Intelligence Regulation; neuro-rights.

 

Recibido: 2 de octubre de 2025

Aceptado: 23 de octubre de 2025

______________________________________

[01] Para una relectura de la categoría del poder privado, precisamente con referencia a las plataformas en línea, véanse, entre otros, M. BASSINI, Internet e libertà di espressione – Prospettive costituzionali e sovranazionali, Aracne, Canterano (RM), 2019, pp. 107 ss.; y O. GRANDINETTI, «Facebook vs. CasaPound e Forza Nuova, ovvero la disattivazione di pagine social e le insidie della tutela multilivello dei diritti fondamentali», en Rivista di diritto dei media, 2021, pp. 173 ss. Véase asimismo A. PAPA, Espressione e diffusione del pensiero in Internet. Tutela dei diritti e progresso tecnologico, Giappichelli, Turín, 2009, esp. pp. 241 ss. Entre los tratamientos monográficos más recientes, cfr. F. PARUZZO, I sovrani della rete. Piattaforme digitali e limiti costituzionali al potere privato, Edizioni Scientifiche Italiane, Nápoles, 2022; A. IANNOTTI DELLA VALLE, Le regole di Internet tra poteri pubblici e privati. Tutela dei diritti e ruolo dell’antitrust in una prospettiva costituzionale, Editoriale Scientifica, Nápoles, 2023; E. CREMONA, I poteri privati nell’era digitale. Libertà costituzionali, regolazione del mercato, tutela dei diritti, Edizioni Scientifiche Italiane, Nápoles, 2023.

[02] P. HÄBERLE, Cultura dei diritti e diritti della cultura nello spazio costituzionale europeo. Saggi, Giuffrè, Milán, 2003

[03] A. PIZZORUSSO, Il patrimonio costituzionale europeo, Il Mulino, Bolonia, 2002.

[04] S. ZUBOFF, Il capitalismo della sorveglianza (2019), trad. it. Luiss University Press, Roma, 2019, passim

[05] K. POLANYI, La grande trasformazione (1944), trad. it. Einaudi, Turín, 2010. La lección de Polanyi ha sido retomada, en la literatura reciente sobre la era digital, por J. E. COHEN, Between Truth and Power: The Legal Constructions of Informational Capitalism, Oxford University Press, Oxford, 2019; C. AZAIS, A. CORSANI, P. DIEUAIDE, Vers un capitalisme cognitive, Harmattan, París, 2002; S. ZUBOFF, «Big Other: Surveillance Capitalism and the Prospects of an Information Civilization», en Journal of Information Technology, 1/2015, pp. 75-89.

[06] E. FORSTHOFF, Lo Stato della società industriale (1971), trad. it. Giuffrè, Milán, 1971.

[07] Ibid., p. 33.

[08] D. Kaye, Libertà vigilata. La lotta per il controllo di Internet (2021), trad. it. Treccani, Roma, 2021.

[09] “Hoy la arquitectura normativa de Internet ya no corresponde a la de un espacio libre y abierto (como lo imaginaba la declaración de Barlow sobre la independencia del ciberespacio), sino a un entorno ‘selectivo’, en el cual el acceso se encuentra intermediado, por un lado, por los productores de aplicaciones (software) y de dispositivos (hardware), y, por otro, por quienes gestionan las plataformas y las infraestructuras digitales de la Red, permitiendo la conexión”: A. SIMONCINI, Sovranità, potere e libertà nell’era dell’AI, en D. DE LUNGO – G. RIZZONI (eds.), Le assemblee legislative nell’era dell’intelligenza artificiale. Profili costituzionali, Giappichelli, Turín, 2025, p. 15.

[10] Hasta el punto de que se habla incluso de un verdadero “colonialismo digital”: cfr. F. BALAGUER CALLEJÓN, La costituzione dell’algoritmo, trad. it. Florencia, 2023, esp. cap. 5; de un “colonialismo de los datos” discurre asimismo Y. N. HARARI, Nexus. Breve storia delle reti di informazione dall’età della pietra all’IA, trad. it. Bompiani, Milán, 2024, pp. 482-487.

[11] Sobre el particular, amplius, sea permitido remitir a A. LAMBERTI, «Libertà di informazione, poteri privati e tutela dei dati personali nell’era digitale», en Diritttifondamentali.it, 3/2023, pp. 20 ss. y esp. pp. 26-29.

[12] Cfr. al menos O. POLLICINO, «Potere digitale» (voz), en Enciclopedia del Diritto, I Tematici, Potere e Costituzione, a cura de M. CARTABIA Y M. RUOTOLO, Giuffrè, Milán, V, 2023, pp. 410 ss.

[13] La expresión, como es sabido, remonta a H. P. IPSEN, Gleichheit, en F. L. NEUMANN – H. C. NIPPERDEY – U. SCHENER (a cura de), Die Grundrechte. Handbuch der Theorie und Praxis der Grundrechte, Duncker & Humblot, Berlín, 1954, p. 143. Sobre el particular, véase al menos M. ZARRO, «L’evoluzione del dibattito sulla Drittwirkung tra Italia e Germania», en Rassegna di diritto civile, 2017, pp. 997 ss.; P. FEMIA (a cura de), Drittwirkung: principi costituzionali e rapporti tra privati. Un percorso nella dottrina tedesca, ESI, Nápoles, 2018.

Entre los clásicos de la doctrina alemana, véase al menos G. DÜRIG, «Grundrechte und Zivilrechtsprechung», en AA.VV., Vom Bonner Grundgesetz zur gesamtdeutschen Verfassung: Festschrift zum 75. Geburtstag von Hans Nawiasky, Isaar Verlag, Múnich, 1956, pp. 157 ss. (defensor de la Mittelbare Drittwirkung); W. LEISNER, Grundrechte und Privatrecht, Beck, Múnich/Berlín, 1960; H. C. NIPPERDEY, Grundrechte und Privatrecht, Scherpe, Krefeld, 1961.

[14] G. DE GREGORIO, «The Rise of Digital Constitutionalism in the European Union», en International Journal of Constitutional Law, 1/2021, pp. 41 ss.; E. CELESTE, Digital Constitutionalism. The Role of Internet Bill of Rights, Routledge, Londres, 2022; Id., «Digital constitutionalism: a new systematic theorisation», en International Review of Law, Computers & Technology, 1/2019, pp. 76 ss. Para este último Autor, en particular, el constitucionalismo digital comparte, en última instancia, los valores fundantes y las finalidades generales del constitucionalismo contemporáneo, pero dirige su atención al contexto peculiar moldeado por el advenimiento de las tecnologías digitales. El constitucionalismo digital se configura asimismo como un “-ismo”, y por ende puede definirse como una “ideología” orientada a “instituir y garantizar la existencia de un entramado normativo destinado a tutelar los derechos fundamentales y a equilibrar los poderes en el entorno digital”. El término “ideología” se emplea con frecuencia en acepción peyorativa, según la concepción marxiana de ideología como “falsa conciencia”, esto es, como “conjunto de creencias con las que los individuos se ilusionan”, o bien, en el ámbito político, como actitud carente de concreción. Por el Autor, sin embargo, tal calificación es adoptada en sentido “neutro”, como conjunto estructurado de valores e ideales. El mérito de concebir el constitucionalismo digital como ideología, y por tanto como concepto puramente teórico, reside en la posibilidad de distinguirlo de su realización concreta, de su traducción en la realidad, en sentido “regulativo”.

[15] G. TEUBNER, La cultura del diritto nell’epoca della globalizzazione. L’emergere delle costituzioni civili, Armando Editore, Roma, 2005.

[16] Así F. GALLO, «Democrazia 2.0. La Costituzione, i cittadini e le nuove forme di partecipazione», en Gnosis – Rivista italiana di Intelligence, 2014, p. 66.

[17] Asί S. RODOTÀ, «Una costituzione per Internet», en Politica del diritto, 3/2010, pp. 337 ss

[18] Sobre el particular, ampliamente, véase G. AZZARITI, Il costituzionalismo moderno può sopravvivere?, Laterza, Roma-Bari, 2013; más recientemente, Id., Diritto o barbarie. Il costituzionalismo moderno al bivio, Laterza, Roma-Bari, 2020.

[19] Así M. BETZU, «Poteri pubblici e poteri privati nel mondo digitale», en Rivista del Gruppo di Pisa, 2/2021, pp. 178-179.

[20] Sobre estos temas, cfr. M. LUCIANI, Ogni cosa al suo posto, Giuffrè, Milán, 2023, esp. pp. 60 ss.

[21] A. VENANZONI, La sovranità tra ordine costituzionale, digitale e poteri privati, en M. PROIETTI – A. VENANZONI (eds.), La sovranità digitale tra sicurezza nazionale e ordine costituzionale, Pacini Giuridica, Pisa, 2023, pp. 75-76.

[22] Sobre todos, véase N. IRTI, L’ordine giuridico del mercato, Laterza, Roma-Bari, 1998.

[23] A. VENANZONI, La sovranità tra ordine costituzionale, digitale e poteri privati, cit., p. 77.

[24] D. GRIMM, Constitutionalism: Past, Present and Future, Oxford University Press, Oxford, 2016, p. 343.

[25] B. FITZGERALD, «Software as Discourse? A Constitutionalism for Information Society», en Alternative Law Journal, 3/1999, pp. 144 ss.; Id., «Software as Discourse? The Challenge for Information Law», en European Intellectual Property Review, 2/2000, pp. 47 ss.

[26] P. BERMAN, «Cyberspace and the State Action Debate: The Cultural Value of Applying Constitutional Norms to “Private” Regulation», en University of Colorado Law Review, 2000, pp. 1263 ss.

[27] L. GILL – D. REDEKER – U. GASSER, «Towards Digital Constitutionalism? Mapping Attempts to Craft an Internet Bill of Rights, Berkman Center Research» Publication No. 2015-15, https://papers.ssrn.com/abstract=2687120.

[28] Cfr. E. CELESTE, Digital constitutionalism: a new systematic theorisation, cit., p. 85.

[29] G. LOMBARDI, Potere privato e diritti fondamentali, Giappichelli, Turín, 1970. He retomado su enseñanza, en particular, en A. LAMBERTI, Libertà di informazione, poteri privati e tutela dei dati personali nell’era digitale, cit., esp. pp. 22-23.

[30] G. JELLINEK, Sistema dei diritti pubblici subiettivi, trad. it. SEL, Milán, 1912.

[31] Sobre el particular, véase G. ZACCARONI, «Egenberger, or the place of non-discrimination on the ground of religion in the EU constitutional legal order», en Stato, Chiese e pluralismo confessionale, 3/2019, pp. 269 ss.

[32] O. POLLICINO, Potere digitale (voz), cit., pp. 434 ss.

[33] Ibid., p. 435.

[34] Cfr. F. PIZZETTI, «La decisione della Corte di Giustizia sul caso Google Spain: più problemi che soluzioni», en Federalismi.it, 10 junio 2024; amplius, v. G. RESTA – V. ZENO-ZENCOVICH (eds.), Il diritto all’oblio dopo la sentenza Google Spain, Romatre Press, Roma, 2015.

[35] O. POLLICINO, Potere digitale (voz), cit., p. 438.

[36] Resultan de particular interés las reflexiones del añorado Stefano Rodotà, quien identificaba el contenido del derecho al olvido en el interés por “restituir a cada uno la posibilidad de reinventarse, de constituir personalidad e identidad emancipándose de la tiranía de jaulas en las cuales una memoria omnipresente y total pretende encerrar a todos” (S. RODOTÀ, Il diritto di avere diritti, Laterza, Roma-Bari, 2012, p. 406).

[37] Así R. SENIGAGLIA, «Reg. UE 2016/679 e diritto all’oblio nella comunicazione telematica. Identità, informazione e trasparenza nell’ordine della dignità personale», en Le nuove leggi civili commentate, 5/2017, p. 1052.

[38] Así F. AGNINO, «Il diritto all’oblio e il diritto all’informazione: quali condizioni per il dialogo?», en Danno e Responsabilità, 1/2018, pp. 108-109.

[39] E. LEE, «Recognizing Rights in Real Time. The Role of Google in the EU Right to be Forgotten», en UC Davis School of Law – Law Review, vol. 49, 2016, p. 1025.

[40] O. POLLICINO, M. BASSINI, «Libertà di espressione e diritti della personalità nell’era digitale. La tutela della privacy nella dimensione europea», en G. E. VIGEVANI, O. POLLICINO, C. MELZI D’ERIL, M. CUNIBERTI, M. BASSINI, Diritto dell’informazione e dei media, Giappichelli, Turίn, 2019, p. 122.

[41] Asì M. DE SALVIA, Compendium della CEDU, Editoriale Scientifica, Napoles, 2000, p. 235.

[42] Cfr., entre otras, las sentencias relativas a los casos Sunday Times (1979), Lingens (1986), Castells (1992).

[43] Así P. PILUSO, «Poteri privati, diritti fondamentali e interessi legittimi nell’era delle piattaforme. Costituzionalismo digitale e “amministrativizzazione” del potere privato», en Consulta Online, 2/2025, p. 1073.

[44] Cfr. O. SPATARO, «Il diritto all’oblio tra definizione sostanziale e rimedi di tutela. Riflessioni alla luce della giurisprudenza più recente della Corte di Cassazione e della Corte di Giustizia dell’Unione Europea in materia di deindicizzazione», en Diritto costituzionale. Rivista quadrimestrale, 1/2023, espec. pp. 136 ss.

[45] Ibid., pp. 137-138.

[46] Ibid., p. 138.

[47] Cfr. G. DE GREGORIO, «The Rise of Digital Constitutionalism in the European Union», en International Journal of Constitutional Law, 1/2021, pp. 41 ss.; O. POLLICINO, «Data Protection and Freedom of Expression Beyond EU Borders: EU Judicial Perspectives», en F. FABBRINI – E. CELESTE – J. QUINN (a cura de), Data Protection Beyond Borders, Bloomsbury, Londres, 2021, pp. 81 ss.; Id., «Lo spazio pubblico europeo nell’era dell’AI. Dal liberismo digitale al “ravvedimento” costituzionale dell’Unione», en D. DE LUNGO – G. RIZZONI (a cura de), Le assemblee legislative nell’era dell’intelligenza artificiale. Profili costituzionali, cit., pp. 23 ss.

[48] O. POLLICINO, Potere digitale (voz), cit., p. 439.

[49] Ivi, p. 440. Sobre el particular, véase también K. CRAWFORD – J. SCHULTZ, «Big Data and Due Process: Toward a Framework to Redress Predictive Privacy Harms», en Boston College Law Review, 1/2014, pp. 93 ss.; D. K. CITRON – F. PASQUALE, «The Scored Society: Due Process for Automated Predictions», en Washington Law Review, 2014, pp. 1 ss.

[50] Es, ésta, la tesis aquí compartida, de G. DE GREGORIO, «The Digital Services Act: A Paradigmatic Example of European Digital Constitutionalism», en Diritticomparati, 17 de mayo de 2021; G. F. LENDVAI, «Taming the Titans? Digital Constitutionalism and the Digital Services Act», en ESSACHESS. Journal for Communication Studies, 2/2024, pp. 169 ss.; sobre el tema, con mayor amplitud, véase F. WILMAN – S. L. KALÈDA – P.J. LOEWENTHAL (eds.), The EU Digital Services Act, Oxford University Press, Oxford, 2024.

[51] Cfr. G. SANTONI, La responsabilità delle piattaforme online tra mercato e sovranità digitale, Cedam, Padua, 2024, pp. 247 ss.

[52] Ibid., p. 248.

[53] Desarrolla amplia y problemáticamente la temática P. PILUSO, Poteri privati, diritti fondamentali e interessi legittimi nell’era delle piattaforme. Costituzionalismo digitale e “amministrativizzazione” del potere privato, cit., pp. 1047 ss.

[54] El tema es particularmente abordado por E. CREMONA, I poteri privati nell’era digitale. Libertà costituzionali, regolazione del mercato, tutela dei diritti, cit., pp. 203 ss.

[55] P. STANZIONE, «Introduzione», en Id. (a cura di), I “poteri privati” delle piattaforme e le nuove frontiere della privacy, Giappichelli, Turín, 2022, p. 13.

[56] C. M. BIANCA, Le autorità private, Jovene, Napoles, 1977.

[57] O. GRANDINETTI, «Le piattaforme digitali come “poteri privati” e la censura online», en L. ABBA, A. LAZZARONI, M. PIETRANGELO (eds.), La Internet Governance e le sfide della trasformazione digitale, Editoriale Scientifica, Nápoles, 2022, p. 249.

[58] R. NIRO, «Piattaforme digitali e libertà di espressione fra autoregolamentazione e coregolamentazione. Note ricostruttive», en Osservatorio sulle fonti, 3/2021, p. 1390. En clave crítica, véase también R. RAZZANTE, «Nuove frontiere della libertà d’espressione alla luce del Digital services act (Dsa) e dell’evoluzione normativa europea, tra criticità applicative e possibili risvolti costituzionali», en Dirittifondamentali.it, 3/2024, pp. 136 ss.

[59] M. E. BUCALO, I volti della libertà di manifestazione del pensiero nell’era digitale fra intermediari online, moderazione dei contenuti e regolazione, Giappichelli, Turín, 2023, pp. 107-108.

[60] De aquí también la brillante provocación de P. TERZIS, «Against Digital Constitutionalism», en European Law Open, 2/2024, pp. 336 ss., quien, aun reconociendo que el constitucionalismo digital “makes sense”, como proyecto alimentado por la esperanza institucional de hallar un equilibrio de poder entre actores en competencia, sin embargo ignoraría las lógicas productivas de las tecnologías, confundiendo así los ‘objetos’ con los ‘sujetos’ y, sobre todo, legitimaría narrativas de ‘momentos constitucionales’ causados por los poderes digitales y las revoluciones digitales, separadas de las historias de las grandes corporaciones en la escena global: para el A., en cambio, resulta necesario confrontarse críticamente con la larga evolución de la regulación jurídica que ha permitido el surgimiento de la forma societaria y la consolidación del poder económico y político a escala global, como pródromo del desmesurado poder de las grandes plataformas. De aquí el foco en la necesidad de un nuevo modelo de regulación de la economía digital.

[61] Retomo, en tal sentido, lo escrito en A. LAMBERTI, Libertà di informazione, poteri privati e tutela dei dati personali nell’era digitale, cit., en especial pp. 26-29

[62] F. PARUZZO, I sovrani della rete. Piattaforme digitali e limiti costituzionali al potere privato, cit., p. 22.

[63] S. RODOTÀ, «Il diritto all’informazione», en IKON – Forme e processi del comunicare, 2/2006, p. 22

[64] Retomo, en tal sentido, A. LAMBERTI, «Libertà di informazione e democrazia ai tempi della società digitale», en Consulta Online, 2/2022, en especial pp. 882 ss.

[65] C. WARDLE – H. DERAKHSHAN, Information Disorder, Council of Europe Report, 2017.

[66] M. NAIM, «Populism. Polarization. Post-truth: These are the drivers of today’s politics», en El Pais, 20 febbraio 2020.

[67] Cfr. A. NICITA, Il mercato delle verità. Come la disinformazione minaccia la democrazia, Bolonia, 2021, pp. 28 ss.

[68] Rapporto del Tavolo tecnico per la garanzia del pluralismo e della correttezza dell’informazione sulle piattaforme digitali (Autoridad para las Garantías en las Comunicaciones – Delibera n. 423/17/CONS), p. 5.

[69] P. CARETTI, A. CARDONE, Diritto dell’informazione e della comunicazione nell’era della convergenza. Stampa, radiotelevisione, telecomunicazioni, internet, teatro e cinema, Il Mulino, Bolonia, 2019, p. 256.

[70] F. SORO, Regolazione e governance del mondo digitale. Profili del diritto della rete in USA, UE e Italia, Giappichelli, Turín, 2019, p. 31

[71] A. MAZZIOTTI, «Fake news, fake people e società della (dis)informazione: riflessioni su democrazia, informazione e libertà fondamentali al tempo dei social network», en Diritti dell’Uomo, 1/ 2017, p. 59.

[72] M. BETZU, «Comunicazione, manifestazione del pensiero e tecnologie polifunzionali», en Quaderni costituzionali, 3/2006, p. 519

[73] Guerra Ucraina-Russia, ‘piovono’ fake news: ecco le prove, AdnKronos, 5 de marzo 2022.

[74] Cfr. ya E. BELISARIO, «Social War, i pericoli delle grandi piattaforme social contro la Russia», en Domani, 6 de marzo de 2022.

[75] Cfr. F. CASOLARI, «A Constitutionally Oriented Reading of the EU Artificial Intelligence Act», en L. MEZZETTI (ed.), Science, Technology and Law. Mutual Impact and Current Challenges, Bologna University Press, Bolonia, 2024, pp. 215 ss.; N. PALLADINO, «A digital constitutionalism framework for AI: security and fundamental rights in the AI Act», en Rivista di Digital Politics, 3/2023, pp. 521 ss.; para un comentario articulado, cfr. G. T. ELMI – A. CONTALDO (eds.), Intelligenza artificiale. AI Act – Regolamento (UE) 1689/2024. Il nuovo scenario giuridico europeo, Pacini, Pisa, 2024; para un análisis de las problemáticas generales, cfr. ya C. CASONATO, «Intelligenza artificiale e diritto costituzionale: prime considerazioni», en Diritto pubblico comparato ed europeo, Speciale 2019, pp. 101 ss.; A. D’ALOIA, «Il diritto verso “il mondo nuovo”. Le sfide dell’Intelligenza Artificiale», en BioLaw Journal - Rivista di BioDiritto, 1/2019, pp. 3 ss.; A. SIMONCINI, «L’algoritmo incostituzionale: l’intelligenza artificiale e il futuro delle libertà», en BioLaw Journal - Rivista di BioDiritto, 1/2019, pp. 63 ss.; D. MARTIRE, «Intelligenza artificiale e Stato costituzionale», en Diritto pubblico, 2/2022, pp. 397 ss.»

[76] Así O. POLLICINO, «Regolare l’intelligenza artificiale: la lunga via dei diritti fondamentali», en O. POLLICINO – F. DONATI – G. FINOCCHIARO – F. PAOLUCCI (eds.), La disciplina dell’intelligenza artificiale, Giuffrè, Milán, 2025, p. 12. Véase también Id., «La tutela dei diritti fondamentali alla prova dell’intelligenza artificiale», en O. POLLICINO – M. FASCIGLIONE – F. PAOLUCCI (eds.), AI e sostenibilità. Verso una compliance integrata. La valutazione di impatto sui diritti umani tra AI Act e direttiva CSDD, Giappichelli, Turín, 2025, en especial pp. 20 ss.

[77] Cfr. E. TOSI, «Tutela della persona, dati e asimmetrie di potere tra GDPR e AI Act: il crepuscolo dell’autodeterminazione», en Id. (ed.), Persona, dati personali, algoritmi tra GDPR e AI Act. Le nuove frontiere del diritto civile nella società delle “intelligenze” artificiali, Giuffrè, Milán, 2025, p. 25.

[78] En este ámbito, véase, sobre todo, O. POLLICINO – P. DUNN, Intelligenza artificiale e democrazia. Opportunità e rischi di disinformazione e discriminazione, Bocconi University Press, Milán, 2024

[79] D. BUZZELLI – M. PALAZZO (eds.), Intelligenza artificiale e diritti della persona, Pacini giuridica, Pisa, 2024.

[80] Evidencia puntualmente este aspecto G. CERRINA FERONI, «GDPR e AI Act: dignità della persona e profili costituzionali oltre l’autoregolazione», en E. TOSI (ed.), Persona, dati personali, algoritmi tra GDPR e AI Act. Le nuove frontiere del diritto civile nella società delle “intelligenze” artificiali, cit., pp. 47 ss.

[81] Aspecto sobre el cual insiste particularmente A. SIMONCINI, «Il linguaggio dell’intelligenza artificiale e la tutela costituzionale dei diritti», en Rivista AIC, 2/2023, pp. 2 ss.

[82] Habla de una doctrina de la “precaución constitucional” A. SIMONCINI, Sovranità, potere e libertà nell’era dell’AI, cit., pp. 16 ss.

[83] En este ámbito, véase en especial F. DONATI, «Diritti fondamentali e algoritmi nella Proposta di Regolamento sull’intelligenza artificiale», en A. PAJNO – F. DONATI – A. PERRUCCI (eds.), Intelligenza artificiale e diritto: una rivoluzione?, Il Mulino, Bolonia, 2022, vol. 1, pp. 111 ss.

[84] O. CARAMASCHI, «Il costituzionalismo al cospetto dell’intelligenza artificiale: nuove sfide, quali soluzioni?», en Rivista italiana di informatica e diritto, 1/2025, p. 30. El A. habla, al respecto, de una “orientación antropocéntrica” (ibíd., p. 35), en la medida en que el Reglamento se propone como finalidad asegurar la “supervisión humana” y la tutela de las libertades y de los derechos fundamentales con referencia a los potenciales peligros que provienen del uso de sistemas y tecnologías de inteligencia artificial.

[85] U. BECK, La società del rischio, trad. it., Roma, 2000.

[86] Así V. BALDINI, Dinamiche della trasformazione costituzionale, Cacucci, Bari, 2023, p. 93, a propósito de E. DENNINGER, Vom Rechsstaat zum Präventionsstaat, en Id., Recht in globaler Unordnung, Berlín, 2005, pp. 223 ss. Según, sin embargo, V. BALDINI, una maximización de la instancia securitaria y, con ella, la acentuación del recurso a la prevención lleva consigo los gérmenes de una degeneración del modelo de Präventionsstaat, tal que marca una cesura con el modelo del Estado constitucional de derecho: “un tal actuar en prevención en la perspectiva de anticipar el umbral de la intervención respecto a la concreción de una situación de peligro, en efecto, manifiesta una incompatibilidad con la lógica funcional del Estado constitucional de derecho”, dado que la lógica de la prevención “tiende a ser maximalista y exenta de todo equilibrio con intereses concurrentes en la perspectiva de contener incluso el riesgo meramente potencial de un acontecimiento” (ibíd., p. 93).

[87] O. POLLICINO, Regolare l’intelligenza artificiale: la lunga via dei diritti fondamentali, cit., p. 26. El A. evidencia que tal “enfoque basado en el riesgo” es “radicalmente distinto del del GDPR”: “si este último se fundaba, en efecto, en una sustancial delegación al responsable del tratamiento de las obligaciones de evaluación del impacto del propio tratamiento sobre los derechos a la privacidad y a la protección de los datos del interesado y, en consecuencia, se caracterizaba por un enfoque ‘bottom up’ de la regulación del riesgo, el AI Act sigue, en cambio, una perspectiva ‘top-down’, introduciendo una categorización desde arriba que corre el riesgo de no tener suficientemente en cuenta, entre otras cosas, las dimensiones y capacidades de los sujetos privados regulados”.

[88] Cfr. F. G. ANGELINI, Poteri digitali, concorrenza e amministrazione. La regolazione dei mercati digitali nella prospettiva del costituzionalismo economico, Editoriale Scientifica, Napoles, 2025, p. 217.

[89] Sobre el punto, véase E. LONGO, «I processi decisionali automatizzati e il diritto alla spiegazione», en A. PAJNO – F. DONATI – A. PERRUCCI (eds.), Intelligenza artificiale e diritto: una rivoluzione?, cit., pp. 349 ss.

[90] Tema abordado puntualmente por E. DI CARPEGNA BRIVIO, Pari dignità sociale e Reputation scoring. Per una lettura costituzionale della società digitale, Giappichelli, Turín, 2024; con respecto a los riesgos de aplicación de tales prácticas en las administraciones públicas, véase F. LAZZINI, Etica digitale e Intelligenza Artificiale. I rischi per la protezione dei dati, Giappichelli, Turín, 2022, pp. 55 ss.

[91] Cfr. D. MESSINA, La tutela della dignità nell’era digitale. Prospettive e insidie tra protezione dei dati, diritto all’oblio e Intelligenza artificiale, Editoriale Scientifica, Nápoles, 2023, p. 302.

[92] O. POLLICINO, Regolare l’intelligenza artificiale: la lunga via dei diritti fondamentali, cit., p. 35.

[93] O. CARAMASCHI, Il costituzionalismo al cospetto dell’intelligenza artificiale: nuove sfide, quali soluzioni?, cit., p. 35

[94] Ibidem.

[95] O. POLLICINO, Regolare l’intelligenza artificiale: la lunga via dei diritti fondamentali, cit., p. 35.

[96] El punto es subrayado, en particular, por F. DONATI, «Intelligenza artificiale e diritti fondamentali nel Regolamento sull’Intelligenza Artificiale», en O. POLLICINO – F. DONATI – G. FINOCCHIARO – F. PAOLUCCI (eds.), La disciplina dell’intelligenza artificiale, cit., pp. 61-62.

[97] En el tema, para todos, véase E. FALLETTI, Discriminazione algoritmica. Una prospettiva comparata, Giappichelli, Turín, 2022.

[98] Así A. PAPA, «Intelligenza artificiale e decisione pubblica», en Ead. (a cura di), La regolazione dell’intelligenza artificiale nei processi decisionali. Opportunità, rischi, bilanciamento, Editoriale Scientifica, Nápoles, 2024, p. 19.

[99] A. CARDONE, Decisione algoritmica vs. decisione politica, Editoriale Scientifica, Nápoles, 2021.

[100] Sobre la centralidad del principio de transparencia en el enfoque constitucionalista al “desafío” de la inteligencia artificial, véase en especial M. FASAN, Intelligenza artificiale e costituzionalismo contemporaneo. Principi, diritti e modelli in prospettiva comparata, Editoriale Scientifica, Nápoles, 2024, pp. 107 ss.

[101] En el tema, véase C. BENETAZZO, «Intelligenza artificiale e nuove forme di interazione tra cittadino e pubblica amministrazione», en Federalismi.it, 16/2020, pp. 24 ss.; P. ZUDDAS, Brevi note sulla trasparenza algoritmica, en Amministrazione in cammino, 5 de junio de 2020; P. OTRANTO, «Riflessioni in tema di decisioni amministrative, intelligenza artificiale e legalità», en Federalismi.it, 7/2021, pp. 187 ss.; más en general, sobre el papel de la IA en las decisiones públicas, véase A. SANTOSUOSSO – G. SARTOR, Decidere con l’IA. Intelligenze artificiali e naturali nel diritto, Il Mulino, Bolonia, 2024, en especial pp. 157 ss.

[102] Cfr., en particular, Consiglio di Stato, Sez. VI, sentencia 2 de enero de 2020, n. 30

[103] Cfr. R. RAZZANTE, «Il cammino dell’Intelligenza Artificiale tra discriminazione algoritmica e tutela dei diritti fondamentali», en Id. (ed.), L’algoritmo dell’uguaglianza. Intelligenza artificiale, diritti della persona, crescita delle imprese, Franco Angeli, Milán, 2025, pp. 101 ss.

[104] C. SCHEPISI, «La disciplina europea dell’intelligenza artificiale: un necessario equilibrio tra regolamentazione ex ante e bilanciamento ex post», en A. PAPA (ed.), La regolazione dell’intelligenza artificiale nei processi decisionali. Opportunità, rischi, bilanciamento, cit., p. 39.

[105] Ibídem. Véase también, en el tema, P. HELZEL – W. D’AVANZO – M. LEONETTI, «Sostenibilità e intelligenza artificiale: un connubio possibile, en U. COMITE – A. KOSTYUK (eds.), Sostenibilità e intelligenza artificiale: resilienza o panacea?, Cedam, Padua, 2025, en especial pp. 29 ss.

[106] C. SCHEPISI, La disciplina europea dell’intelligenza artificiale: un necessario equilibrio tra regolamentazione ex ante e bilanciamento ex post, cit., p. 43.

[107] Cfr. Tribunal de Justicia de la Unión Europea, 6 de octubre de 2020, C‑511/18, 512/18, 520/18

[108] C. SCHEPISI, La disciplina europea dell’intelligenza artificiale: un necessario equilibrio tra regolamentazione ex ante e bilanciamento ex post, cit., p. 46.

[109] A. FERRARI, «Il Parlamento nell’ecosistema digitale. Significato e implicazioni dell’uso dell’intelligenza artificiale nelle assemblee rappresentative», en D. DE LUNGO – G. RIZZONI (eds.), Le assemblee legislative nell’era dell’intelligenza artificiale. Profili costituzionali, cit., p. 61.

[110] G. RIZZONI, «Le applicazioni di IA in ambito parlamentare: una rassegna comparata», en D. DE LUNGO – G. RIZZONI (eds.), Le assemblee legislative nell’era dell’intelligenza artificiale. Profili costituzionali, cit., pp. 124 ss.

[111] A. CONZUTTI, «L’intelligenza artificiale come leva per rilanciare la funzione legislativa del Parlamento», en Osservatorio sulle fonti, 2/2025, p. 89.

[112] Ibid., p. 90.

[113] Cfr. E. LONGO, «Quanta intelligenza artificiale fa bene ai Parlamenti? Riflessioni intorno ai principali problemi connessi all’uso delle tecnologie digitali nell’esercizio della funzione legislativa», en D. DE LUNGO – G. RIZZONI (eds.), Le assemblee legislative nell’era dell’intelligenza artificiale. Profili costituzionali, cit., en especial pp. 168-169.

[114] Tema ya abordado por E. STRADELLA, «AI, tecnologie innovative e produzione normativa: opportunità e rischi», en DPCE online, 3/2020, pp. 3345 ss.

[115] M.E. PIEMONTESE (ed.), Il dovere costituzionale di farsi capire. A trent’anni dal Codice di stile, Carocci, Roma 2023.

[116] A. CONZUTTI, L’intelligenza artificiale come leva per rilanciare la funzione legislativa del Parlamento, cit., p. 104.

[117] Ibid.

[118] En el tema, véase más ampliamente P. BONACCI, «Prospettive e potenzialità del ricorso a strumenti di intelligenza artificiale nel quadro della decisione parlamentare di bilancio», en D. DE LUNGO – G. RIZZONI (eds.), Le assemblee legislative nell’era dell’intelligenza artificiale. Profili costituzionali, cit., pp. 191 ss

[119] A. CONZUTTI, L’intelligenza artificiale come leva per rilanciare la funzione legislativa del Parlamento, cit., pp. 98-99.

[120] A. FERRARI, Il Parlamento nell’ecosistema digitale. Significato e implicazioni dell’uso dell’intelligenza artificiale nelle assemblee rappresentative, cit., p. 62.

[121] Ibid., p. 63.

[122] De “riesgo epistocrático”, por ejemplo, habla P. F. BRESCIANI, «L’intelligenza artificiale in Parlamento: rischio epistocratico o potenziamento della democrazia?», en Federalismi.it, 3/2025, pp. 536 ss.

[123] C. Di Andrea, «L’intelligenza artificiale e le sfide per le amministrazioni parlamentar», en D. DE LUNGO – G. RIZZONI (ed.), Le assemblee legislative nell’era dell’intelligenza artificiale. Profili costituzionali, cit., p. 83.

[124] He abordado este aspecto también en A. LAMBERTI, «Introduzione ai lavori. La libertà di manifestazione del pensiero in trasformazione», en Rivista AIC, 3/2025, pp. 337 ss. y esp. pp. 344 ss.

[125] En tal sentido, interesantes reflexiones son ofrecidas por M. AINIS, Il regno dell’Uroboro. Benvenuti nell’epoca della solitudine di massa, La nave di Teseo, Milán, 2018, pp. 11-12: “aquí y hoy la cuestión dirimente ya no es garantizar la circulación de las ideas, sino su formación, su genuina concepción. Porque ya no somos libres de pensar nuestros propios pensamientos, he aquí el problema. Creemos que pensamos, pero en realidad repetimos como loros los pensamientos ajenos. O, en el límite, también los nuestros, pero amplificados y deformados, sin verificaciones, sin ningún contraste con las opiniones adversas. Es el universo autístico en el que estamos encerrados aunque en su mayor parte no lo advirtamos. Un universo tolemaico en el que el sol gira alrededor de la tierra – y cada uno de nosotros es la tierra”

[126] Sobre la indisponibilidad de la libertad moral y sobre la inconstitucionalidad de los mecanismos de “máquina de la verdad”, cfr. F. CIRILLO, «Neurodiritti: ambiguità della “libertà cognitiva” e prospettive di tutela», en Consulta Online, 2/2023, pp. 666 ss. y en especial pp. 682 ss.; Id., Neuroprivacy. Problemi teorici e prospettive costituzionali, Giappichelli, Turín, 2023, pp. 193 ss.

[127] M. IENCA – R. ANDORNO, A new category of human rights: Neurorights, BMC research in progress blog (26 de abril de 2017), disponible en el sitio: http://blogs.biomedcentral.com/bmcblog/2017/04/26/new-category-humanrights-%20neurorights/.

[128] Neuroderechos, cómo tutelar la esfera mental frente a las injerencias tecnológicas. La entrevista a Marcello Ienca, Fondazione Leonardo (https://www.fondazioneleonardo.com/videos/neurodiritti-tutelare-sfera-mentale-ingerenze-tecnologiche-marcello-ienca).

[129] Cfr. G. BELISARIO, «Nuovi diritti o diritti già esistenti?», en Federalismi.it, 6/2024, pp. 71-72.

[130] F. CIRILLO, Neurodiritti: ambiguità della “libertà cognitiva” e prospettive di tutela, cit., pp. 666 ss.

[131] Intervención del Presidente de la Autorità Garante per la Protezione dei Dati Personali, prof. PASQUALE STANZIONE, con ocasión del Congreso “Privacy e Neurodiritti: la persona al tempo delle neuroscienze”, Jornadas europeas de la protección de datos 2021, 28 de enero de 2021, disponible en el sitio: https://www.garanteprivacy.it/web/guest/home/docweb/-/docweb-display/docweb/9529600. De una evolución del due data process al neuro due process hablaba ya O. POLLICINO, «Costituzionalismo, privacy e neurodiritti», en Media Laws, 2/2021, pp. 9 ss. y en especial pp. 15-17.

[132] En el tema, cfr. al menos V. D’ANTONIO – G. SICA, «Neurodiritti e mental privacy: alla ricerca di un framework normativo», en V. D’ANTONIO (eds.), Diritti digitali, Francesco D’Amato Editore, Sant’Egidio del Monte Albino (SA), 2022, pp. 293 ss.

[133] Cfr. M. R. ALLEGRI, «Costituzionalizzare i neurodiritti?», Lettera AIC, 5/2023.

[134] Discurso del Santo Padre Francisco a la Curia romana con ocasión de los saludos navideños, 21 de diciembre de 2019. Reconstruye y evoca su sentido global, en la perspectiva de la nueva revolución técnica y de la consecuente necesidad de un enfoque ético hacia las tecnologías digitales y la inteligencia artificial, P. BENANTI, Introduzione a Digitale. Le parole di Francesco, AVE, Roma, 2025, pp. 3 ss.

[135] Cfr., sobre el punto, al menos M. C. CANATO, «La tutela dei diritti nel metaverso», en F. CASA – S. GAETANO – G. PASCALI (eds.), Intelligenza artificiale: diritto, etica, democrazia, Il Mulino, Bolonia, 2025, en especial pp. 98-99, quien evoca la necesidad de una “revitalización y valorización del acervo axiológico intrínseco a la Carta constitucional”, a través de un “ciber-constitucionalismo” que prevenga los abusos y garantice “que la expansión de lo digital se produzca en el respeto de la dignidad humana, de la igualdad y de la justicia social, contribuyendo a construir una sociedad virtual sostenible y bien regulada”

[136] G. GROSSI, La svolta del Tecnocene. Una nuova sociazione bio-tecno-sociale contro l’iperevoluzione digitale, Ombrecorte, Verona, 2023.

[137] S. RODOTÀ, Tecnologie e diritti, Il Mulino, Bolonia, 2021, p. 138.

[138] H. MARCUSE, One-Dimensional Man. Studies in the ideology of advanced industrial society, Routledge, Londres, 1964, pp. 3 ss.

[139] La referencia es al clásico de U. ECO, Apocalittici e integrati. Comunicazioni di massa e teorie della cultura di massa (1964), La Nave di Teseo, Milán, 2025. Contra, véase T. E. FROSINI, Apocalittici o integrati. La dimensione costituzionale della società digitale, Mucchi, Módena, 2021.

[140] Cfr. A. HUXLEY, Il mondo nuovo (1932), trad. it. Mondadori, Milán, 2021.