"ReDCE núm. 43. Enero-Junio de 2025"
|
|
Abordar la inteligencia artificial (en adelante IA) desde el Derecho constitucional ha dejado de ser un ejercicio de ficción jurídica, para pasar a ser una auténtica exigencia ante la profunda repercusión que está teniendo no solo a nivel social y económico[2], sino político y jurídico y, por tanto, en relación al marco constitucional vigente[3]; baste recordar, al respecto, la indebida utilización de softwares con sesgos discriminatorios en actividades públicas y de las que depende el reconocimiento y la garantía de los derechos de las personas[4], o el escándalo acontecido tras la instrumentación de las redes sociales por Cambridge Analytica y su torticera influencia en el voto y en la consiguiente formación de las mayorías democráticas con ocasión del referéndum del Brexit y la elección de Trump en 2016[5], por no hablar de la aún reciente anulación de las elecciones presidenciales de 2024 en Rumanía por su Tribunal Constitucional, al advertir injerencias externas mediante instrumentos digitales (TikTok)[6]. Esto constata el impacto de la IA en los procesos democráticos; y no únicamente desde el carácter disruptivo con el que la IA se nos presenta con carácter general, sino también con relación a cierta distopía que a su vez cabe advertirse desde hace tiempo en torno a la IA y al poder[7].
Muestra de la preocupación que la IA ya está generando precisamente respecto de los procesos democráticos en Europa son los recientes Reglamento de Inteligencia Artificial (en adelante RIA) y Convenio Marco de Inteligencia Artificial (en adelante CMIA)[8], pues en ambos casos la democracia pluralista (entendida como aquella que desde la segunda mitad del siglo pasado se ha venido desarrollando desde Europa a la luz de la Constitución normativa y del reconocimiento y la garantía del pluralismo político y de las minorías) se presenta como objeto expreso de protección jurídica ante la IA (arts. 1.1 RIA y 1.1 CMIA)[9]. Ahora bien, ninguno de estos dos instrumentos supone una ordenación jurídica plena del impacto que la IA está produciendo a nivel constitucional, y de ahí, entonces, la conveniencia de seguir reflexionando sobre dicha situación, a fin de alcanzar una comprensión crítica y adecuada de su régimen constitucional; y esto, claro, más allá del análisis del RIA y del CMIA, además de otros instrumentos también relevantes en Europa, como son el Reglamento General de Protección de Datos (en adelante RGPD) y el Reglamento de Servicios Digitales (en adelante RSD)[10], y sin perjuicio de que la IA requiera, en efecto, de una perspectiva jurídica tendencialmente supranacional, e incluso internacional.
Afrontar así la incidencia de la IA al respecto del vigente marco constitucional y democrático supone concebir la IA como objeto constitucional. Pero esto se plantea, de ordinario, en cuanto que tecnología que afecta a contenidos tradicionales del Derecho constitucional y, en particular, dado que instrumento de control y dominio de unas personas por otras[11]; y ello, advertimos, a modo de elemento extraño al sistema constitucional y democrático, al incidir la IA desde fuera de él. Otra cosa es si consideramos la IA como factor de poder, pues el poder es, por antonomasia, objeto del Derecho constitucional; y entonces, ahora sí, que la IA quepa considerarse como objeto constitucional por ella misma, independientemente de cómo se proyecte o incida en los referidos contenidos constitucionales. Esto, entiendo, no es irrelevante, pues una comprensión de la IA originariamente constitucional permite una mayor amplitud de miras no solo a la hora de abordar su impacto en los procesos democráticos, sino también en relación con los problemas que ello supone a nivel constitucional y, especialmente, cómo atenderlos. Por otra parte, y al respecto de la propia conceptualización de la IA, además de referirnos a los sistemas informáticos que evalúan información con cierta autonomía y capacidad de aprendizaje e inferencia[12], esta cabe entenderse de una forma más abierta, compleja y hasta institucionalizada, de manera que por IA se comprenda toda “una serie de prácticas técnicas y sociales; es instituciones e infraestructuras, política y cultura” (Crawford)[13]. Precisamente esta segunda consideración de la IA entronca directamente con esa referida condición de factor de poder, y al hilo de ello, entonces, como elemento de por sí relevante en los procesos democrático-pluralistas. No en vano, fenómenos e incidencias que afectan a las personas, a los grupos y a las minorías acaban afectando también a la democracia pluralista, al igual que aquellas que inciden y adulteran la democracia asimismo terminan por influir, incluso perjudicar, a las personas y a los grupos y minorías en los que estas se integran. De este modo acontece, precisamente, en relación con la IA. La persona toma contacto con la IA, además de con ocasión de sus derechos fundamentales, desde la forma democrática de cómo se organizan sus relaciones con otros sujetos y el poder; y por esto, que la IA no sea entonces únicamente objeto del Derecho constitucional, de su régimen, en cuanto a los derechos fundamentales, sino también con relación al propio sistema democrático del que estos dependen. Y es que la ordenación democrático-pluralista del poder público responde hoy no solo a su organización, de manera tal que la persona quede efectivamente en su centro como sujeto activo y titular del mismo (arts. 1.1, 1.2 y 10.1 CE), sino también a su garantía mediante la limitación de las mayorías y de su propia conformación al respecto del poder público; mas con ello, quedan fuera manifestaciones privadas del poder, lo que obviamente excluiría a las grandes empresas que hoy controlan el desarrollo, uso y comercialización de la IA, a pesar del efectivo poder que ejercen frente a las personas (según se venga luego a ver).
Advertida así la huella que la IA está causando en el sistema constitucional y democrático, y a su sombra la necesidad de analizar críticamente dicho impacto, quedaría por plantearse qué respuestas caben desde el Derecho constitucional; y esto tanto en relación con la contención de los efectos más negativos de la IA (conforme se ha adelantado), como a sus posibles resultados positivos a nivel político y jurídico. A este fin, entonces, proponemos analizar en las siguientes páginas: primero, la incidencia subjetiva de la IA en los derechos fundamentales y en las libertades políticas; después, los efectos objetivos de la IA en la conformación de la opinión pública, las elecciones y los referéndums; luego, las transformaciones que al respecto de los procesos democráticos se advierten a la luz de la IA; y, al hilo de lo anterior, cómo proteger entonces la democracia ante la IA y mediante ella misma. Pero también, finalmente, plantearemos unas reflexiones críticas sobre hasta qué punto la IA está efectivamente incidiendo en la democracia, a tenor de la propia crisis que se advierte en esta desde hace años.
Aunque las vigentes constituciones europeas todavía mantienen silencio expreso sobre la IA, sí que ofrecen una regulación sobre cuestiones básicas, directa e indirectamente relacionadas con ella; y esto, en especial, en lo que respecta a la consideración de la IA como actividad humana y producto tecnológico, que genera riesgos para las personas. En este sentido, tendríamos en primer lugar los derechos fundamentales a la creación científica y técnica (en cuanto que auténtico motor y base de la IA, al ser esta objeto de aquella)[14], así como el derecho a la propiedad privada, junto con la libertad de empresa (así, los arts. 20.1.c, 33 y 38 CE)[15]. Todo ello a modo de marco jurídico básico y primario, que permite no solo la aparición e innovación de la IA (y su ulterior desarrollo tecnológico), sino también su explotación y uso conforme al modelo económico liberal en el que se encuadran dichos derechos. Esto, lejos de ser baladí para estas páginas, resulta esencial al respecto del impacto de la IA en los procesos democráticos, pues no solo se da en cuanto a la IA como tal (en tanto que tecnología), sino también en el modo en el que progresa en un contexto de mercado. A su vez, y al respecto de la doble dimensión que cabe reconocer en los derechos —siguiendo a Zagrebelsky— según correspondan a sujetos en situación de ventaja social y económica frente a otros[16], los derechos de los primeros acaban por dar cobertura a relaciones de preeminencia de estos sobre los segundos, tal como finalmente se advierte en el caso de las grandes tecnológicas digitales frente al resto de la ciudadanía, ante la marcada asimetría entre ambos[17].
Esta relación asimétrica nos lleva, a su vez, al conflicto que efectivamente se da entre la IA y el resto de los derechos fundamentales y las libertades públicas. Así, y solo en relación a los derechos y libertades de carácter político, baste referirnos a la utilización torticera de las IA en los procesos electorales y referendarios (conforme se ha adelantado al comienzo de estas páginas), que afectan directamente al ejercicio de los derechos de sufragio y participación[18], pero también a otras situaciones como son los casos de: las IA que entran en la intimidad de las personas acopiando sus datos, en especial aquellos de dimensión política[19], sin el consentimiento de las personas afectadas y a fin luego de su perfilización[20] e instrumentación, directa o indirecta, en los procesos democráticos[21]; las IA con sesgos discriminatorios[22] e igualmente usadas en procesos democráticos; las IA capaces de tergiversar la ideología de los individuos mediante su manipulación directa o indirecta, afectando así a su libertad ideológica o de pensamiento[23]; las IA que coartan la libertad de expresión al ser capaces de restringir ciertas manifestaciones[24], así como otras que llegan incluso a conformarlas[25] y hacerlas mayoritarias a modo de “realidad aumentada”[26]; las IA que alteran la información veraz a través de algoritmos capaces de perturbar el libre y plural debate público[27]; las IA supuestamente aptas para advertir emociones y conductas[28], usadas luego para evaluar a las personas en los debates políticos; las IA que recrean imágenes artificiales de personas con fines políticos[29]; e, incluso, las IA que permiten la identificación y vigilancia de personas, controlando así reuniones y manifestaciones[30]. Y, al hilo de esto último, cabe añadir que la mera vigilancia mediante sistemas de IA de la ciudadanía, tanto por sujetos públicos como por privados (de imperio y capitalismo de la vigilancia se llega a hablar)[31], genera un riesgo de desaliento en el ejercicio de los derechos fundamentales y libertades públicas de naturaleza política y participativa, lo que obviamente redunda negativamente no solo al respecto de un adecuado ejercicio de tales derechos, sino en el normal funcionamiento de los procesos democráticos[32]. De ello nos advirtió hace años el Tribunal Constitucional alemán en su Sentencia de 15 de diciembre 1983, cuando, en relación con los datos del censo, alertó ya del efecto disuasorio que un control sobre los datos personales digitalizados podría generar en las personas a la hora de ejercer sus derechos, al verse estas mediatizadas en su libertad al saberse (o meramente suponer) controladas por terceros, sean públicos o privados; no en vano, tal control bien pudiera estar destinado a evitar determinadas manifestaciones públicas[33].
Naturalmente, la anterior reflexión al respecto de algunos de los derechos y libertades señalados es trasladable al ámbito de los miembros de los parlamentos y sus específicos derechos de representación política, en tanto que protagonistas (o víctimas) de actuaciones mediante IA que puedan afectarles negativamente. Así, por ejemplo —y más allá, claro, de los resultados electorales tras procesos manipulados por IA—, tenemos desde las IA que condicionan o limitan las libertades de aquellos, hasta otras que arrojan o simulan falsedades sobre los mismos, e incluso son usadas para entrar en su intimidad o reconocer emociones y su ulterior valoración pública.
Visto cómo la IA puede afectar subjetivamente a los derechos y, en particular, a los de participación política, procede ahora ver cómo esta puede incidir objetivamente en los procesos democráticos que se desarrollan en el espacio público, en especial al respecto de la formación de la opinión pública, como ocurre en las elecciones y los referéndums. Pero antes, permítasenos advertir la diversa incidencia de la IA en tales procesos democráticos, según que dependa de su propia capacidad disruptiva en los mismos —y por tanto de su simple condición y características tecnológicas— o bien dependa de cómo es instrumentada por terceros, sea con el fin de adulterar aquellos, o simplemente como consecuencia eventual de su actividad ordinaria. Y es que, al margen de cómo tal distinción influya luego a la hora de analizar la protección de la democracia ante la IA, redunda también, entendemos, en su contextualización, régimen jurídico general y (conforme se verá en el siguiente apartado) en su propia caracterización.
Sobre lo primero, y al margen de la relación que, a su vez cabe entre opinión pública, elecciones representativas y referéndums, lo cierto es que, desde hace tiempo la conformación de la primera viene dándose en el contexto de una sociedad que, si bien no es enteramente digital, sí es al menos híbrida. Desde tal contexto, la opinión pública ha dejado de depender de los tradicionales canales y medios de comunicación analógicos, para pasar a desarrollarse a través del complejo tejido de medios y redes sociales que pueblan un Internet en el que propio público participa activamente tanto a la hora de buscar y seleccionar información, como de su propia elaboración[34]. Por ello, en principio, y desde la constatación de que el medio sigue siendo el mensaje (Arjona Sánchez)[35], la conformación de la opinión pública ha pasado a depender de una tecnología que permite relaciones onnicéntricas y, a la vez, multilaterales[36], de forma que la tradicional intermediación realizada por los medios entre instituciones públicas, partidos y ciudadanos a fin de conformar la discusión político-pública ha acabado siendo superada[37]. Sin embargo, se advierte cómo dicha conformación digital lejos de haber quedado efectivamente en manos de la ciudadanía, ha pasado a depender tecnológica y económicamente, de nuevos actores globales: las grandes compañías tecnológicas-digitales; y de ahí, entonces, la necesidad de garantizar jurídicamente la neutralidad de la red informática en su conjunto[38]; y en un nuevo salto cuantitativo y cualitativo, al tiempo, la utilización actual de la IA en la propia conformación de las relaciones comunicativas que se dan en Internet. Tanto al momento de buscar información, como al de recibirla por parte de terceros, la comunicación digital no solo ha dejado de ser controlada por las propias personas —al depender éstas de las referidas empresas digitales que atesoran medios digitales e información—, sino que ha pasado a verse condicionada precisamente por las IA que dichas empresas utilizan en la canalización y flujo de la información (potenciando unas sobre otras), lo que termina por afectar la propia construcción plural de la opinión pública; es más, tales IA son capaces hasta de orientar la búsqueda de información por la ciudadanía a partir de los datos que recopila de ella[39]. Las referidas relaciones onnicéntricas y respectivamente multilaterales que, en principio, permite Internet —ampliando la actuación política de las personas[40]—, se han visto de esta forma subordinadas e intermediadas por algoritmos que limitan tanto nuestra búsqueda y recepción de información como la exteriorización digital de la que producimos. Con ello nuestra capacidad efectiva de participar en el debate público se ve efectivamente constreñida, manipulada por las IA que delimitan y adulteran la canalización digital de la información pública (Balaguer Callejón)[41].
Pero la participación de la IA en la formación de la opinión pública va todavía más lejos, pues hoy la propia IA, recuérdese, produce, con mayor o menor autonomía, contenidos digitales artificiales. En tal sentido, la irrupción de la IA generativa permite elaborar ya textos, audios, imágenes y videos artificiales que bien pueden utilizarse en la comunicación pública digital[42] y, por tanto, en la creación colectiva de la opinión pública[43]. Sin más, piénsese en la redacción de noticias que ulteriormente son publicadas por periódicos y medios digitales, así como en la confección de mensajes en videos y audios relativos a sujetos políticos para ser publicados y comunicados en la red. Y, en un salto más, el uso de bots, regando la red de contenidos artificiales (aun ciertos) destinados a influir en la formación de la opinión pública.
En cuanto a la incidencia de la IA en los procesos electorales y referendarios, y al margen de que lo anteriormente referido sobre la opinión pública sea también aplicable a estos casos (sin perjuicio, claro está, de la mayor intensidad que ello provoque ahora en el sistema democrático, dada la extraordinaria relevancia de los procesos electorales y referendarios en el mismo), particular atención nos merece el uso de las IA en el diseño y en la implementación de las campañas políticas con las que captar los votos en elecciones y referéndums[44]. No en vano, y más allá del componente estrictamente ideológico de aquellas, en manos de los propios partidos políticos (así como de otros grupos y asociaciones que puedan intervenir), lo cierto es que hoy tales campañas son confeccionadas por empresas, asesores externos y consultores (compañías de comunicación política) que, a partir de la evaluación de información social, cultural, política, económica, etc., delinean estrategias comunicativas a seguir por los actores políticos que las contratan; y al hilo de tal evaluación de información, que aumente exponencialmente la eficacia a la hora de captar la atención de los votantes, al usarse aquellas IA capaces de trabajar con ingentes cantidades de datos, incluidos los relativos a los de los propios votantes.
Con todo, muy posiblemente la mayor incidencia que hoy provoca la IA en relación con la formación de la opinión pública, como al respecto de los procesos electorales, deriva simplemente de cómo las grandes plataformas digitales sociales favorecen el enfrentamiento político en su seno como medio de obtención de más datos personales (Balaguer Callejón)[45]. No en vano, son los datos personales la gran fuente de riqueza de aquellas (Hoffmann-Riem)[46], a la par que es en los enfrentamientos cuando más interacciones subjetivas se dan y más datos se recolectan; y esto, al amparo abstracto del conflicto que, de forma natural, produce el pluralismo. De este modo, y junto a cierta desafección democrática que se detecta desde hace tiempo[47], tal enfrentamiento resulta artificialmente potenciado por dichas IA a fin de captar más datos (según se ha apuntado), lo que a su vez acaba favoreciendo posiciones extremas en el debate público (ya que estas generan más conflicto y así más datos), a la vez que se obstaculizan los mecanismos del diálogo social y político[48]. Sin duda, toda una tormenta perfecta para el pluralismo político en Europa[49], aprovechada al tiempo por populismos y movimientos iliberales en su avance; de “populismo digital” se llega entonces a hablar (Barberis)[50]. Sin embargo, tal incidencia, aun siendo muy grave para la formación de la opinión pública —al fomentar el enfrentamiento y distorsionar su conformación natural—, puede considerarse meramente eventual y colateral, pues las referidas plataformas no tienen como fin directo tal distorsión, sin perjuicio, eso sí, de que acaben aceptándola. Y de otro lado, se advierta cómo, a la hora evaluar dicha incidencia de la IA en el debate público, esta no dependa tanto de la IA como tecnología en sí, sino del modelo económico en el que se inserta y desarrolla la IA (según ya se ha apuntado).
También en este ámbito de simple eventualidad, y en relación ahora a los propios procesos electorales, las IA usadas por las grandes compañías en la intermediación de la información en Internet acaban alcanzando relevancia al respecto; no en vano, ya se ha señalado cierta correlación entre resultados electorales y resultados de búsquedas de motores en Internet en relación con tales procesos[51].
Cuestión distinta es cuando la IA, de muy diferentes formas, es ahora directa y dolosamente utilizada para alterar el modo natural de formación de la opinión pública y, en particular, los procedimientos electorales y referendarios; e incluso, en un paso más, como forma híbrida de intervención por Estados extranjeros en el normal desarrollo democrático interno (como es el caso de Rusia en los Estados miembros de la Unión Europea). Dejando en este momento a un lado este último supuesto (por su conexión con la seguridad nacional y la defensa, según se verá), ciertamente son muy diversas las IA y maneras con las que sujetos interesados intervienen en los referidos procesos democráticos a fin de adulterar conscientemente el libre y ordinario desenvolvimiento de la voluntad democrática. En este sentido, y al hilo de la propagación en estos años de la desinformación y de la mentira (a modo de posverdad) en la discusión pública a fin de alcanzar determinados resultados en esta[52] —especialmente con ocasión de los procesos electorales[53]—, la ya mencionada IA generativa, con su capacidad en pleno progreso y evolución para elaborar imágenes, videos y audios, se está advirtiendo como uno de los mayores retos para la democracia hoy y en el futuro. Y es que la potencialidad de la IA generativa para conseguir artificialmente contenidos artificialmente reales es tal, que difícilmente va a permitir no solo poder distinguir adecuadamente lo artificial de lo auténtico por la ciudadanía, sino la propia realidad de la mentira; sin duda un grandísimo desafío para los procesos democráticos, ante la posibilidad de que imágenes, videos y audios falsos sean utilizados maliciosamente para alterar la normal formación de la opinión pública, así como el desarrollo de los procedimientos electorales y referendarios, además de la desconfianza que, de manera abstracta, crece al respecto de la propia realidad[54]. Consecuentemente la verdad en democracia, aun en su dimensión más formal o procedimental, es que se encuentre ya en crisis[55].
También como forma objetiva, directa y dolosa de alteración de la opinión pública, y de los procedimientos electorales y referendarios, se encuentran diversas incidencias subjetivas de las IA referidas en el apartado anterior, al respecto de la vulneración de los derechos fundamentales y libertades políticas; y es que más allá del ataque que tales IA suponen para las concretas personas que han visto vulnerados sus derechos por aquellas, está la agresión propia y objetiva a los procesos democráticos en los que estos se desarrollan. De tal modo, por ejemplo, encontramos la monitorización mediante IA de la comunicación pública —en sentido amplio— que se da entre las personas (redes sociales, blogs, etc.) mediante el rastreo y acopio de los datos personales que en tal comunicación digital se producen, a fin de perfilarlas a nivel político y luego transmitirles mensajes concretos con los que incidir en la opinión política; e incluso, esto último, a través de otras IA con las que manipular e influir de manera subliminal en la ciudadanía[56]. O, como se ha adelantado, el control —ahora, mediante las IA destinadas a la identificación biométrica de personas— de actos públicos de relevancia política a fin de fomentar directamente, la retracción y el desaliento de la ciudadanía respecto de determinadas cuestiones de índole política, de manera que su impacto quede o resulte minimizado[57].
Conforme se ha señalado, los procesos democráticos han surgido, se han consolidado y se han desarrollado en un contexto analógico ampliamente superado por una digitalización con la que las nuevas tecnologías y los sujetos han venido a intermediar en las relaciones entre ciudadanos, partidos, medios y poderes públicos. Pero, al mismo tiempo, la IA ha alterado dicha transformación digital, pues no se trata solo de una catalización de la intermediación de dichas relaciones por parte de dichos sujetos a través de la IA, sino de cómo las propias preferencias políticas de las personas comienzan a quedar bajo la acción predictiva y persuasiva de esta.
Concretando en la formación de la opinión pública, esta se presenta hoy diversa de aquella esfera pública que fue motor de las sociedades abiertas propias de las democracias constitucionales de la segunda mitad del siglo pasado en Europa[58]. Sin entrar en las IA específicamente destinadas a tergiversar la libre formación de la opinión pública (mediante la desinformación, la infoxicación, el astroturfing, el firehosing, la tergiversación de la realidad, y las falsificaciones superficiales como las ultra falsedades)[59], sino como mero efecto colateral y eventual de su uso (según lo apuntado en el anterior apartado), la realidad es que el diálogo libre entre ciudadanas y ciudadanos, su comunicación con los poderes y la intermediación ordenada desarrollada por los medios al respecto están ahora delimitados por unas IA supuestamente eficientes en la comunicación plural, pero más obedientes a los intereses de las empresas que las utilizan, además de carentes de transparencia en su funcionamiento[60]. Pero también, y más allá de la mera amplificación tecnológica y artificial de las deficiencias que pudieran advertirse anteriormente, las relaciones políticas de la ciudadanía quedan, a su vez, bajo la intervención distorsionadora de la IA. Los individuos, bajo unas relaciones terciadas ahora por esta, tienden a integrarse digitalmente en grupos que, a la par que se identifican y refuerzan ideológicamente a nivel interno, se enfrentan a los otros[61]. La comunicación y el debate, así, resultan en mero enjambre digital[62], pues la confrontación y el conflicto natural de las sociedades plurales se ven ahora engrandecidos y amplificados en una disputa permanente que obstaculiza los acuerdos necesarios que venían alimentando las democracias liberales; además se promueven burbujas grupales (o cámaras de eco)[63] que expulsan “lo distinto” del debate[64] y reducen finalmente el propio pluralismo[65]. La esfera pública queda entonces fraccionada en las referidas burbujas, las cuales vienen, en vez de a suscitar diálogo, a dificultarlo: por tanto, enfrentamiento ante el diálogo, ruptura frente al acuerdo, y hasta antipolítica sustituyendo a la misma política.
En cuanto a las campañas electorales actuales, y respecto a cómo la IA está incidiendo en los procesos electorales y referendarios, estas ciertamente suponen una amplificación de lo anteriormente expuesto. Al margen de que, en la actualidad, dichos procesos políticos se dan cada poco tiempo, hasta el punto de que llega a confundirse la formación ordinaria de la opinión pública con su conformación electoral[66], el diseño de las estrategias electorales —de por sí frentistas, ya que destinadas a captar votos, por un lado, a la par que a relegar a otros, por otro— tiende a acentuar aún más el conflicto y la polarización[67]; y con esto, y a la sombra también de la aparición en el tablero político de nuevos partidos populistas e iliberales, emerge una dificultad cada vez mayor —sobre todo en sistemas de representación proporcional— para alcanzar mayorías adecuadas que permitan luego gobernar[68].
Y respecto a las consultoras y empresas de comunicación que desde hace tiempo proyectan y dirigen dichas campañas electorales, y usan potentes IA predictivas capaces de analizar las preferencias políticas de individuos y grupos[69], efectivamente pueden diseñar estrategias comunicacionales destinadas tanto a captar el voto de aquellos, como a su disuasión (en su caso); y ello, incluso, mediante la remisión digital y profusa de publicidad y contenidos específicos a individuos y grupos según sus referidas preferencias (microsegmentación), con el fin de lograr dicha captación y/o disuasión electoral, aumentando de manera exponencial la eficiencia de la propaganda electoral[70]. Así, tales IA ofrecen ventajas competitivas a aquellos partidos y grupos que las utilicen en procesos electorales y referendarios; e incluso, que el valor comercial de dichas consultoras dependa precisamente de las IA con las que trabajan, así como de las bases de datos que utilicen. Naturalmente, si con ello no se rompe cierto equilibrio, equidad e integridad electoral, sí que lo dificulta[71], además de suponer un mayor peso de los medios tecnológicos en los procesos electorales y referendarios, a la par que una mayor dependencia respecto de sujetos y actores digitales[72].
También, y no menos importante, es cómo todo lo anterior está influyendo de manera concreta y negativa en los procesos referendarios en un momento en el que, para reactivar la democracia, se ha estado reclamando una mayor participación directa de la ciudadanía[73]. Aunque la tecnología digital puede auxiliar, precisamente, en la participación ciudadana[74], el uso de la IA en la formación de la opinión pública (en general) y en los procesos referendarios (en especial) se está mostrando muy problemático, dada la tendencia frentista y polarizante que esta promueve (según lo visto). Los referéndums, no se olvide, son de por sí ya excluyentes, además de ser más influenciables que las elecciones (de ahí la tradicional prevención sobre tales mecanismos frente las fórmulas representativas), lo que se ve a su vez amplificado a la sombra de cómo la IA fomenta el conflicto. De esta forma, la señalada reclamación de una mayor participación política y directa de la ciudadanía se ve cada vez más contestada, a tenor de los nuevos riesgos que la IA está generando[75].
Para finalizar, el modo en que la IA está incidiendo en los procesos democráticos acaba por afectar, asimismo, al funcionamiento de los parlamentos y, en especial, al respecto de su conformación, debate y toma de acuerdos. Al margen de cómo hoy la agenda política y de gobierno queda sometida al impulso del debate público en esas redes sociales intermediadas por la IA[76], lo cierto es que la relación entre la esfera pública y la actividad parlamentaria en las señaladas sociedades abiertas resulta igualmente afectada como consecuencia de la IA. Y es que la polarización, el fraccionamiento y el antagonismo de las redes, al influjo de tal IA, acaban por alcanzar a los mismos parlamentos, de modo que estos terminan reflejando no pocos destellos de aquellas. Si las asambleas parlamentarias pasaron de ser, en gran medida, lugares de debate y acuerdos, para convertirse, al tiempo, en centros de control público de las mayorías que gobiernan por parte de las minorías que ejercen oposición política, hoy, cada vez más, se asemejan a meros decorados para provocativos mensajes en las redes sociales, con los que conseguir rápidos likes de una ciudadanía más pendiente del móvil y de impactantes contenidos digitales, que de los tradicionales medios de información[77]. Es así como la propia centralidad política e ideológica del parlamento parece verse desplazada por una neocentralidad difusa, ahora de tales redes sociales en Internet; pero no como medio y espacio virtual de auténtica confrontación pública de las ideas políticas y de participación en la cosa pública, sino como simple escenario de réplicas iracundas al contrario político.
Además, no debe olvidarse la propia incidencia de las nuevas tecnologías digitales en la función representativa que ejercen los miembros de las asambleas parlamentarias[78], al promover una mayor relación directa entre estos y la ciudadanía[79]. Pero, con ello, y a la sombra de la afectación de los derechos de participación política de aquellos por el uso torticero de la IA (mediante el acoso y la violencia política)[80], surge la posibilidad de su instrumentación a fin de condicionar y/o alterar la propia y normal formación de las mayorías parlamentarias; y ahora, por otra parte, sin que las clásicas prerrogativas parlamentarias sean capaces de proteger adecuadamente dichos procesos, pues los ataques ya no vienen de los otros poderes públicos (tal como aconteciera en el pasado), sino de una sociedad civil digitalmente empoderada[81].
Visto lo anterior, llega el momento de preguntarnos cómo proteger los referidos procesos democráticos ante la IA. Con este fin, creemos oportuno seguir el esquema del análisis llevado a cabo hasta ahora, comenzando primero por la protección directa de los derechos y las libertades políticas frente a la IA, para luego ir aproximándonos a la protección de la formación de la opinión pública y de los procesos electorales y referendarios en relación con ella; y esto, además, distinguiendo según que la incidencia de la IA en dichos procesos resulte como un simple, pero peligroso, efecto colateral, o bien se haya pretendido expresa y torticeramente. Por último, también nos plantearemos la posibilidad de considerar la propia IA como respuesta ante el influjo que esta ejerce sobre los procesos democráticos.
5.1. La protección directa de los derechos y las libertades políticas ante la IA
En cuanto a lo primero, y ante el silencio generalizado aún de la IA a nivel constitucional, se plantea la posibilidad de positivizar nuevos derechos. Desde tal perspectiva, cabría plantearse nuevos derechos digitales (en línea con los recogidos en el Tít. X de la Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales, además de la ulterior Carta de Derechos Digitales, de 14 de julio de 2021)[82], como los más específicos neuroderechos, referidos expresamente a la libertad para controlar nuestra propia conciencia frente actuaciones externas suscitadas por la IA (como la libertad cognitiva, además de la privacidad e integridad mental) y, en particular, respecto de aquellas capaces de afectar, directa o indirectamente, nuestra libertad de pensamiento y libre albedrío[83], entroncando así con el resto de nuestras libertades políticas. Sin perjuicio de que dichos derechos sean realmente auténticos nuevos derechos, o bien meras especificaciones de otros ya existentes, cabe plantearse si, al tiempo, aquellos efectivamente pueden decantarse como derechos o libertades autónomos[84], tal como ocurrió con la libertad informática frente la protección constitucional de la intimidad ante la informática (art. 18.4 CE)[85]. Al hilo de esto último, cabe ya advertir algunos derechos específicos ante la IA, especialmente en lo relativo a la protección de datos, tratamientos y decisiones automatizadas en relación: a la obtención de información sobre tratamientos automatizados de datos personales propios (art. 15.1.h RGPD)[86]; a no ser objeto de decisiones basadas únicamente en tratamientos automatizados (incluida la elaboración de perfiles) que produzcan efectos jurídicos o afecten significativamente (art. 22.1 RGPD)[87]; o, y simplemente, a que no se puedan recolectar datos personales de carácter político (art. 9.1 RGPD)[88], en especial para su ulterior perfilización y uso en los procesos electorales (STC 76/2019, de 22 de mayo)[89], y, por tanto, a que se limite el tratamiento realizado sobre dichos datos (art. 18.1.b RGPD)[90]. También debe hacerse referencia al Reglamento (UE) 2024/900 del Parlamento Europeo y del Consejo, de 13 de marzo de 2024, sobre transparencia y segmentación en la publicidad política, conforme al cual se condiciona de manera estricta la segmentación o técnicas de entrega de anuncios que impliquen el tratamiento de datos personales en el contexto de la publicidad política en línea (art. 18.1)[91].
Respecto a la obligación actual de los poderes públicos de proteger de manera efectiva los derechos y libertades políticas — como manifestación objetiva de los mismos —, aquellos deben, a fin de promover tal protección[92], intervenir, como poco, en el devenir de la IA, estableciendo restricciones a la misma, a la vez que esbozar un sistema amplio y complejo de tutela jurídica y tecnológica de los derechos fundamentales[93]. No en vano, un principio jurídico clásico con relación al progreso tecnológico y su limitación, como es el de responsabilidad (Jonas)[94], se construyó precisamente al amparo de la dignidad de la persona (art. 10.1 CE)[95]. Esto, a su vez, entronca hoy con la protección de los derechos fundamentales frente a otros particulares en el ámbito digital[96], especialmente ante aquellos que ostentan —como acontece con la IA, según lo referido— una situación de superioridad frente a otros. Incluso cabe especular directamente con la dimensión horizontal de dichos derechos en la relación con la IA[97], de modo que los particulares queden sujetos, al menos, a algunos de tales derechos[98].
Al hilo de lo anterior, se advierte en el Derecho europeo cierta tendencia hacia una mayor responsabilidad de los particulares ante el riesgo que generan, así como a su sometimiento a mayores obligaciones con el fin de evitar la materialización de dicho riesgo[99]. Esto acaba conectando con la sociedad del riesgo, a la que el progreso tecnológico ha dado lugar, con la integración del riesgo en nuestros sistemas jurídicos[100] y con el conflicto inmanente que termina dándose entre una IA controlada por auténticos poderes privados y unos derechos y libertades que se ven y se sienten efectivamente amenazados por una tecnología que es utilizada tanto por privados como por poderes públicos para el control de las personas, como de su gobierno. Sobre esta dimensión del riesgo respecto a los derechos pivota precisamente el diseño del Reglamento de Inteligencia Artificial (RIA)[101] y, a su luz, la prohibición de ciertas IA capaces de generar un riesgo inasumible para los derechos fundamentales, así como el establecimiento de un régimen diversificado de limitaciones y obligaciones al respecto de otras IA, según el mayor o menor riesgo que representen para dichos derechos[102]. Así, dentro de las IA prohibidas —y al respecto de estas páginas— están: las IA que se sirvan “de técnicas subliminales que trasciendan la conciencia de una persona o de técnicas deliberadamente manipuladoras o engañosas con el objetivo o el efecto de alterar de manera sustancial el comportamiento de una persona o un colectivo de personas”, pero siempre que sean capaces de mermar “de manera apreciable su capacidad para tomar una decisión informada y haciendo que tomen una decisión que de otro modo no habrían tomado, de modo que provoque, o sea razonablemente probable que provoque, perjuicios considerables a esa persona, a otra persona o a un colectivo de personas” (art. 5.1.a)[103], lo cual plantea dudas sobre su aplicación en relación con los procesos democráticos, dada la exigencia —e incerteza —de los referidos “perjuicios considerables”, además de la merma apreciable de la capacidad; las IA que exploten “vulnerabilidades de una persona física o un determinado colectivo de personas derivadas de su edad o discapacidad, o de una situación social o económica específica, con la finalidad o el efecto de alterar de manera sustancial el comportamiento de dicha persona o de una persona que pertenezca a dicho colectivo de un modo”, siempre que también provoquen, o sea razonablemente probable que provoquen, “perjuicios considerables a esa persona o a otra” (art. 5.1.b)[104], lo que genera dudas similares al anterior supuesto; las IA capaces, asimismo, de inferir “emociones de una persona física”, pero únicamente en lugares de trabajo y en centros educativos (art. 5.1.f)[105], por lo que tal prohibición no alcanza la intervención de la IA al respecto de los procesos democráticos vistos; las IA “de categorización biométrica que clasifiquen individualmente a las personas físicas sobre la base de sus datos biométricos para deducir o inferir su raza, opiniones políticas, afiliación sindical, convicciones religiosas o filosóficas, vida sexual u orientación sexual” (art. 5.1.g)[106], lo que, obviamente, puede afectar a los derechos y libertades políticas; e IA de identificación biométrica remota en espacios de acceso público tanto “en tiempo real” (art. 5.1.h ss.), como en diferido (art. 26.10)[107], por cuanto que los supuestos que excepcionan en ningún caso justificarían —entiendo— la identificación ideológica de las personas, y especialmente a la sombra del efecto de desaliento que pueden originar[108], sin perjuicio, claro está, de la excepción genérica del propio RIA en materia de seguridad nacional y defensa (art. 2.3)[109].
Y en cuanto a las IA que suponen un grave riesgo —aunque asumible—, para los derechos fundamentales, y que están sometidas a un régimen jurídico bastante intenso de limitaciones y obligaciones[110], se consideran —en consecuencia— expresamente como sistemas de IA de alto riesgo (a los efectos del art. 6.2 RIA) los destinados genéricamente “a ser utilizados para influir en el resultado de una elección o referéndum o en el comportamiento electoral de personas físicas que ejerzan su derecho de voto en elecciones o referendos” (lo cual debería haberse prohibido, sin más), si bien se excluyen de tal régimen aquellos cuyos “resultados de salida no estén directamente expuestos las personas físicas, como[son] las herramientas utilizadas para organizar, optimizar o estructurar campañas políticas desde un punto de vista administrativo o logístico” (Anexo III.8.b)[111]. Por último, están las IA fundacionales o de uso general, capaces de realizar un amplio marco de tareas, incluyendo cometidos para los que no fueron inicialmente entrenadas (art. 3.63 RIA)[112], y que, por tanto, resultan potencialmente peligrosas en relación con los procesos democráticos. A la sombra de ello se prevé un régimen jurídico también intenso, sin perjuicio de que, en función de la tarea, puedan considerarse asimismo como de alto riesgo[113]. Además, en el caso de las IA que planteen riesgos sistémicos —a tenor de potenciales efectos considerables para los derechos fundamentales o los procesos políticos (art. 3.65 RIA)[114]— estas se someten a ciertas obligaciones específicas[115]. También, se contempla que las IA generativas se consideren como IA fundacionales[116], viniéndoles a exigir que informen a las personas a fin de que permitan la identificación como artificial de sus productos (art. 50.2 RIA)[117]; y en una línea similar, que otras IA también destinadas a interactuar con personas —como las que permiten el reconocimiento de emociones o categorización (no prohibidas)— deban igualmente informar a las personas de su funcionamiento (arts. 50.1 y 3 RIA)[118].
De esta forma, y en la senda abierta por el RGPD en relación a la regulación del diseño (o protección legal por diseño)[119], el RIA resulta ser una magnífica muestra de cómo hoy la tutela de los derechos de las personas no descansa solo en su garantía jurídica —y en especial la de naturaleza jurisdiccional—, sino también en instrumentos y desarrollos informáticos que son promovidos y/o exigidos por los propios poderes públicos[120], sin perjuicio de la tensión siempre existente entre lo político, lo jurídico y lo tecnológico (Irti y Severino)[121]. Se establecen así deberes en el propio desarrollo informático de la IA, en una dimensión más proactiva[122], de modo que el mismo proceso de diseño técnico de la IA queda sujeto a cláusulas legales en virtud de las cuales se exigen mecanismos tecnológicos que contribuyan a garantizar valores y derechos[123]. De este modo, las IA deben, a lo largo de todo su proceso de diseño, comercialización y uso (alcanzando incluso a los datos y métodos de entrenamiento), ofrecer garantías de no vulnerar derechos fundamentales y libertades públicas, e incluso de no ser manipulables con tales efectos (por ejemplo, a través de un hackeo)[124]. Para ello, quienes las diseñan, comercializan o utilizan deben cumplir determinadas obligaciones a fin de conseguir tal objetivo (o, al menos, reducir razonablemente dicho riesgo)[125], y todo bajo un sistema de responsabilidad proactiva[126]. Cuestión distinta es que tales limitaciones y obligaciones impuestas por el RIA a los desarrolladores y empresarios, además de afectar a sus respectivos derechos a la investigación, la propiedad privada y la libertad de empresa, acaben por encarecer también la investigación y el producto final, haciéndolo, en principio, menos competitivo[127].
5.2. La protección de la formación de la opinión pública y de los procesos electorales y referendarios ante la IA
Por otra parte, y desde una perspectiva más abstracta y en relación a la referida posición privilegiada de la que gozan las empresas digitales en la actualidad, es asimismo relevante cómo estas a través de la IA pueden incidir directamente en los procesos democráticos; y a su sombra, que se postulen no solo limitaciones a la actividad de dichas empresas (que también, según se ha visto al respecto de los derechos), sino aumentar sus responsabilidades y obligaciones objetivas hacia los demás, tanto públicos como privados. No en vano, y como nos vuelve a recordar Zagrebelsky, es hora de reflexionar sobre los deberes que generan los propios derechos[128] o, incluso, sobre el poder mismo de tales empresas al respecto de todo el sistema a nivel económico y político, y optándose así por opciones jurídicas destinadas a reducir la relación asimétrica que surge entre estas, los demás (Hoffmann-Riem)[129], e incluso de unos poderes públicos hoy dependientes tecnológicamente de aquellas. Así, y con Balaguer Callejón, debería reconocerse una posición de interés constitucional a dichas empresas, dada su efectiva y privilegiada capacidad para incidir en los derechos y en las libertades de las personas, así como para mediar en la comunicación y en los procesos de discusión política[130]; y ello, aún más, cuando se advierte cómo algunas de tales empresas vienen precisamente a fomentar (o al menos a permitir) el conflicto, el enfrentamiento político y la fragmentación en la comunicación, al generar de este modo más datos personales que poder recolectar, pues dichos datos —no se olvide— tienen valor económico[131].
De alguna manera, así viene a preverlo el RSD al reconocer a dichas empresas una posición crítica de intermediación en la sociedad digital, y al someterlas, consiguientemente, a un régimen jurídico intenso y específico a tales efectos[132]. El RSD implica a las empresas digitales en su responsabilidad respecto a la desinformación, las fake news y otros tipos de contenidos peligrosos para los valores constitucionales que circulen por la red a través de los servicios que ellas ofrecen; y al hilo de esto cómo, para evitar tal responsabilidad, el RSD les apremia a actuar contra los mismos[133], sin perjuicio, claro está, de la delicada posición que ahora aquellas asumen en relación con la libertad de expresión e información[134]. De este modo, el RSD promueve, sin embargo, un marco de exención de responsabilidad para las empresas de servicios digitales a partir de la observancia de cierta diligencia debida[135]. No en vano, el cumplimiento formal y técnico de la norma (que puede ser privada) bien puede suponer la exoneración de responsabilidad —en especial de la patrimonial— frente a mayores deberes de cuidado por tales empresas[136].
También es de interés el régimen previsto, especialmente en materia de transparencia hacia la Administración y los propios votantes, respecto de los prestadores de servicios de publicidad política, por el Reglamento (UE) 2024/900; y ello, ahora, con relación a la particular posición de tales sujetos ante el sistema democrático, así como a la incidencia de sus servicios en los procesos electorales[137].
Asimismo, en el Derecho comparado se prevén otros mecanismos específicos e intensos con los que actuar jurídicamente ante ciertas injerencias de la IA en los procesos democráticos. Es el caso de Alemania, con la Network Enforcement Act (o NetzDG), de 30 de junio de 2017, contra las fake news y la inacción de las redes sociales al respecto, al obligar a estas a eliminar noticias falsas bajo sanción de elevadísimas multas; o el de Francia, con la Ley sobre la lucha contra la manipulación de la información (Loi 2018-1202), de 22 de diciembre de 2018, que permite la vigilancia sobre redes sociales y medios extranjeros, la eliminación de noticias falsas en periodo electoral, así como la suspensión de un canal si se considera que puede interferir en los resultados electorales[138]. Con todo, y al hilo de la relación que se da en abstracto entre las fake news y la desinformación, de un lado, y las libertades de expresión e información, de otro, la solución constitucional al respecto resulta siempre compleja, dados los riesgos que unas u otras respuestas suponen para los derechos fundamentales y el sistema democrático[139].
Por otra parte, resulta también de interés la exclusión —si no total, sí que muy intensa— que de las IA de código abierto hace el RIA en su artículo 2.12[140]. Las respuestas constitucionales con las que enfrentarnos a los retos que abre la IA caben ser distintas en el caso de aquellas nacidas y desarrolladas en un sistema de código abierto, dada su mayor transparencia y control social, pues ahora sus diseños, usos y desarrollos quedan directa y públicamente en manos de la ciudadanía, que no de las empresas[141]. Esto supone, obviamente, sacar a la IA de la relación desequilibrada que se da entre las grandes empresas tecnológicas, las personas y los propios poderes públicos, y justifica, por tanto, regímenes mucho menos intensos para dichas IA, sin perjuicio de que puedan considerarse de alto riesgo (art. 25.4 RIA) o de uso general (art. 53.2 RIA). Ello evidencia, a su vez, la relevancia del modelo económico en el que surge y progresa la IA al margen de su evaluación tecnológica; o lo que es lo mismo, cómo buena parte de la problemática constitucional de la IA responde hoy más al marco económico en el que esta progresa (sobre todo a nivel occidental), que al propio desafío tecnológico que efectivamente esta supone. Por tanto, no pocos de los problemas referidos en relación con la IA y el principio democrático tienen más que ver con el modelo de explotación económica que poseen algunas de tales empresas tecnológicas de gran impacto global, que a las propias tecnologías digitales y a la IA en sí. Piénsese, sin más (y nuevamente), cómo se plantearía esta cuestión si, en vez de estar ante el vigente modelo de explotación de Internet y de las redes sociales, estuviéramos ante otro basado en las referidas aplicaciones privadas de código abierto, de modo que usuarios e informáticos participasen de manera más intensa en su desarrollo, a la par que, por el propio presupuesto del modelo, la IA acabaría desenvolviéndose en un marco mayor de transparencia sobre el algoritmo y su entrenamiento, lo que, a su vez, repercutiría positivamente en su control social[142].
Con todo, ha sido desde una dimensión liberal y capitalista como se ha construido no solo el desarrollo tecnológico de la IA, sino buena parte del complejo empresarial que, a nivel global, viene a controlar y dirigir la sociedad digital, y sobre el que se erigen ya auténticos poderes privados capaces de competir con los más clásicos poderes públicos[143], además de crear espacios propios —aunque virtuales— de interacción con y entre las personas (por ejemplo, el metaverso). Y es desde ese contexto económico-liberal, asimismo, que ciertas empresas digitales intercedan negativamente (aunque no sea dolosamente) en la libre formación de la opinión pública y en los procesos electorales y referendarios; y por ello, que se deban también promover repuestas constitucionales con relación a dicho contexto para contrarrestar así tan ingente capacidad de intromisión en los procesos democráticos. De alguna manera, y aun con limitaciones, esto acontece al amparo del propio RIA, al tener este por objeto no la IA como tal, sino el mercado de la IA (nuevamente art. 1.1 RIA)[144]: un mercado de la IA que, si bien no está al servicio directo de las personas, sí que debe ser, al menos, respetuoso de su dignidad, de sus derechos y de la propia democracia, además de en relación con una IA fiable[145]; mas con ello, también, con cierto sesgo hacia el usuario y el consumidor[146]. Con todo, desde el momento en que se propone un mercado europeo único respecto a una IA que ha de responder a dicha marca de “fiable” (tal como ha ocurrido en relación con los datos digitales de las personas)[147] se acaba por hacer de la necesidad virtud, en el sentido de una Europa en vanguardia de los derechos frente a una IA que progresa fuera de esta. Incluso, vendría a fomentarse cierta extensión de tales estándares europeos a nivel global (a tenor del conocido como “efecto Bruselas”)[148], frente a una IA desarrollada fundamentalmente por norteamericanos y chinos.
Otra cosa es si tal ordenación del mercado de la IA, así como del sistema de servicios digitales, es suficiente, adecuada y/o efectiva; o si también lo es el intenso régimen sancionador al respecto previsto por el RIA (arts. 99 ss.) y el RSD (arts. 52 y 76). Con todo, resulta especialmente relevante (a nuestro entender) que por fin comienza, al menos en Europa, a darse respuestas desde nuevos paradigmas a los retos constitucionales que la IA está ya originando (sin perjuicio de que, al tiempo, se planteen otras respuestas alternativas y más efectivas). Lo alarmante, en cambio, sería no hacer nada, mantenerse en el falso status quo del pasado ante los cambios que acontecen. De esta forma, parecería suceder, sin embargo, en relación con la responsabilidad civil de la IA (realmente, de las empresas que las diseñan, explotan y utilizan) respecto de los daños que culposa o incluso objetivamente origine, a la vista de la retirada, por la Comisión Europea (abril de 2025) de la Propuesta de Directiva del Parlamento Europeo y del Consejo relativa a la adaptación de las normas sobre responsabilidad civil extracontractual a la inteligencia artificial (COM/2022/496 final), y quedando así bajo el paraguas de la más genérica Directiva (UE) 2024/2853 del Parlamento Europeo y del Consejo, de 23 de octubre de 2024, sobre responsabilidad por los daños causados por productos defectuosos (y por la que se deroga la Directiva 85/374/CEE del Consejo), y su implementación normativa a nivel nacional[149].
Cuestión distinta es cuando la IA es actualmente instrumentalizada directa y expresamente para alterar el espacio democrático (así, dolosamente), tanto en lo relativo a la formación de la opinión pública como a los procesos electorales y referendarios, de forma que es la propia acción de los sujetos públicos y/o privados (que no de la IA por sí sola) la que impacta en los procesos democráticos. A tales efectos, recuérdense los referidos casos de las elecciones presidenciales norteamericanas de 2016 (o las brasileñas de 2018) y el referéndum del Brexit, también en 2016 (y en ambos supuestos con intervención de Cambridge Analytica), así como otros procesos electorales posteriores (en Eslovaquia, Pakistán, India, México y Argentina, y nuevamente en Brasil y los Estados Unidos). En estos supuestos, se estaría ya en un grado de responsabilidad superior, al alcanzarse el nivel de la seguridad pública y la dimensión sancionadora y criminal (en su caso), de modo que quepan activarse mecanismos clásicos de limitación y reprobación jurídica ante acciones previstas por normas administrativas y penales; y ello, claro está, con la consiguiente intervención jurisdiccional, de modo directo o indirecto (según que los tribunales sean quienes condenen o simplemente controlen las sanciones administrativas) y, al hilo de esto, la adopción de medidas judiciales que bien puedan afectar a derechos fundamentales y libertades públicas, como es la libertad de expresión[150].
5.3. La IA como respuesta ante la propia IA y los procesos democráticos
Pero la IA no solo debe ser apreciada como un problema para los derechos y las libertades políticas y los procesos democráticos, sino también como instrumento al servicio de su promoción y tutela. Promoción y tutela de la misma democracia que, en un mundo tecnológico, no queda ahora únicamente en manos de instrumentos políticos y jurídicos, sino también en otros propiamente tecnológicos[151]. Así, y en cuanto a la desinformación, al igual que existen IA que inciden torticeramente en la opinión pública, hay otras capaces de evaluar la incidencia efectiva de dicha desinformación o manipulación, desgranando falsedades en el debate público y/o electoral[152]. Mas hay otras IA, incluso, capaces de proteger los propios procesos democráticos. En este sentido, podemos considerar las IA destinadas a monitorizar las comunicaciones públicas (redes sociales, blogs, webs, etc.) a fin, precisamente, de proteger un efectivo pluralismo político —particularmente ante situaciones de crisis—[153] frente al riesgo de acciones privadas antidemocráticas[154], por más que ello pueda acabar incidiendo en el normal desarrollo de la libertad y la conformación de la deliberación pública[155]. Sin duda, es esta otra cuestión compleja a nivel constitucional, cuya solución requiere no solo de altas dosis de proporcionalidad y razonabilidad, sino también de capacidad efectiva de ulterior transparencia y control democrático sobre tales actuaciones públicas de monitorización digital[156].
Con lo anterior, se entra ya en el ámbito de la seguridad nacional, e incluso en el de la defensa militar y exterior, en tanto que amenazas híbridas[157], a tenor de cómo hoy la democracia pluralista es objeto implícito de protección por esta (por ejemplo, el art. 3 de la Ley 36/2015, de 28 de septiembre, de Seguridad Nacional)[158]. Es más, la propia protección digital pasa hoy por la informática, de manera que, considerados los procesos electorales como objeto de protección a nivel de seguridad nacional (Capítulo 3, in fine, Estrategia Nacional de Ciberseguridad de 2019)[159], se destinan IA para garantizar el normal desenvolvimiento de aquellos; y no solo en relación con la ciberseguridad de los sistemas informáticos empeñados en las elecciones ante posibles ataques de terceros, sino al respecto mismo del desarrollo de las campañas, oficiales y no oficiales, en las redes sociales, y así al hilo de supuestos de informaciones o noticias falsas de relevancia pública y electoral, así como de simple manipulación política (como en el caso de la referida anulación de las elecciones presidenciales rumanas de 2024). De este modo, y al amparo y desarrollo del “Plan de Acción para la lucha contra la desinformación” de la Comisión Europea y del Servicio Europeo de Acción Exterior (Consejo Europeo, 13 y 14 de diciembre de 2018), es que en la esfera del Centro Criptológico Nacional español (y del Centro Nacional de Inteligencia), se haya institucionalizado un “Observatorio Digital”, con una herramienta digital (ELISA) y con funciones en alerta, evaluación y compilación de campañas de desinformación y desestabilización para el sistema[160]. Naturalmente, dicha instrumentación de la IA ha de llevarse a cabo desde la consideración política más exquisita y objetiva, evitando confundir el interés general —que supone la garantía del sistema constitucional y democrático— con el más particular y político-partidista que pueda darse al respecto del alcance ideológico alternativo que expresen unos y otros; y esto, en razón al elevado riesgo que dicha actividad pública supone para el pluralismo y las libertades de expresión e información[161].
Por último, y en relación con los propios parlamentos, resulta de interés cómo el uso de las IA en el proceso de transformación digital puede mejorar también su eficacia, así como el ejercicio de sus funciones y, en particular, su transparencia y participación ciudadana; y con ello, la posibilidad de mejorar la imagen que la ciudadanía tiene de estos, lo que redundaría, a su vez, positivamente en su legitimidad[162].
Decíamos al principio de estas páginas que el carácter disruptivo de la IA está afectando a nuestra entera realidad cultural, social, económica, política y jurídica, y, por tanto, al propio sistema constitucional, y especialmente, como hemos visto, en lo relativo a la formación de la opinión pública y a los procesos electorales y referendarios.
Sin embargo, la incidencia de la IA va aún más lejos en relación con la democracia. Respecto al propio principio democrático, la IA incide hoy sobre su misma articulación jurídica y ulterior desarrollo normativo al actuar sobre el ordenamiento jurídico y sus fuentes[163]; e incluso, como potencial instrumento de toma de decisiones políticas y jurídicas, interfiriendo entonces en la legitimidad democrática de estas[164]. A su vez, la incidencia de la IA en la democracia resulta todavía más abierta y disruptiva si atendemos a cómo aquella puede afectar ahora al sistema económico-productivo y las relaciones sociales. No en vano, la democracia pluralista responde en su origen al conflicto social de clases, y de ahí su estrecha implicación también con el Estado social[165]. Y asimismo sucede al respecto de la influencia abstracta de la IA en las personas, en sus mentes, en su desarrollo cognitivo, en su estado psicológico[166] y, consiguientemente, en su potencial actuación y conducta a nivel social, político y democrático[167].
De este modo son muy distintas y abiertas las formas en las que la IA está incidiendo, —y vendrá a incidir— en la democracia, requiriéndose no ya una aproximación crítica al respecto, sino altamente prospectiva, y a una velocidad, ciertamente, difícil de seguir[168].
Pero las dificultades que enfrenta la democracia en la actualidad no tienen solo un origen tecnológico-digital. La globalización, además de su deriva económica limitativa de la decisión política, que restringe así la actuación democrática[169], posee una dimensión compleja por cuanto es contradictoria en sí misma[170]. De esto modo, lo local y lo identitario, ante lo global y lo estandarizado, promueven, en no pocos casos, movimientos extremistas y radicales[171]. Por otra parte —no se olvide— está también la propia actuación de los sujetos políticos, no siempre a la altura de las legítimas expectativas y necesidades de la ciudadanía (por ejemplo, durante la crisis económica de la década anterior, o los constantes episodios de corrupción), lo que, obviamente, acaba por contribuir al referido desapego institucional[172]; además de dejar a parte de la población bajo el influjo de movimientos populistas y/o ademocráticos (en gran medida, los hoy conocidos como iliberales). En relación con ello, cabe señalar la instrumentación, por parte de esos movimientos, del miedo de la ciudadanía a fin de ganar presencia política, a costa de aumentar de manera artificial el antagonismo y el conflicto[173].
Así, es que sea sobre dicho contexto complejo, confuso y reñido de la democracia, donde venga a superponerse el comentado impacto de la IA y, en particular, al respecto de la formación de la opinión pública y a los procesos electorales y referendarios. Y de este modo que la situación de crisis que, de tiempo, vive la democracia[174], no sea, insistimos, fruto solo de la IA y de su instrumentalización por parte de empresas y terceros. La IA, eso sí, lejos de reducir las disonancias que se advierten en el sistema democrático, las potencia y hasta las transforma a nivel constitucional. Estamos ante un riesgo de desviación del diseño constitucional de los procesos democráticos, por cuanto estos se ven ahora repletos de nuevos obstáculos que traban los objetivos a los que deberían servir. Así, la formación de la opinión pública en la actualidad, lejos de promover confianza, origina incertidumbre, lo que dificulta esa posición central que ha desarrollado al respecto del sistema democrático durante años; y, en cuanto, a los procesos electorales y referendarios, y a la sombra de lo anterior, que también acaben por rezumar desconfianza y deslegitimación hacia el propio sistema.
Esto obviamente, nos lleva a replantearnos constitucionalmente los procesos democráticos a la sombra de la IA. Mas ello sin perder de vista las otras causas de la crisis de la democracia pluralista recién referidas. Las respuestas parciales resultan insuficientes si no se atiende sistémicamente a dicha crisis de la democracia; incluso pueden originar efectos, cuando menos, paradójicos[175]. La IA, en la actualidad, es únicamente una parte —aunque muy relevante— de los problemas de la democracia; otra cosa es que la IA, al entrar en contacto con los otros problemas de esta, acabe acentuándolos. Por tanto, los efectos disruptivos de la IA no pueden servir de coartada para olvidarnos de las otras causas de la crisis de la democracia; y de esta forma que las respuestas que a nivel constitucional se postulen en torno a la incidencia de la IA en los procesos democráticos deban alcanzar también, de manera sistémica, los otros flancos de la crisis en la que se encuentra hoy la democracia pluralista. Cualquier otra respuesta no haría sino enmascarar, hasta agrandar, tal crisis.
Resumen: A la luz de la incidencia de la inteligencia artificial a nivel político y jurídico, este trabajo analiza su impacto en los procesos democráticos. Con este propósito se estudia de manera más concreta su influencia sobre los derechos fundamentales y las libertades políticas. Posteriormente, se estudia cómo la inteligencia artificial actúa en la conformación de la opinión pública, así como el desarrollo de las elecciones y los referéndums. A continuación, se analizan también las transformaciones que esta tecnología ha generado en los procesos democráticos, para finalmente abordar cómo proteger la democracia ante la inteligencia artificial, incluso mediante su propio uso.
En este análisis se distingue, por otra parte, entre los casos en que el impacto de la inteligencia artificial es expresamente buscado, y aquellos en los que se acepta como un efecto eventual por aquellos que la utilizan. Ya, para finalizar, se presentan unas consideraciones críticas sobre la crisis de la democracia y el impacto de la inteligencia artificial.
Palabras claves: Inteligencia artificial, Derecho constitucional, democracia pluralista, opinión pública, elecciones, referéndums.
Abstract: In light of the impact of Artificial Intelligence on politics and law, this paper analyses its effect on democratic processes. Specifically, it examines the effect of AI on fundamental rights and political freedoms, and how AI influences public opinion, elections, and referendums. Finally, it analyses the transformations that this technology has generated in democratic processes and addresses how to protect democracy from AI, including through its own use.
The analysis distinguishes between cases in which the impact of AI is expressly sought and cases in which it is accepted as a possible consequence of its use. Finally, it presents critical considerations on the crisis of democracy and the impact of artificial intelligence.
Key words: Artificial Intelligence, Constitutional Law, Pluralistic Democracy, Public Opinion, Elections, Referendums.
Recibido: 8 de julio de 2025
Aceptado: 23 de julio de 2025
______________________________________
[01] El presente trabajo se ha realizado en el marco del Proyecto “Inteligencia artificial y fuentes del Derecho” (PID2024-161955OB-I00).
[02] E. FINN, Che cosa vogliono gli algoritmi. L’immaginazione nell’era dei computer, Einaudi, 2018. No en vano de “cuarta revolución industrial” se llega a hablar (Schwab) al hilo del influjo de la informática, en general, y de la IA, en particular. Cfr. M. SARASÍBAR IRIARTE, «La cuarta revolución industrial: el derecho administrativo ante la inteligencia artificial», Revista Vasca de Administración Pública, núm. 115, 2019, pp. 377 y ss.; también vid. F.H. LLANO ALONSO, Homo ex machina. Ética de la inteligencia artificial y Derecho digital ante el horizonte de la singularidad tecnológica, Tirant lo Blanch, 2024, pp. 163 y ss.
[03] Entre otros, R. BUSTOS GISBERT, “El constitucionalista europeo ante la inteligencia artificial. Reflexiones metodológicas de un recién llegado”, Revista Española de Derecho Constitucional, núm. 131, 2024, pp. 146 y ss.
[04] P.e. N. BELLOSO MARTÍN, «La problemática de los sesgos algorítmicos (con especial referencia a los de género) ¿Hacia un derecho a la protección contra los sesgos?», en J. GARRIDO MARTÍN et al. (dir), Inteligencia artificial y Filosofía del Derecho, Laborum, 2022, pp. 45 y ss.
[05] Así, F. BALAGUER CALLEJÓN, «Redes sociales, compañías tecnológicas y democracia», Revista de Derecho Constitucional Europeo, núm. 32, 2019; y, especialmente, C. WYLIE, Mindf*ck: Cambridge Analytica. La trama para desestabilizar el mundo, Roca Editorial, 2020.
[06] M.G. LOSANO, «Le Corti costituzionali di Romania e Colombia sulle interferenze informatiche e sull’intelligenza artificiale», Diritto Pubblico Comparato ed Europeo, Rivista Trimestrale, 1/2025, pp. 117 y ss.
[07] J.F. SÁNCHEZ BARRILAO, «Constitucionalismo digital: entre realidad digital, prospectiva tecnológica y mera distopía constitucional», en F. BALAGUER CALLEJÓN (coord.), Derechos fundamentales y democracia en el constitucionalismo digital, Aranzadi, 2023, pp. 93 y ss. Distopía que, por cierto, hoy parecería coger impulso ante la vuelta de un Trump formalmente arropado por una tecno-oligarquía digital que, aun al margen del sistema institucionalizado de gobierno, acaba por intervenir y participar en él impulsando sus postulados neoliberales y tecnócratas.
[08] Respectivamente: Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican los Reglamentos (CE) 300/2008, (UE) 167/2013, (UE) 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828; y Convenio Marco del Consejo de Europa sobre Inteligencia Artificial, Derechos Humanos, Democracia y Estado de Derecho, de 17 de mayo de 2024. Para una primera aproximación al RIA y al CMIA, M.Á. PRESNO LINERA y A. MEUWESE, «La regulación de la inteligencia artificial en Europa», Teoría y Realidad Constitucional, núm. 54, 2024, pp. 131 y ss.
[09] Art. 1.1 RIA: “El objetivo del presente Reglamento es mejorar el funcionamiento del mercado interior y promover la adopción de una inteligencia artificial (IA) centrada en el ser humano y fiable, garantizando al mismo tiempo un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales consagrados en la Carta, incluidos la democracia, el Estado de Derecho y la protección del medio ambiente, frente a los efectos perjudiciales de los sistemas de IA (en lo sucesivo, «sistemas de IA») en la Unión así como prestar apoyo a la innovación” (la cursiva es nuestra). Y art. 1.1 CMIA: “El objetivo de las disposiciones del presente Convenio es garantizar que las actividades durante el ciclo de vida de los sistemas de inteligencia artificial sean plenamente coherentes con los derechos humanos, la democracia y el Estado de Derecho” (la cursiva es nuestra).
[10] Respectivamente: Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se deroga la Directiva 95/46/CE; y Reglamento (UE) 2022/2065 del Parlamento Europeo y del Consejo de 19 de octubre de 2022 relativo a un mercado único de servicios digitales y por el que se modifica la Directiva 2000/31/CE. Para una introducción al RIA y al RSD, A. AL HASANI MATURANO, El impacto de la inteligencia artificial y los derechos fundamentales. Un desafío jurídico a la sociedad, Aranzadi, 2024, pp. 43 y ss.
[11] Nuevamente M.Á. PRESNO LINERA, pero ahora «Derechos fundamentales e inteligencia artificial en el Estado social, democrático y digital de Derecho», El Cronista del Estado Social y Democrático de Derecho, núm. 100, 2022, pp. 48 y ss.
[12] Ya, J.F. SÁNCHEZ BARRILAO, «Inteligencia artificial y fuentes del derecho», Revista de Derecho Constitucional Europeo, núm. 39, 2023.
[13] K. CRAWFORD, Atlas de IA. Poder, política y costes planetarios de la Inteligencia Artificial, 3ª ed., Ned Ediciones, 2025, p. 29.
[14] Desde esta perspectiva, vid. C. BENLLOCH DOMÈNECH y J. SARRIÓN ESTEVE, «Los derechos fundamentales ante las aporías de la era digital», Cuestiones Constitucionales. Revista Mexicana de Derecho Constitucional, núm. 46, 2022, pp. 9 y ss.
[15] A nivel internacional, arts. 17 y 27.1 y 2 DUDH, y, especialmente, 15.1.c y 3 PIDESC; y ya en la Unión Europea, arts. 13, 16 y 17 CDFUE.
[16] G. ZAGREBELSKY, Derechos a la fuerza, Trotta, 2023.
[17] Cfr. W. HOFFMANN-RIEM, El Derecho ante el reto de la transformación digital, Aranzadi, 2022, pp. 106 y ss.
[18] J.M. MONTILLA MARTOS, «Inteligencia artificial y derechos de participación política», De lege ferenda. Revista de la Facultad de Derecho de la Universidad de Granada, núm. 1, 2023, pp. 34 y ss.
[19] Pero no sólo, pues basta con la recopilación de otros datos personales para que, desde su reidentificación, quepa deducirse identificaciones o afiliaciones políticas; cfr. L. REBOLLO DELGADO, Inteligencia Artificial y derechos fundamentales, Dykinson, 2023, pp. 60 y ss.
[20] P.e., M.R. GUIMARÃES, «Inteligência artificial, profiling e direitos de personalidade», en S. MOREIRA y P.M. FREITAS (ed.), Inteligência artificial e robótica. Desafios para o Direito do Século XXI, Gestlegal, 2022, pp. 187 y ss.
[21] J.C. HERNÁNDEZ PEÑA, «Campañas electorales, Big Data y perfilado ideológico. Aproximación a su problemática desde el derecho fundamental a la protección de datos», Revista Española de Derecho Constitucional, núm. 124, 2022, pp. 41 y ss.
[22] Entre otros, L. COTINO HUESO, «Discriminación, sesgos e igualdad de la inteligencia artificial en el sector público», en E. GAMERO CASADO y F.L. PÉREZ GUERRERO (coord.), Inteligencia artificial y sector público: retos, límites y medios, Tirant lo Blanch, 2023, pp. 260 ss.
[23] J.L. LEÓN VÁSQUEZ, «¿Redimensionamiento de la libertad de pensamiento o nuevos (neuro)derechos humanos? Desafíos y perspectivas desde la neurotecnología», Cuestiones Constitucionales. Revista Mexicana de Derecho Constitucional, núm. 46, 2022, pp. 121 y ss.
[24] A. AL HASANI MATURANO, «El dilema entre censurar o amparar la libertad de expresión en el ciberspacio», Rivista Gruppo di Pisa. Dibattito aperto sul Diritto e la Giustizia Costituzionale, núm. 3, 2021, pp. 81 y ss.; o G.M. TERUEL LOZANO, «Libertad de expresión, censura y pluralismo en las redes sociales: algoritmos y el nuevo paradigma regulatorio europeo», en F. BALAGUER CALLEJÓN y L. COTINO HUESO (coord.), Derecho Público de la Inteligencia Artificial, Fundación Giménez Abad de Estudios Parlamentarios y del Estado Autonómico, 2023, pp. 181 y ss.
[25] J. CASTELLANOS CLARAMUNT, «Democracia, Administración Pública e inteligencia artificial desde una perspectiva política y jurídica», Revista Catalana de Dret Públic, núm. 60, 2020, pp. 142 y ss.
[26] L. REBOLLO DELGADO, «Inteligencia Artificial y derechos fundamentales…», cit., p. 69.
[27] F. BALAGUER CALLEJÓN, «O impacto dos novos mediadores da era digital na liberdade de expressão», Espaço Jurídico: Journal of Law, núm. 23, vol. 1, 2022a, pp. 179 y ss.
[28] P. VALCKE et al., 2022, «Constitutional Challenges in the Emotional AI Era», en H.W. MICKLITZ (ed.), Constitutional Challenges in the Algorithmic Society, Cambridge University Press, pp. 57 y ss.
[29] J. CABALLERO, «Toward a New Dimension in Film Editing: Exploring the Possibilities of Artificial Intelligence», Hipertext.net: Revista Académica sobre Documentación Digital y Comunicación Interactiva, núm. 26, 2023.
[30] E.C. RAFFIOTTA y M. BARONI, «Intelligenza artificiale, strumenti di identificazione e tutela dell’identità», BioLaw Journal, núm. 1, 2022; también, L. ESCAJEDO SAN EPIFANIO, «El reconocimiento biométrico en el reglamento de inteligencia artificial: Exenciones, prohibiciones y especialidades de alto riesgo», en L. COTINO HUESO y P. SIMÓN CASTELLANO (dir.), Tratado sobre el reglamento de inteligencia artificial de la Unión Europea, Aranzadi, 2024, pp. 183 y ss.
[31] Respectivamente: I. RAMONET, El imperio de la vigilancia, Clave Intelectual, 2016; y S. ZUBOFF, La era del capitalismo de la vigilancia. La lucha por un futuro humano frente a las nuevas fronteras del poder, Paidós, 2020.
[32] Considerando 18 de Propuesta de la Comisión Europea de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas Armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión (COM/2021/206 final), de 21 de abril de 2021 (en adelante, PRIA): “Se considera que el uso de sistemas de IA para la identificación biométrica remota «en tiempo real» de personas físicas en espacios de acceso público con fines de aplicación de la ley invade especialmente los derechos y las libertades de las personas afectadas, en la medida en que puede afectar a la vida privada de una gran parte de la población, provocar la sensación de estar bajo una vigilancia constante y disuadir indirectamente a los ciudadanos de ejercer su libertad de reunión y otros derechos fundamentales” (la cursiva es nuestra).
[33] Cfr. M.Á. PRESNO LINERA, Derechos fundamentales e inteligencia artificial, Marcial Pons, 2022, p. 62.
[34] S. CRISTANTE, «Sobre la transformación de la opinión pública en la era de internet», en J. SABARIEGO (coord.), Algoritarismos, Universidad de Sevilla, 2020, pp. 184 y ss.
[35] M. J. ARJONA SÁNCHEZ, El Derecho en bits, Aranzadi, 2025, 93 y ss.
[36] Cfr. V. FROSSINI, «El horizonte jurídico de internet», Revista de Derecho Constitucional Europeo, núm. 28, 2017.
[37] Ya, en la década pasada, E. CEBRIÁN ZAZURCA, «El impacto de Internet en el Estado democrático», Revista de Estudios Políticos, núm. 173, 2016, pp. 307 y ss.
[38] Así, J.F. SÁNCHEZ BARRILAO, «La neutralidad de Internet como objeto constitucional», en J. VALLS PRIETO (coord.), Retos jurídicos por la sociedad digital, Aranzadi, 2018, pp. 233 y ss.
[39] Cfr. M.Á. PRESNO LINERA, Derechos fundamentales e inteligencia artificial…, cit., pp. 55-56.
[40] Ahora T.E. FROSSINI, «Internet e democracia», en A. PÉREZ MIRÁS et al. (ed.), Sovraintà e rappresentanza nell’era della globalizzazione, Editoriale Scientifica, 2021, pp. 187 y ss.
[41] F. BALAGUER CALLEJÓN, La constitución del algoritmo…, cit., pp. 137-145.
[42] Vid. J. FRANGANILLO, «La inteligencia artificial generativa y su impacto en la creación de contenidos mediáticos», Methaodos. Revista de Ciencias Sociales, núm. 11, vol. 2., 2023; o A. ABA CATOIRA, «Respuestas normativas ante la inteligencia artificial generativa: ¿son suficientes?», en F. CAAMAÑO y D. JOVE VILLARES (ed.), Tecnologías abusivas y Derecho, Tirant lo Blanch, 2024, pp. 192 y ss.
[43] C. SAURA GARCÍA y P. CALVO CABEZAS, «Opinión pública masiva: colonización algorítmica y sintetificación de la esfera pública», Revista CIDOB d'Afers Internacionals, núm. 138, 2024, pp. 73 y ss.
[44] R. RUBIO NÚÑEZ, «El uso de la inteligencia artificial en las campañas electorales y sus efectos democráticos», Revista de Derecho Político, núm. 122, 2025, pp. 65 y ss.
[45] F. BALAGUER CALLEJÓN, La constitución del algoritmo…,cit., pp. 113 y ss.
[46] W. HOFFMANN-RIEM, Big data. Desafíos también para el Derecho, Civitas, 2018, pp. 53 y ss.
[47] Cfr. O. SÁNCHEZ MUÑOZ, «Los partidos y la desafección política: propuestas desde el campo del Derecho constitucional», Teoría y Realidad Constitucional, núm. 35, 2015, pp. 413 y ss.; también, J.F. SÁNCHEZ BARRILAO, «Democracia, desafección constitucional y seguridad», Revista de Derecho Constitucional Europeo, núm. 33, 2020.
[48] Así, P. VILLASCHI, «Profilazione online e manipolazione del consenso nella bubble democracy», Rivista Gruppo di Pisa. Dibattito aperto sul Diritto e la Giustizia Costituzionale, núm. 3, 2021, pp. 257 y ss.
[49] Ya, J.F. SÁNCHEZ BARRILAO, «El futuro del Estado constitucional», Rivista Italiana per le Scienze Giuridiche, núm. 10, 2019, pp. 837 y ss.
[50] M. BARBERIS, Come internet sta uccidendo la democracia, Chiarelettere Editore, 2020.
[51] Siguiendo a Epstein y Robertson, M.Á. PRESNO LINERA, Derechos fundamentales e inteligencia artificial…, cit., 2022, p. 71.
[52] P.e., C. PAUNER CHULVI, «Noticias falsas y libertad de expresión e información. El control de los contenidos informativos en la red», Teoría y Realidad Constitucional, núm. 41, 2018, pp. 297 y ss.; o A. GALDÁMEZ MORALES, «Posverdad y crisis de legitimidad», Revista Española de la Transparencia, núm. 8, 2019, pp. 25 y ss.
[53] Vid. R. NÚÑEZ RAFAEL, «Desinformación: nuevas amenazas para la integridad electoral», Revista de Derecho Electoral, núm. 39, 2025; también, Á. MORENO BOBADILLA, «La lucha europea contra la desinformación en los procesos electorales», Jurídicas, núm. 21, vol. 2, 2024, pp. 97 y ss.
[54] F. BALAGUER CALLEJÓN, «La constitución del algoritmo y las transformaciones culturales en la sociedad digital», en F. CAAMAÑO y D. JOVE VILLARES (ed.), Tecnologías abusivas y Derecho, Tirant lo Blanch, 2024, pp. 74 y ss.
[55] Nuevamente F. BALAGUER CALLEJÓN, pero ahora «La verdad en la sociedad digital», en, junto a M.L. BALAGUER CALLEJÓN, Verdad e interpretación en la sociedad digital, Aranzadi 2023, pp. 15 y ss.
[56] Cfr. M.Á. PRESNO LINERA, Derechos fundamentales e inteligencia artificial…, cit., pp. 70 y 100. E incluso, a partir de datos relativos a filias y fobias de las personas a manipular; al respecto, vid. J.M. MONTILLA MARTOS, «Inteligencia artificial y derechos de participación política…», cit., pp. 40-41.
[57] P.e., J.F. SÁNCHEZ BARRILAO, «La identificación biométrica, la inteligencia artificial y el efecto desaliento en reuniones y manifestaciones», en F. BALAGUER CALLEJÓN y L. ESCAJEDO SAN EPIFANIO (dir.), Vigilancia biométrica masiva, inteligencia artificial y derechos fundamentales, Dykinson, 2025.
[58] Sobre ésta, vid. J.A. PABÓN ARRIETA, «La democracia y el estado de derecho: instrumentos de la sociedad abierta en Karl R. Popper», Amauta, núm. 39, 2022, pp. 45 y ss.
[59] De interés, R. RUBIO NÚÑEZ et al., Inteligencia artificial y campañas electorales algorítmicas…,cit., pp. 107 ss.
[60] F. BALAGUER CALLEJÓN: «Europa como sociedad abierta en el contexto global», en M. D’AMICO et al. (coord.), Europa, società aperta (I), Editoriale Scientifica, pp. 11y ss.; y La constitución del algoritmo…, cit., pp. 19 y ss. Y en no pocos casos, además, con sesgos al momento de su entrenamiento; vid., otra vez, M.Á. PRESNO LINERA, Derechos fundamentales e inteligencia artificial…, cit., pp. 65 y ss.
[61] P.e., R. MARTÍN MORALES, «La fragmentación del espacio público en los sistemas democráticos», Revista General de Derecho Constitucional, núm. 36, 2022.
[62] B.C. HAN, pero ahora En el enjambre, Herder, 2024.
[63] Entre otros, P.J. PÉREZ ZAFRILLA, «Polarización artificial: cómo los discursos expresivos inflaman la percepción de polarización política en internet», Recerca: Revista de Pensament i Analisi, núm. 26, vol. 2, 2021.
[64] Otra vez B.C. HAN, pero ahora La expulsión de lo distinto, Herder, 2017.
[65] Nuevamente M.Á. PRESNO LINERA, Derechos fundamentales e inteligencia artificial…, cit., p. 57
[66] Pues siempre, de una forma u otra, se está en campaña; así P. ÁLVAREZ GRANDE, «Una campaña electoral permanente en España: implicaciones jurídicas», Revista Jurídica Consejo Nacional de Estudiantes de Derecho, núm. 3, 2025, pp. 31 y ss.
[67] R. RUBIO NÚÑEZ et al., Inteligencia artificial y campañas electorales algorítmicas…,cit., pp. 137 y ss.
[68] I. DELGADO SOTILLOS, «El impacto de la fragmentación política en los sistemas políticos democráticos», en II Jornadas parlamentarias: El parlamento fragmentados y la forma de Gobierno, Congreso de los Diputados, 2024, pp. 55 y ss.
[69] C.D. ELÓRTEGUI GÓMEZ, «Predicciones (electorales) en tiempos de inteligencia artificial», Más Poder Local, núm. 39, 2019, pp. 14 y ss.
[70] Otra vez, R. RUBIO NÚÑEZ et al., Inteligencia artificial y campañas electorales algorítmicas…,cit., pp. 179 y ss.
[71] S. BIRCH, «Integridad electoral como igualdad política», Elecciones, núm. 25, 2023, pp. 19 y ss.
[72] Nuevamente R. RUBIO NÚÑEZ et al., Inteligencia artificial y campañas electorales algorítmicas…,cit., pp. 159 y ss.
[73] P.e., C. GARRIDO LÓPEZ, «Crisis del paradigma representativo y propuestas de impulso de la democracia directa», Revista de Derecho Político, núm. 112, 2021, pp. 139 y ss.
[74] Vid. A.A. MARTINO, «Crisis de la democracia representativa: alternativas participativas o democracia directa con medios electrónicos», Eunomía: Revista en Cultura de la Legalidad, núm. 14, 2018, pp. 9 y ss.
[75] Cfr. F. BALAGUER CALLEJÓN, La constitución del algoritmo…, cit., pp. 132-136.
[76] Así, J.G. CORRAL MARTÍN, «Redes sociales y agenda política», Más Poder Local, núm. 56, 2024, pp. 129 y ss.
[77] Incluso, se advierte en ellos ya la presencia de personajes (tanto en la clase política, como en la periodística) más propios de dichas redes sociales, que de las labores políticas.
[78] Ya M. MARTÍNEZ-BASCUÑÁN RAMÍREZ, «¿Cómo afecta la democracia digital a la crisis de la representación política?», en M. CONTRERAS CASADO y E.CEBRIÁN ZAZURCA, La crisis contemporánea de la representación política, Editorial Comuniter, 2016, pp. 115 y ss.
[79] G. CORSO, «La rappresentanza politica nell’era digitale», en A. PÉREZ MIRAS et al. (ed.), Sovraintà e rappresentanza nell’era della globalizzazione, Editoriale Scientifica, 2021, pp. 175 y ss. Y lo anterior, al punto de, junto con otros cambios, plantearse cierta transformación de la misma; C. BASSU, «Prospettive della rappresentanza», asimismo en A. PÉREZ MIRAS et al.(ed.), Sovraintà e rappresentanza nell’era della globalizzazione…, cit., pp. 87 y ss.
[80] De interés, otra vez, R. RUBIO NÚÑEZ et al., Inteligencia artificial y campañas electorales algorítmicas…, cit., pp. 169 y ss.
[81] Vid. G. PALOMBINO, «Representación política y democracia digital: algunas reflexiones sobre la inviolabilidad parlamentaria», en F. BALAGUER CALLEJÓN et al. (coord.), Estudios sobre el Estado social y democrático de derecho. Liber amicorum Gregorio Cámara Villar (II), Centro de Estudios Políticos y Constitucionales, 2024, pp. 929 y ss.
[82] Sobre éstos, M. BARRIO ANDRÉS, Los derechos digitales y su regulación en España, la Unión Europea e Iberoamérica, Colex, 2023; y de manera más crítica, L. REBOLLO DELGADO, Inteligencia Artificial y derechos fundamentales…, cit., es especial pp. 33-37, y 51 ss.
[83] En tal sentido, ya, art. 19.1 Constitución de Chile tras su reforma en 2021: “El desarrollo científico y tecnológico estará al servicio de las personas y se llevará a cabo con respeto a la vida y a la integridad física y psíquica. La ley regulará los requisitos, condiciones y restricciones para su utilización en las personas, debiendo resguardar especialmente la actividad cerebral, así como la información proveniente de ella”. Sobre esto, P. LÓPEZ SILVA y R. MADRID RAMÍREZ, «Acerca de la protección constitucional de los neuroderechos: la innovación chilena», Prudentia Iuris, núm. 94, 2022, 94, pp. 39 y ss. También, sobre la relevancia creciente de los neuroderechos, vid., p.e.: M. MASCITTI, «El rango constitucional de los neuroderechos como una exigencia de justicia», Cuestiones Constitucionales. Revista Mexicana de Derecho Constitucional, núm. 46, 2022, pp. 149 y ss.; y A.M. JUDEL PEREIRA, «La protección del cerebro y los nuevos derechos humanos de la era neurotecnología», en F. CAAMAÑO Y D. JOVE VILLARES, Tecnologías abusivas y Derecho, Tirant lo Blanch, 2024, pp. 241 y ss.
[84] Cfr. R.F. DE ASÍS ROIG, «Sobre la propuesta de los neuroderechos», Derechos y Libertades: Revista de Filosofía del Derecho y Derechos Humanos, núm. 47, 2022, pp. 51 y ss.
[85] Así, libertad informática en tanto que capacidad reconocida a las personas en relación a su autodeterminación informativa o ante la informática, y el derecho mismo “a controlar el uso de los mismos datos insertos en un programa informático” [STC 254/1993, de 20 de julio (FJ 7)].
[86] “El interesado tendrá derecho a obtener del responsable del tratamiento confirmación de si se están tratando o no datos personales que le conciernen y, en tal caso, derecho de acceso a los datos personales y a la siguiente información: […] la existencia de decisiones automatizadas, incluida la elaboración de perfiles, a que se refiere el artículo 22, apartados 1 y 4, y, al menos en tales casos, información significativa sobre la lógica aplicada, así como la importancia y las consecuencias previstas de dicho tratamiento para el interesado” (la cursiva es nuestra). Al respecto, M. MEDINA GUERRERO, «Sobre la propuesta de los neuroderechos», Derechos y Libertades: Revista de Filosofía del Derecho y Derechos Humanos, núm. 47, 2022, pp. 141 y ss.
[87] “Todo interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar”. De interés, A. SORIANO ARNANZ, «Decisiones automatizadas: problemas y soluciones jurídicas. Más allá de la protección de datos», Revista de Derecho Público: Teoría y Método, núm. 13, 2021, pp. 85 ss.; también, pero de manera crítica, L. REBOLLO DELGADO, Inteligencia Artificial y derechos fundamentales…, cit., 2023, pp. 106 y ss.
[88] “Quedan prohibidos el tratamiento de datos personales que revelen el origen étnico o racial, las opiniones políticas, las convicciones religiosas o filosóficas, o la afiliación sindical, y el tratamiento de datos genéticos, datos biométricos dirigidos a identificar de manera unívoca a una persona física, datos relativos a la salud o datos relativos a la vida sexual o las orientaciones sexuales de una persona física” (la cursiva es nuestra).
[89] Al respecto, D. JOVE VILLARES, «La inconstitucional habilitación a los partidos políticos para recabar datos sobre opiniones políticas. Comentario a la STC 76/2019, de 22 de mayo», Revista Española de Derecho Constitucional, núm. 121, 2021, pp. 303 y ss. Asimismo de interés: M.Á. PRESNO LINERA, Derechos fundamentales e inteligencia artificial…, cit., 2022, pp. 73 y ss.; J.M. MONTILLA MARTOS, «Inteligencia artificial y derechos de participación política…», cit., 2023, pp. 41-42, y 46 ss.; J.M. LÓPEZ ULLA, «Garantías adecuadas para proteger la democracia frente al uso fraudulento de los datos personales», Revista Española de la Transparencia, núm. 19,2024, pp. 71y ss.
[90] “El interesado tendrá derecho a obtener del responsable del tratamiento la limitación del tratamiento de los datos cuando se cumpla alguna de las condiciones siguientes: […] el tratamiento sea ilícito y el interesado se oponga a la supresión de los datos personales y solicite en su lugar la limitación de su uso”.
[91] “[…] solo cuando se cumplan las siguientes condiciones: a) el interesado proporcionó los datos personales al responsable del tratamiento; b) el interesado ha dado, por separado, su consentimiento expreso en el sentido de los Reglamentos (UE) 2016/679 y (UE) 2018/1725 al tratamiento de los datos personales a efectos de publicidad política, y c) dichas técnicas no implican la «elaboración de perfiles», tal como se define en el artículo 4, punto 4, del Reglamento (UE) 2016/679 y en el artículo 3, punto 5, del Reglamento (UE) 2018/1725 utilizando las categorías especiales de datos personales a que se refieren el artículo 9, apartado 1, del Reglamento (UE) 2016/679 y el artículo 10, apartado 1, del Reglamento (UE) 2018/1725”.
[92] Cfr. A. ABA CATOIRA, «La garantía de los derechos como respuesta frente a los retos tecnológicos», en F. BALAGUER CALLEJÓN y L. HUESO COTINO (coord.), Derecho público de la inteligencia artificial, Fundación Manuel Giménez Abad de Estudios Parlamentarios y del Estado Autonómico, 2023, p. 69.
[93] P. SIMÓN CASTELLANO, «Taxonomía de las garantías jurídicas en el empleo de los sistemas de inteligencia artificial», Revista de Derecho Político, núm. 117, 2023, pp. 153 y ss.
[94] H. JONAS, El principio de responsabilidad (Ensayo de una ética para la civilización tecnológica), 2.ª ed., Herder, 2004.
[95] Respecto a la dignidad y la tecnología digital, y la más específica IA, vid. D. MESSINA, La tutela della dignità nell’era digitale. Prospettive e insidie tra protezione dei date, diritto all’oblio e Intelligenza Artificiale, Editoriale Scientifica, 2023.
[96] Ya, J.F. SÁNCHEZ BARRILAO, «Transformaciones en la protección pública de los derechos fundamentales frente a particulares en la era digital», en A. USCANGA BARRADAS et al. (coord.), Los derechos como límites al poder, Universidad Nacional Autónoma de México / Instituto de Investigaciones Jurídicas, 2023, pp. 155 y ss.
[97] Cfr. O. POLLICINO y G. DE GREGORIO, «Constitutional Law in the Algorithmic Society», en H. MICKLITZ et al. (ed.), Constitutional Law in the Algorithmic Society, Cambridge University Press, 2021, pp. 16 y ss.
[98] Como acontece con la referida protección de los datos personales ante la informática (cfr. G. MINERO ALEJANDRE, «Nuevas tendencias en materia de protección de datos personales. La nueva Ley Orgánica y la jurisprudencia más reciente», Anuario Jurídico y Económico Escurialense, núm. 52, 2019, p. 142, según viene reconociéndose en Derecho comparado (p.e., y para Alemania, vid.W. HOFFMANN-RIEM, El Derecho ante el reto de la transformación digital…, cit., 2022, pp. 116 y ss).
[99] M. BARRIO ANDRÉS, «El cumplimiento basado en el riesgo o risk-based compliance, pieza cardinal del nuevo Derecho digital europeo», Análisis del Real Instituto Elcano, núm. 34, 2023.
[100] De interés, D. SAN MARTÍN SEGURA, La intrusión jurídica del riesgo, Centro de Estudios Políticos y Constitucionales, 2023.
[101] Entre otros, J.I. SOLAR CAYÓN, Inteligencia artificial jurídica e imperio de la Ley, Tirant lo Blanch, 2025, pp. 62 y ss.
[102] Para una primera aproximación, y entre otros, vid.: L. MIGUEZ MACHO y M. TORRES CARLOS, «Sistemas de IA prohibidos y sistemas de IA de alto riesgo», en M. BARRIO ANDRÉS (dir.), El Reglamento Europeo de Inteligencia Artificial, Tirant lo Blanch, 2024, pp. 49 y ss.; y C. MUÑOZ GARCÍA, «Modelos de IA de uso general y sistemas de IA de riesgo limitado y mínimo», también en M. BARRIO ANDRÉS (dir.), El Reglamento Europeo de Inteligencia Artificial…, cit., pp. 87 y ss.
[103] Al respecto, L.M. GONZÁLEZ DE LA GARZA, «El contenido de las llamadas «técnicas subliminales» y las vulnerabilidades de grupo específico de personas en el Reglamento de inteligencia artificial», en L. COTINO HUESO Y P. SIMÓN CASTELLANO (dir.), Tratado sobre el Reglamento de Inteligencia Artificial de la Unión Europea, Aranzadi, 2025, pp. 260 y ss.
[104] Nuevamente, L.M. GONZÁLEZ DE LA GARZA, op. cit., pp. 270 y ss.
[105] Al respecto, L. ESCAJEDO SAN EPIFANIO, «El reconocimiento biométrico en el reglamento de inteligencia artificial: Exenciones, prohibiciones y especialidades de alto riesgo…», cit., pp. 212 y ss.
[106] Otra vez, L. ESCAJEDO SAN EPIFANIO, op. cit., pp. 215 y ss.
[107] Nuevamente L. ESCAJEDO SAN EPIFANIO, op. cit., pp. 183 ss., y 216 ss.
[108] J.F. SÁNCHEZ BARRILAO, «La identificación biométrica, la inteligencia artificial y el efecto desaliento en reuniones y manifestaciones…», cit.
[109] Vid. Á. GÓMEZ DE ÁGREDA, «La exclusión de los sistemas inteligencia artificial de seguridad nacional, defensa y militares del Reglamento y el Derecho aplicable», en L. COTINO HUESO y P. SIMÓN CASTELLANO (dir.), «Tratado sobre el Reglamento de Inteligencia Artificial de la Unión Europea…», cit., pp. 137 y ss.
[110] Cfr.L. COTINO HUESO, “Alcance y delimitación de los sistemas de alto riesgo en el Reglamento de inteligencia artificial”, asimismo en L. COTINO HUESO y P. SIMÓN CASTELLANO (dir.), Tratado sobre el Reglamento de Inteligencia Artificial de la Unión Europea…, cit., pp. 291 y ss.
[111] De interés, R. CERNADA BADÍA, «Grandes plataformas y sistemas de inteligencia artificial destinados a la influencia política: la intersección entre la «Ley de Servicios Digitales» y el Reglamento de inteligencia artificial desde la perspectiva del riesgo», también en L. COTINO HUESO Y P. SIMÓN CASTELLANO (dir.), Tratado sobre el Reglamento de Inteligencia Artificial de la Unión Europea…, cit., pp. 373 y ss.
[112] “[…] un modelo de IA, también uno entrenado con un gran volumen de datos utilizando autosupervisión a gran escala, que presenta un grado considerable de generalidad y es capaz de realizar de manera competente una gran variedad de tareas distintas, independientemente de la manera en que el modelo se introduzca en el mercado, y que puede integrarse en diversos sistemas o aplicaciones posteriores, excepto los modelos de IA que se utilizan para actividades de investigación, desarrollo o creación de prototipos antes de su introducción en el mercado”.
[113] Al respecto, M.J. JIMÉNEZ LINARES, «Riesgos de los sistemas de inteligencia artificial generativa», Revista de Privacidad y Derecho Digital, 9, núm. 34, 2024, pp. 236 y ss.
[114] “[…] un riesgo específico de las capacidades de gran impacto de los modelos de IA de uso general, que tienen unas repercusiones considerables en el mercado de la Unión debido a su alcance o a los efectos negativos reales o razonablemente previsibles en la salud pública, la seguridad, la seguridad pública, los derechos fundamentales o la sociedad en su conjunto, que puede propagarse a gran escala a lo largo de toda la cadena de valor”.
[115] De interés, J.A. CASTILLO PARRILLA, “Inteligencia artificial de uso general, modelos fundacionales (y «Chat GPT») en el Reglamento de inteligencia artificial”, nuevamente en, L. COTINO HUESO y P. SIMÓN CASTELLANO (dir.), Tratado sobre el Reglamento de Inteligencia Artificial de la Unión Europea…, cit., en especial pp. 771 y ss.
[116] Considerando 99 RIA: “Los grandes modelos de IA generativa son un ejemplo típico de un modelo de IA de uso general, ya que permiten la generación flexible de contenidos, por ejemplo, en formato de texto, audio, imágenes o vídeo, que pueden adaptarse fácilmente a una amplia gama de tareas diferenciadas”.
[117] “Los proveedores de sistemas de IA […] que generen contenido sintético de audio, imagen, vídeo o texto, velarán por que los resultados de salida del sistema de IA estén marcados en un formato legible por máquina y que sea posible detectar que han sido generados o manipulados de manera artificial. Los proveedores velarán por que sus soluciones técnicas sean eficaces, interoperables, sólidas y fiables en la medida en que sea técnicamente viable, teniendo en cuenta las particularidades y limitaciones de los diversos tipos de contenido, los costes de aplicación y el estado actual de la técnica generalmente reconocido, según se refleje en las normas técnicas pertinentes […]”. Al respecto, A. CERRILLO I MARTÍNEZ, «El artículo 50 del Reglamento y las obligaciones de transparencia de los proveedores y responsables del despliegue de determinados sistemas de inteligencia artificial», otra vez en COTINO HUESO, L. y SIMÓN CASTELLANO, P. (dir.), Tratado sobre el Reglamento de Inteligencia Artificial de la Unión Europea…, cit., pp. 808 y ss.
[118] Nuevamente, A. CERRILLO I MARTÍNEZ, op. cit., pp. 801 y ss.
[119] De interés, STC 76/2019 (FJ. núm. 6): “A la vista de los potenciales efectos intrusivos en el derecho fundamental afectado que resultan del tratamiento de datos personales, la jurisprudencia de este Tribunal le exige al legislador que, además de cumplir los requisitos anteriormente mencionados, también establezca garantías adecuadas de tipo técnico, organizativo y procedimental, que prevengan los riesgos de distinta probabilidad y gravedad y mitiguen sus efectos, pues solo así se puede procurar el respeto del contenido esencial del propio derecho fundamental” (la cursiva es nuestra).
[120] Cfr. P. CANTARINI GUERRA, «Gobernanza algorítmica, explicación por medio del diseño y justicia del diseño», Anales de la Cátedra Francisco Suárez, núm. 57, 2023, pp. 128 ss.
[121] N. IRTI y E. SEVERINO, Dialogo su diritto e tecnica, Laterza, 2001.
[122] Además de en la explotación económica y usos de la IA, a fin de garantizar IAs respetuosas de las personas y sus derechos.
[123] J.C. HERNÁNDEZ PEÑA, El marco jurídico de la inteligencia artificial. Principios, procedimientos y estructuras de gobernanza, Aranzadi, 2022, pp. 111 y ss.
[124] Acerca de posibles ataques a la IA, J.C. HERNÁNDEZ PEÑA, op. cit., pp. 40 y ss.; y sobre la necesidad, entonces, de seguridad de la IA frente a terceros, J.M. MUÑOZ VELA, Retos, riesgos, responsabilidad y regulación de la inteligencia artificial. Un enfoque de seguridad física, lógica, moral y jurídica, Aranzadi, 2022, pp. 140 ss., y 175 ss.
[125] Exp. Moti. 3.5 PRIA: “La presente propuesta impone ciertas restricciones a la libertad de empresa (artículo 16) y la libertad de las artes y de las ciencias (artículo 13), con vistas a garantizar que se respeten los fines imperiosos de interés general relacionados con ámbitos como la salud, la seguridad, la protección de los consumidores y la protección de otros derechos fundamentales («innovación responsable») cuando se desarrolle y utilice tecnología de IA de alto riesgo. Dichas restricciones son proporcionadas y se limitan al mínimo necesario para prevenir y reducir riesgos graves para la seguridad y violaciones probables de los derechos fundamentales”.
[126] Cfr. L. COTINO HUESO, «Discriminación, sesgos e igualdad de la inteligencia artificial en el sector público…», cit., pp. 320 y ss.
[127] De ahí que el propio RIA expresamente “se limit[e] a establecer los requisitos mínimos necesarios para subsanar los riesgos y problemas vinculados a la IA, sin obstaculizar ni impedir indebidamente el desarrollo tecnológico y sin aumentar de un modo desproporcionado el coste de introducir soluciones de IA en el mercado” (Exp. Mot. 1.1 PRIA).
[128] G. ZAGREBELSKY, Derechos a la fuerza…, cit.
[129] W. HOFFMANN-RIEM, El Derecho ante el reto de la transformación digital…, cit., pp. 109 y ss.
[130] F. BALAGUER CALLEJÓN, La constitución del algoritmo…, cit., pp. 161 y ss.
[131] Vid. C. BOLOGNA, «Libertà di espressione e riservatezza «nella rete»? Alcune osservazioni sul mercato delle idee nell’agorà digitale», Rivista Gruppo di Pisa. Dibattito aperto sul Diritto e la Giustizia Costituzionale, núm. 3, 2021, pp. 69 y ss.
[132] Entre otros, I. LÓPEZ-VIDRIERO TEJEDOR, «Novedades que introduce el paquete del reglamento de servicios digitales y algunos de sus paralelismos con el RGPD», Derecho Digital e Innovación / Digital Law and Innovation Review, núm. 14, 2022; asimismo, L. ORTEGA SÁNCHEZ y M. VERDEGUER SEGARRA, «El nuevo Reglamento europeo de mercados digitales: regulación de las plataformas digitales en la nueva era tecnológica», Unión Europea Aranzadi, núm. 2, 2023.
[133] Así, J.J. CASTELLÓ PASTOR, «Nuevo régimen de responsabilidad de los servicios digitales que actúan como intermediarios a la luz de la propuesta de Reglamento relativo a un mercado único de servicios digitales», en J.J. CASTELLÓ PASTOR (dir.), Desafíos jurídicos ante la integración digital: aspectos europeos e internacionales, Aranzadi, 2021, pp. 37 y ss. También, vid.: A. MARTÍNEZ NADAL, «Naturaleza (y responsabilidad) de las plataformas digitales: de la directiva de comercio electrónico a la propuesta de reglamento de servicios digitales», en M.J. BLANCO SÁNCHEZ (dir.), Derecho digital y nuevas tecnologías, Aranzadi, 2022, pp. 387 y ss.; y P.A. DE MIGUEL ASENSIO, «Obligaciones de diligencia y responsabilidad de los intermediarios: El Reglamento (UE) de Servicios Digitales», La Ley Unión Europea, núm. 109, 2022.
[134] Cfr. M. SANTISTEBAN GALARZA, «Garantías frente a la moderación de contenidos en la Propuesta de Reglamento Único de Servicios Digitales», Revista CESCO de Derecho de Consumo, núm. 41, 2022, pp. 159 y ss.
[135] D. SARMIENTO y S. IGLESIAS SÁNCHEZ, La regulación europea de los contenidos en la red. El Reglamento de Servicios Digitales, Marcial Pons, 2024, pp. 65 y ss.
[136] Ello, realmente, no es algo exclusivo del RSD, sino del modelo regulatorio general que utiliza la UE al respecto de la ordenación de mercados de carácter tecnológico (cfr. J. ESTEVE PARDO, El camino a la desigualdad. Del imperio de la ley a la expansión del contrato, Marcial Pons, 2023, pp. 58 y ss.), y por tanto extensible también, entendemos, al RIA.
[137] Considerando 4: “La publicidad política puede ser un vector de desinformación, en particular cuando no revela su naturaleza política, cuando proviene de patrocinadores de fuera de la Unión o está sujeta a técnicas de segmentación o técnicas de entrega de anuncios. Entre otras razones, es necesario un nivel elevado de transparencia para propiciar un debate político y unas campañas políticas abiertos y justos, y elecciones o referendos libres y justos, así como para contrarrestar la manipulación de la información y las injerencias ilícitas, también las procedentes de terceros países. La transparencia de la publicidad política contribuye a que los votantes y las personas en general entiendan mejor cuándo están siendo expuestos a un anuncio político, en nombre de quién se hace dicha publicidad, así como de qué manera y por qué están siendo el objetivo de un prestador de servicios publicitarios, de modo que los votantes estén mejor situados para elegir con conocimiento de causa”.
[138] J.F. SÁNCHEZ BARRILAO, «Sociedad del miedo y desafección constitucional», Revista de Derecho Político, núm. 108, 2020, pp. 118-119.
[139] P.e., L. COTINO HUESO, «Quién, cómo y qué regular (o no regular) frente a la desinformación», Teoría y Realidad Constitucional, núm. 49, 2022, pp. 199 y ss.
[140] “El presente Reglamento no se aplicará a los sistemas de IA divulgados con arreglo a licencias libres y de código abierto, a menos que se introduzcan en el mercado o se pongan en servicio como sistemas de IA de alto riesgo o como sistemas de IA que entren en el ámbito de aplicación del artículo 5 o del artículo 50”.
[141] Considerando 102 RIA: “El software y los datos, incluidos los modelos, divulgados con arreglo a una licencia libre y de código abierto que permita compartirlos abiertamente y que los usuarios puedan acceder a ellos, o a versiones modificadas de dicho software y dichos datos, o utilizarlos, modificarlos y redistribuirlos libremente, pueden contribuir a la investigación y la innovación en el mercado y pueden ofrecer importantes oportunidades de crecimiento para la economía de la Unión. Debe considerarse que los modelos de IA de uso general divulgados con arreglo a una licencia libre y de código abierto garantizan altos niveles de transparencia y apertura si sus parámetros, incluidos los pesos, la información sobre la arquitectura del modelo y la información sobre el uso del modelo, se ponen a disposición del público. La licencia debe considerarse libre y de código abierto cuando permita a los usuarios ejecutar, copiar, distribuir, estudiar, modificar y mejorar el software y los datos, incluidos los modelos a condición de que se cite al proveedor original del modelo, si se respetan unas condiciones de distribución idénticas o comparables”.
[142] Naturalmente aunque la IA seguiría ocupando un nuevo e intenso rol destacado al respecto de la comunicación y del espacio público en este otro modelo alternativo e hipotético, lo sería fundamentalmente en cuanto que objeto tecnológico, y no tanto en cuanto que instrumento económico en manos de terceros.
[143] F. BALAGUER CALLEJÓN, La constitución del algoritmo…, cit., pp. 155 y ss.
[144] De interés, M.Á. PRESNO LINERA, «Análisis del origen y desarrollo de la propuesta de ‘ley de inteligencia artificial’ europea», en F. CAAMAÑO y D. JOVE VILLARES (ed.), Tecnologías abusivas y Derecho, Tirant lo Blanch, 2024, pp. 93 y ss.
[145] Ya, “Directrices Éticas para una IA Fiable”, Grupo de expertos de alto nivel sobre inteligencia artificial, Comisión Europea, de 8 de abril de 2019. Sobre ello, J.C. HERNÁNDEZ PEÑA, El marco jurídico de la inteligencia artificial. Principios, procedimientos y estructuras de gobernanza…, cit., pp. 76 ss.
[146] Cfr. D. MESSINA, «La proposta di regolamento europeo in materia di Intelligenza Artificiale: verso una ‘discutibile’ tutela individuale di tipo consumer-centric nella società dominata dal ‘pensiero artificiale”», MediaLaws. Rivista di Diritto dei Media, 2, 2022, pp. 196 y ss. Por otra parte, acerca de cierta tendencia a desplazar el ciudadano por el referido usuario y consumidor, vid. A. AGUILAR CALAHORRO, «El sujeto de derecho en la sociedad del consumo: el ciudadano como consumidor», en M.Á. GARCÍA HERRERA (dir.), Constitucionalismo crítico: Liber amicorum Carlos de Cabo Martín (I), 2ª ed., Tirant lo Blanch, 2016, pp. 489 y ss; y de cómo esto promueve, a su vez, una mayor desigualdad, J. ESTEVE PARDO, El camino a la desigualdad…, cit., pp. 141 ss.
[147] A pesar de quien considere la regulación europea en materia de datos como excesiva, de modo que venga a “entorpecer de manera irremediable sustancial el tráfico cibernético y comercial al que los usuarios ya estamos acostumbrados”; A. CASTILLO ARA, «Desafíos de la protección de datos personales en el Derecho de la Unión Europea», Actualidad Jurídica. Revista de Derecho de la Universidad del Desarrollo, núm. 42, 2020, p. 27.
[148] Sobre éste, A. BRADFORD, The Brussels Effect: How the European Union Rules the World, Oxford University Press, 2020.
[149] Y ello, según parece, ante la situación de incertidumbre que para el mercado internacional está suponiendo la diabólica y errática política arancelaria de la nueva Administración Trump, y en particular su conflictiva relación con la Unión Europea. No en vano el referido “efecto Bruselas” al respecto de la IA parece hoy más difícil de alcanzar, en especial ante la mayor resistencia que parecen mostrar tanto las grandes empresas de la IA, como el propio Gobierno norteamericano; cfr. M.Á. PRESNO LINERA, «Análisis del origen y desarrollo de la propuesta de ‘ley de inteligencia artificial’ europea…», cit., pp. 93 y ss.
[150] Desde esta perspectiva jurisdiccional al respecto de la libertad de expresión, vid. A. ABA CATOIRA, «Los desórdenes informativos en un sistema de comunicación democrático», Revista de Derecho Político, núm. 109, 2020, pp. 119 y ss.
[151] Ya, J.F. SÁNCHEZ BARRILAO, «Sobre la Constitución normativa y la tecnología», Revista de la Facultad de Derecho de la Universidad de Granada, núm. 8, 2005, pp. 257 y ss. No en vano la IA ha ampliado, ensanchando, el escenario político, además de la interacción entre las personas y el poder público, así como su participación, hasta arribarse a un nuevo escenario político ahora digital; así, J.C. GALINDO VACHA, «La inteligencia artificial (IA) en el marco de la democracia digital», Revista de Derecho Político, núm. 122, 2025, pp. 159 y ss.
[152] P.e., J.L. GONZÁLEZ SAN JUAN, «El papel de la inteligencia artificial en la era de la posverdad: la paradoja del problema y la solución», Telos: Cuadernos de Comunicación e Innovación, núm. 122, 2023, pp. 72 y ss.; también, U. CARRAL y C. ELÍAS, «Aplicación de herramientas de IA como metodología para el análisis de la toxicidad en redes sociales: estudio de caso de la política española en Twitter», Revista Latina de Comunicación Social, núm. 82, 2024.
[153] Así, durante la pandemia en España, recuérdese la intervención del Ministro del Interior, F. Grande-Marlaska Gómez, en conferencia de prensa (16/03/2020) afirmando que se estaban monitorizándose las redes sociales; cfr. J.F. SÁNCHEZ BARRILAO, «Riesgos y seguridad a comienzos del siglo XXI (y una coda al respecto de la crisis del COVID-19)», en F. BALAGUER CALLEJÓN et al. (coord.), Los derechos fundamentales ante la crisis económica y de seguridad en un marco constitucional fragmentado, Aranzadi, 2020, p. 333.
[154] P.e., las tomas populares del Capitolio en Washington de 2021 y del Congreso de Brasil en 2023 por seguidores de Trump y Bolsonaro, respectivamente; sobre lo primero, de interés, A. FRICANO, «Prove tecniche di resilienza costituzionale: l’assalto a Capitol Hill e la censura mediatica di Donald Trump», Rivista Gruppo di Pisa. Dibattito aperto sul Diritto e la Giustizia Costituzionale, núm. 3, 2021, pp. 733y ss.
[155] Nuevamente A. ABA CATOIRA, pero ahora «Libertades de expresión e información en la sociedad digital como garantías de la democracia», Revista Doctrina Distrital, núm. 1, vol. 2, 2021, pp. 55 y ss.
[156] Acerca de la necesidad de incrementar la transparencia y control como forma de legitimación de tal actividad pública, cfr. J.F. SÁNCHEZ BARRILAO, «Democracia, desafección constitucional y seguridad…», cit., pp. 162 y ss.
[157] De interés, F.A. MARÍN GUTIÉRREZ, «La inteligencia artificial en el campo de la información: su utilización en apoyo a la desinformación», en Centro Conjunto de Desarrollo de Conceptos (ed.), Usos militares de la inteligencia artificial, la automatización y la robótica (IAA&R), Ministerio de Defensa, 2020, pp. 69 y ss.
[158] “A los efectos de esta ley se entenderá por Seguridad Nacional la acción del Estado dirigida a proteger la libertad, los derechos y bienestar de los ciudadanos, a garantizar la defensa de España y sus principios yvalores constitucionales, así como a contribuir junto a nuestros socios y aliados a la seguridad internacional en el cumplimiento de los compromisos asumidos” (la cursiva es nuestra); al respecto, otra vez J.F. SÁNCHEZ BARRILAO, pero ahora Inteligencia y seguridad como objeto constitucional: el CNI y la comunidad de inteligencia ante los nuevos retos de la sociedad del riesgo, Centro de Estudios Políticos y Constitucionales, 2019, pp. 183 y 326 ss.
[159] De interés, sobre el concepto de ciberseguridad, T. ÁLVAREZ ROBLES, «La ciberseguridad: la seguridad integral y descentralizada del Estado digital», en F. CAAMAÑO y D. JOVE VILLARES (ed.), Tecnologías abusivas y Derecho, Tirant lo Blanch, 2024, pp. 255 y ss.
[160] El 5 de noviembre de 2020 se publicaba por el Ministerio de la Presidencia, Relaciones con la Cortes y Memoria Democrática (Orden PCM/1030/2020, de 30 de octubre), un “Procedimiento de actuación contra la desinformación”, y con el que el Gobierno pretendía alcanzar una actuación más coordinada en relación a la desinformación en un plano tanto organizativo, como funcional. Al respecto, nuevamente, J.F. SÁNCHEZ BARRILAO, «La difesa della democrazia pluralista dinanzi alla paura e alla disinformazione», Rivista di Diritto dei Media (Media Laws), núm. 2, 2021, pp. 44 y ss.
[161] En tal sentido crítico, E. GUILLÉN LÓPEZ, «Información, desinformación y pandemia: Un análisis contextual de la Orden de 30 de octubre de 2020 por la que publica el procedimiento de actuación contra la desinformación aprobado por el Consejo de Seguridad Nacional de España», en M.C. GARCÍA GARNICA y R.P. ROJO ALVAREZ DE MANZANEDA, El impacto jurídico del Covid-19, Comares, 2022, pp. 1 y ss. Es por ello que se requiera poder fiscalizar dicha labor pública securitaria a fin de garantizar su sujeción a los fundamentos del Estado social y democrático de Derecho; también de interés, otra vez, J.F. SÁNCHEZ BARRILAO, mas ahora «Servicios de inteligencia, secreto y garantía judicial de los derechos», Teoría y Realidad Constitucional, núm. 44, 2019, pp. 337 y ss.
[162] Cfr. J. TUDELA ARANDA, «Parlamento, Democracia e inteligencia artificial», Teoría y Realidad Constitucional, núm. 52, 2023, pp. 303 y ss.; asimismo, de interés, vid. J. GUILLEM CARRAU, «Inteligencia artificial y parlamentos modernos», Corts: Anuario de Derecho Parlamentario, núm. 38, 2024, pp. 77 y ss.
[163] Vid. J.F. SÁNCHEZ BARRILAO, «Inteligencia artificial y fuentes del Derecho…», cit.
[164] D. INNERARITY, «El impacto de la inteligencia artificial en la democracia», Revista de las Cortes Generales, núm. 109, 2020, pp. 87 y ss.
[165] Así, J.F. SÁNCHEZ BARRILAO, «El constitucionalismo del Siglo XXI», Revista Dominicana de Derecho Constitucional, núm. 6, vol. 2, 2024, pp. 126-128.
[166] Por todos, J.L. SUÁREZ, La condición digital, Trotta, 2023.
[167] I. BELTRÁN DE HEREDIA RUIZ, Inteligencia artificial y neuroderechos: la protección del yo inconsciente de la persona, Aranzadi, 2023, pp. 138 y ss.
[168] Como dice Beltrán De Heredia Ruiz: “Es obvio que el objeto de este estudio participa de una provisionalidad e incertidumbre extremas. Muchos problemas hoy sólo podemos intuirlos y/o especular sobre ellos. Hasta que no se corporicen, seremos víctimas de una aguda ceguera que invariablemente se irá disipando a medida que el futuro devenga presente. Como ha sucedido con todas las revoluciones tecnológicas precedentes, el desconocimiento del curso que acabará tomando la técnica y de sus riesgos, nos enfrenta al reto de imaginar proactivamente y en el presente el marco normativo del futuro incierto”; I. BELTRÁN DE HEREDIA RUIZ, op. cit., p. 17.
[169] P.e. E. GUILLÉN LÓPEZ, «La crisis económica y la dirección política: reflexiones sobre los conceptos de necesidad y de elección en la teoría constitucional», Revista de Derecho Constitucional Europeo, núm. 20, 2013, pp. 431 y ss.
[170] Cfr. A. GIDDENS, Un mundo desbocado. Los efectos de la globalización en nuestras vidas, Taurus, 2000.
[171] Nuevamente J.F. SÁNCHEZ BARRILAO, pero ahora «Fundamentalismos, identidades e integración en Europa», en F. BALAGUER CALLEJÓN y J. TUDELA ARANDA (coord.), Perspectivas actuales del proceso de integración europea, Fundación Manuel Giménez Abad de Estudios Parlamentarios y del Estado Autonómico, 2019, pp. 113 y ss.
[172] Recuérdese el “no nos representan”; M.Á. PRESNO LINERA: «Partidos políticos y movimientos ciudadanos en la sociedad del riesgo y la desconfianza», Fundamentos: Cuadernos Monográficos de Teoría del Estado, Derecho Público e Historia Constitucional, núm. 8, 2014, pp. 224 y ss.; y «¿Nos representan o no?», en M. CONTRERAS CASADO y E. CEBRIÁN ZAZURCA, La crisis contemporánea de la representación política, Editorial Comuniter, 2016, pp. 37 y ss.
[173] Otra vez J.F. SÁNCHEZ BARRILAO: «Sociedad del miedo y desafección constitucional…», cit., 2020, pp. 97 y ss.; y «La difesa della democrazia pluralista dinanzi alla paura e alla disinformazione…», cit., 2021, pp. 44 y ss.
[174] P.e. M.A. GRABER et al.(ed.), Constitutional Democracyin Crisis?, Oxford University Press, 2018.
[175] Como se evidenció tras la referida anulación de las elecciones presidenciales rumanas de 2024, ante el apoyo popular recibido por el candidato desplazado. Cfr. A. COLIBĂȘANU, «Las fisuras del Este: la transformación política de Rumanía y el futuro de Europa», Real Instituto Elcano, 12025; también de interés, B. IANCU, «Militant Democracy and Rule of Law in Three Paradoxes: The Annulment of the Romanian Presidential Elections», Hague Journal Rule Law, 2025.