viernes, 11 de abril de 2025

La transparencia en la utilización de la inteligencia artificial por autoridades y entidades públicas

"La pregunta que nos planteamos en España es si sería posible acceder a este tipo de información con la vigente Ley 19/2013, de 9 de diciembre, de transparencia, acceso a la información pública y buen gobierno (LTAIBG)"

 Por mablanescliment blog-.- La inteligencia artificial (IA) es utilizada cada vez más por autoridades y entidades públicas para adoptar decisiones (por ejemplo, conceder ayudas, gestionar multas o impuestos, tramitar procedimientos administrativos, etc.) o para elaborar estudios, informes o análisis sobre cualquier materia o servicio público. Es un hecho imparable.

La IA es una poderosa herramienta que puede facilitar incrementar la eficacia de las actuaciones públicas. No obstante, hay un claro consenso en que la utilización de la IA no puede servir para vulnerar los derechos de las personas. Este límite es evidente.

Ahora bien, para poder controlar y comprobar que la IA respeta esos derechos, es necesario que el uso de la misma sea transparente. Dicho en otras palabras, en mi opinión, las autoridades y entidades públicas solo pueden utilizar una IA que sea transparente. Si no se puede garantizar dicha transparencia, la IA no debe ser utilizada. Vamos a explicarlo con 3 casos reales:

a) La obligación de publicar en el Portal de Transparencia los sistemas de inteligencia artificial que están siendo utilizados.

La Ley 1/2022, de 13 de abril, de Transparencia y Buen Gobierno de la Comunitat Valenciana, es la primera normal de rango legal en España que obliga a la Administración de la Generalitat y sus organismos públicos vinculados o dependientes, a las entidades integrantes de la administración local de la Comunitat Valenciana, a las universidades públicas valencianas, y a los consorcios constituidos íntegramente por administraciones públicas territoriales, a publicar la siguiente información (artículo 16.1.l):

«La relación de sistemas de inteligencia artificial de alto riesgo de acuerdo con el reglamento de inteligencia artificial que desarrollen o implanten. Asimismo, se incluirá la relación de sistemas automatizados y sistemas de inteligencia artificial de uso general cuyo empleo impacte de manera significativa en los procedimientos administrativos o la prestación de los servicios públicos.

Sin perjuicio de su desarrollo reglamentario, y de acuerdo con los principios de transparencia y explicabilidad, la información a facilitar incluirá la descripción, en un lenguaje claro y sencillo, del diseño, funcionamiento y lógica del sistema, su finalidad, su incidencia en las decisiones públicas, el nivel de riesgo que implica, la importancia y consecuencias previstas para la ciudadanía, el punto de contacto al que poder dirigirse, y en su caso, el órgano u órganos competentes a efectos de impugnación. Asimismo, se informará de los criterios generales de impacto y riesgo adoptados para delimitar los sistemas a los que se debe dar publicidad».

b) El acceso al código fuente de un programa informático

Gracias a la incansable lucha de la Fundación Civio, el Tribunal Supremo, mediante Auto de fecha 27/11/2024 (enlace), admitió a trámite un Recurso de Casación, todavía no resuelto, para determinar la procedencia -o no- de facilitar el código fuente de la aplicación, con la finalidad de comprobar si se cumplen los requisitos para ser beneficiario del bono social.

Según explica la Fundación Civio en su página web (enlace), en 2018, pidió el código fuente, las funcionalidades y los casos de prueba de BOSCO, el programa que decide quién accede al bono social eléctrico. La administración rechazó el acceso, pero gracias a la estimación parcial de la reclamación presentada ante el Consejo de Transparencia y Buen Gobierno (CTBG), se permitió conocer las funcionalidades y los casos de prueba. Estos dos elementos fueron muy importantes para demostrar que BOSCO había sido diseñado con errores que dejaban fuera a personas con derecho a la ayuda.

Sin embargo, el CTBG negó el acceso al código fuente, donde se detallan todas las instrucciones del algoritmo, y con el que se hubiera podido confirmar o descartar la existencia de más errores.

Tras años de negativas y excusas basadas en la propiedad intelectual y la seguridad, el litigio está actualmente pendiente de resolución por el Tribunal Supremo.

En mi opinión, si no es posible acceder al código fuente de un programa informático por razones de propiedad intelectual o de seguridad, dicha aplicación informática no debe ser utilizada por la Administración, ya que resulta imposible comprobar el correcto funcionamiento del algoritmo (si tiene errores, sesgos, etc.) y, por ende, de las decisiones públicas adoptadas con apoyo en el mismo.

c) La utilización de inteligencia artificial generativa para tomar decisiones públicas: Mistral (europea), ChatGPT (norteamericana) y DeepSeek (china).

Hace un par de semanas, se generó en LinkedIn un interesante debate en torno a la siguiente pregunta planteada por Jorge Morell Ramos (enlace): «¿Y si usamos la Ley de Transparencia para conocer los «prompts» utilizados por un político que empleó inteligencia artificial para tomar una decisión?».

El secretario de tecnología del Reino Unido, quien públicamente se confesó como un gran usuario de ChatGPT, se ha convertido recientemente en el primer político cuyos «prompts» han sido publicados usando la Ley de Libertad de Información (FOI) (enlace).

Un periodista solicitó qué tipo de interacciones estaba teniendo con la herramienta. Inicialmente, la solicitud fue rechazada con la excusa de que las indicaciones y respuestas se realizaron tanto a título personal como oficial. Por ello, limitó la solicitud respecto a los «prompts» y respuestas realizadas a título oficial. Y gracias a la Ley de Libertad de Información inglesa, se han facilitado y se ha podido acceder a la siguiente información pública:

– La autoridad política le pidió a ChatGPT que explicara por qué las PYMES del Reino Unido habían tardado tanto en adoptar la IA. ChatGPT devolvió una lista de 10 puntos de problemas que obstaculizan la adopción, incluidas las secciones sobre «Conciencia y comprensión limitadas», «Preocupaciones regulatorias y éticas» y «Falta de apoyo gubernamental o institucional».

– El político inglés también usó ChatGPT para buscar ideas con la finalidad de incrementar su presencia en los medios, con la siguiente pregunta: «Soy Secretario de Estado para la ciencia, la innovación y la tecnología en el Reino Unido. ¿Cuáles serían los mejores podcasts en los que aparecer para llegar a una amplia audiencia que sea apropiada para mis responsabilidades ministeriales?».

La pregunta que nos planteamos en España es si sería posible acceder a este tipo de información con la vigente Ley 19/2013, de 9 de diciembre, de transparencia, acceso a la información pública y buen gobierno (LTAIBG). En mi opinión, sí que sería posible, por las siguientes razones.

En primer lugar, es importante aclarar qué son los «prompts»: son las peticiones, preguntas o solicitudes que hacemos a la inteligencia artificial generativa para obtener las correspondientes respuestas. Acabamos de ver los dos «prompts» que hizo el político inglés y que se han conocido gracias a la aplicación de la Ley de Libertad de Información.

Hecha esta aclaración, vamos a analizar brevemente cuál es la situación actual en España.

El Tribunal Supremo está defendiendo que el derecho de acceso a la información pública es un derecho constitucional de primer orden y que los límites y las causas de inadmisión deben ser interpretadas de forma restrictiva, entre ellas, la causa de inadmisión consiste en información auxiliar o de apoyo (borradores, notas, opiniones, resúmenes, comunicaciones e informes internos o entre órganos o entidades administrativas).

Asimismo, el artículo 13 de la LTAIBG describe un concepto amplio de información pública, «cualquiera que sea su formato o soporte». Entre estos formatos o soportes se podría entender comprendidos los correos electrónicos (emails), los mensajes de telefonía móvil (whatsapp, telegram, etc.) y los «prompts» y las respuestas obtenidas con IA.

Es importante recordar que resulta fraudulento utilizar estas aplicaciones, por parte de autoridades o empleados públicos, desde dispositivos privados o particulares para tratar asuntos públicos con el objetivo de impedir el posterior acceso a dicha información pública con la excusa de la naturaleza privada de dichos dispositivos y la necesidad de proteger la privacidad e intimidad.

Por otra parte, salvo que la información pública contenida en dichos formatos o soportes pueda ser considera como «auxiliar o de apoyo», no por su denominación, sino por su contenido, el acceso a dicha información debería ser posible, en la medida en que contiene información que puede haber sido relevante o puede haber condicionado la decisión pública finalmente adoptadaNótese que, mediante la utilización de IA generativa (ChatGPT, Mistral, Deepseek, etc.), se pueden elaborar estudios, análisis o informes sobre cualquier materia, cuyo conocimiento puede resultar necesario para conocer la justificación o fundamentación de la decisión pública adoptada.

Finalmente, la utilización de la IA en la adopción de decisiones públicas no puede servir de excusa para evitar la aplicación de la Ley de Transparencia y eludir su finalidad (exposición de motivos): «conocer cómo se toman las decisiones que afectan a los ciudadanos, cómo se manejan los fondos públicos o bajo qué criterios actúan nuestras instituciones».

No hay comentarios:

Publicar un comentario