“La segunda idea relevante tiene que ver con la forma de
incluir valores a la superinteligencia (artificial). Con diferencia,
este es el punto más delicado" (José Ignacio Latorre)
Por Rafael Jiménez Asensio. La Mirada Institucional blog.- Cuando se publicó la Ley de Transparencia (diciembre 2013),
los problemas relativos a la ética pasaron de puntillas (el título II de la Ley
fue un fiasco absoluto). Asimismo, en aquel momento el algoritmo apenas
inquietaba, ya que la automatización aún no se hacía presente y la Inteligencia
artificial estaba muy lejana todavía.
Prueba de que los acontecimientos se aceleran es que esa
triada que enuncia esta entrada va tomando cuerpo cada día que pasa con más
intensidad; también en el sector público, siempre renuente a cambios,
adaptaciones y transformaciones. Conforme la revolución tecnológica vaya
ocupando espacios cada vez mayores en la actuación de los poderes públicos,
también administrativos, las preguntas se irán acumulando y la trazabilidad de
los algoritmos será más necesaria para identificar responsabilidades de todo
tipo. Un tema en nada menor.
Harari, en su reciente libro 21 lecciones para el siglo
XXI (Debate, 2018), ya nos advierte de uno de los riesgos que presentan
los algoritmos en su constante tendencia a hackear a los humanos,
dado que “podrán manipular nuestras emociones con asimétrica precisión”. Si lo
primero es preocupante, no lo es menos lo segundo: su asimetría.
Pero lo realmente grave de este fenómeno, ya imparable, es
la tendencia de los algoritmos a transformarse en auténticas “cajas negras”,
algo que adquiere particular relieve en el tratamiento masivo de datos o Big
Data, así como en el emergente Internet de las cosas.
Hace ya algunos años Mayer-Schönberger y Cukier ponían el
acento en que los datos masivos, eran auténticas “cajas negras”, que “no
ofrecen ninguna rendición de cuentas, trazabilidad o confianza”. Eso es algo
que también nos ha recordado recientemente el sugerente libro de Paloma Llaneza
titulado Datanomics (Todos los datos personales que das sin darte cuenta y
todo lo que las empresas hacen con ellos, Deusto 2019), en donde ya sin ambages
se hace eco de que los modelos matemáticos sobre los que se sustentan los
algoritmos no son neutros, pues al fin y a la postre tales modelos, en
determinadas circunstancias, pueden llegar a convertirse, tal como expuso en su
día O’Neil, en “matemáticas de destrucción masiva”. En efecto, según nos
recuerda en el libro indicado, “algunos algoritmos informáticos ya han exhibido
prejuicios, como el racismo y el sexismo, basados en el aprendizaje de
registros públicos y otros datos generados por humanos”. De ahí que deduzca su
autora que nos encontramos de nuevo ante verdaderas “cajas negras”. Pero con la
cualidad agravada de que en no pocos casos se cierra el acceso a sus contenidos
alegando razones tan peregrinas como el secreto empresarial o la propiedad
intelectual, como ahora veremos. Unos pretendidos límites al acceso a esa
información que, de no interpretarse correctamente y con fuerte carácter
restrictivo, pueden actuar como freno al acceso a la información pública
recogida en la Ley de Transparencia antes citada. Y con consecuencias
demoledoras.
Por eso, concluye Paloma Llaneza, “la transparencia
algorítmica es tan importante”. Y, efectivamente, desde el punto de vista de
garantías de los derechos y libertades que asientan el Estado Constitucional
Democrático, esos modelos matemáticos que sustentan los algoritmos no pueden
ser “cajas negras inescrutables”, pues ello conllevaría desapoderar a la
transparencia como instrumento central de control del ejercicio del poder y
dejar sin protección los derechos de la ciudadanía. Conforme la automatización
de las Administraciones Públicas vaya creciendo exponencialmente, los problemas
de control de los programas que se apliquen los tratamientos automatizados
serán cada vez mayores y requerirán un escrutinio cada vez más intenso que sea
capaz de definir su trazabilidad. La transparencia pública se juega su futuro
en esta intensa y desigual batalla, pues la Administración apenas dispone de
conocimiento interno para hacerla efectiva. Está, al menos hoy en día,
totalmente en manos del mercado.
Hace algunos meses CIVIO hizo pública la impugnación ante la
jurisdicción contencioso-administrativa de una denegación de acceso a la
información pública que tenía como base la mala aplicación de un sistema
automatizado de adjudicación del bono social eléctrico (Ver: https://bit.ly/326pxNp), porque la citada
entidad tras algunos análisis efectuados tenía fundadas sospechas de que el
programa llevaba a cabo decisiones erróneas con perjuicios para determinadas
personas. Solicitaban, así, tener acceso al “código fuente” (a la “caja negra”
del programa) para identificar su diseño y detectar, en su caso, su trazado.
Tanto la Administración del Estado como el Consejo de Transparencia y Buen
Gobierno, en este caso en una polénica resolución CTBG-CODIGO FUENTE-R-0701-2018,
denegaron ese acceso a tal información (código fuente) basándose en el límite
de que tal acceso afectaba a la propiedad intelectual, lo que así expuesto
puede tener unas consecuencias letales para los derechos de la ciudadanía (en
este caso de un colectivo especialmente vulnerable). La voz ahora la tienen los
tribunales de justicia. Una decisión judicial que, sin duda, será de enorme
trascendencia futura.
La batalla no ha hecho más que empezar y será larga, así
como cruenta, pues las resistencias “culturales” (organizativas y
empresariales) son enormes y la legislación muestra una inadaptación brutal a
una revolución tecnológica que se está colando de rondón silenciosamente en los
procedimientos administrativos y en las resoluciones que los ultiman. Es la
actuación silente y letal del algoritmo en la vida y derechos de los
ciudadanos. También en la Administración Pública, como el Derecho
Administrativo comienza a percibir recientemente. Si, como reconoció Lassalle
(Ciberleviatán, 2019), “el algoritmo se ha convertido en la práctica en el
sustituto de la Ley”, algo habrá que idear para que el Estado de Derecho no se
quiebre como consecuencia del reinado del algoritmo. La lucha por su
transparencia y trazabilidad es, así, una tarea pendiente e inaplazable.
Aunque, en no pocos casos, con la llegada del Internet de las cosas (5 G) el
problema se acreciente y conforme se avance en ese proceso sea más complejo
determinar esa trazabilidad hasta determinar su origen. Algo habrá que inventar
para evitar ese borrado fáctico. Todo por hacer.
Este es un problema que analizó con rigor José Ignacio
Latorre en su excelente libro Ética para las máquinas (Ariel, 2018).
Pues si bien es cierto que la transparencia es un presupuesto inevitable para
paliar en la medida de lo posible la afectación directa o lateral a los derechos
de la ciudadanía, también sobre aquellos derechos que tienen carácter de
prestación, no lo es menos la imperiosa necesidad de “iniciar un proceso de
legislación sobre el uso de los robots”. Como reconoce este autor, “la
inteligencia artificial avanzada plantea problemas legales y éticos que
requieren la colaboración de todas las visiones de la sociedad”. Tal como
concluye: “La inteligencia artificial debe ser programada con ciertos
principios plasmados en su código”. Es lo que se llama como “carga de valores”
de un programa artificial.
Tales declaraciones de principios ya han sido incluso
codificadas en algunos casos y han terminado influyendo en determinados ámbitos
normativos. También el Grupo Europeo de Ética de la Ciencia y de las Nuevas
Tecnologías ha formulado una serie de principios que debería inspirar las
legislaciones de los diferentes Estados. Allí no solo se ahonda en la dignidad
humana y en otros principios eje del Estado constitucional democrático, sino
que se sitúa el acento en ámbitos clave como “la seguridad emocional con
respecto a la interacción humano-máquina”, tal como expone Latorre.
La Unión Europea dio luz asimismo en 2017 a la Declaración
de Tallin, que muy colateralmente todavía aborda esta cuestión (y que se analiza
por Concepción Campos Acuña en un reciente trabajo: https://bit.ly/31QIaUP). Y, en fin, el
documento de la Comisión Europea Inteligencia Artificial para Europa [COM
(2018) 237 final], muy preocupado por los impactos económicos de tal proceso en
los países miembros, también se hace eco tibiamente de esta problemática en su
apartado “Garantizar un marco ético y jurídico adecuado”. Pero aún se dista
mucho de sentar bases efectivas para afrontar ese enorme reto, tal como lo
enunciara el profesor José Ignacio Latorre. Por su parte, Carles Ramió, en su
libro Inteligencia artificial y Administración Pública (Catarata,
2019), también se hace eco de algunos retos que en materia de ética se plantean
en ese ámbito.
En fin, por lo que a nosotros compete, solo hace falta que
ese legislador durmiente acunado por el eterno gobierno en funciones despierte
de su largo letargo y comience a asumir la transcendencia que los temas de
ética y transparencia tienen en los procesos de automatización administrativa
para el común de los mortales que nos relacionamos con los poderes públicos,
articulando una verdadera protección de sus derechos frente a actuaciones que
se basan en códigos fuente configurados como auténticas cajas negras y que han
sido confeccionados habitualmente por empresas tecnológicas externas a las
Administraciones Públicas sin un previo establecimiento de exigencias éticas,
así como sin prever ningún tipo de medidas de acceso efectivo al diseño y
ejecución de los programas informáticos. Cabe defender, en todo caso, que el
propio RGPD puede dar algunos elementos en esa línea de defensa vinculada con
la transparencia, cuando obliga a facilitar –al menos a los interesados- toda
la información relativa a decisiones automatizadas y, en particular, “la
información significativa sobre la lógica aplicada”. Esto es algo que se
debería objetivar preservando, sin duda, los datos personales de los afectados,
con la finalidad de conocer a ciencia cierta la “cara oculta” de tales tratamientos
automatizados, si la hubiere, y qué consecuencias o efectos tiene en las
decisiones administrativas.
Así pues, la lucha por la integridad y transparencia en la
actuación de las Administraciones Públicas tiene un enorme desafío, al que se
deberá hacer frente, con un conjunto articulado y plural de medidas normativas
y de otro carácter, que cuanto antes se pongan en marcha mejor. Por el bien de
todos y por el bien del Estado Democrático. El control del poder en un futuro
inmediato se dirimirá en buena parte en ese terreno de los datos y del
tratamiento automatizado de estos, cuando no de la propia Inteligencia
Artificial.
Al fin y a la postre, como dice con acierto Paloma Llaneza,
los algoritmos son algo así como “recetas de cocina”. Y es muy importante
conocer qué ingredientes llevan, cómo se mezclan y quién es la persona que los
“ha cocinado”, así como con qué principios culinarios se tratan. La salud
democrática y los derechos más básicos de las personas están en juego.
No hay comentarios:
Publicar un comentario