miércoles, 2 de mayo de 2018

La protección de datos en la revolución tecnológica

“La era del algoritmo marca el momento en que la memoria técnica ha evolucionado para almacenar no solo nuestros datos, sino también algunos patrones del comportamiento más sofisticado, desde el gusto musical hasta nuestros grafos sociales. En muchos casos, ya nos estamos imaginando sincronizados con nuestras máquinas”.
(Ed Finn, La búsqueda del algoritmo. Imaginación en la era de la informática, Alpha Decay, p. 336)

Por Rafael Jiménez Asensio. Blog La Mirada Institucional.- No parece exagerado bajo ningún punto de vista hablar de que la digitalización acelerada de la sociedad contemporánea nos ha conducido irremediablemente a una suerte de panóptico digital. El filósofo Byung-Chul Han trató en diferentes obras esa noción, concepto que, importado de Bentham, construye precisamente en uno de sus primeros trabajos traducidos al castellano (La sociedad de la transparencia, Herder, 2013). En alguna obra posterior este mismo autor llegó incluso a hablar de la obsolescencia del concepto de protección de datos, algo que vinculaba con la exposición en la red de todo tipo de datos e informaciones sobre nosotros mismos. Y concluía: “Este descontrol representa una crisis de libertad que se ha de tomar en serio” (Psicopolítica, Herder, 2014).

La necesidad objetiva de protección de los derechos fundamentales de las personas físicas en un mundo cada vez más digitalizado y en el que el “algoritmo” se ha convertido en nuestro inseparable compañero, hace imprescindible la regulación que lleva a cabo el RGPD; una normativa hay que entenderla precisamente como medio de salvaguardar una protección suficiente de los datos personales con el objetivo último de que, efectivamente, nuestra libertad no se vea menoscabada, aunque amenazada lo está y mucho.

Otro filósofo, como es Paul Virilio, hace algunos años dio probablemente en la diana: “Las tecnologías no son otra cosa más que prótesis y pensar la libertad con respecto a las prótesis resulta algo absolutamente nuevo” (La Administración del miedo, Pasos Perdidos, 2012). Sin embargo, como ya anticipaba este mismo autor, la velocidad de los hechos ha desbordado al Derecho, más aún en este complejo campo de la digitalización, puesto que “el derecho del más rápido es el origen del derecho del más fuerte”. Y es también en esta clave en la que se debe interpretar el alcance del RGPD y el propio espíritu o sentido que lo anima.

Si bien la normativa europea llega probablemente tarde, al menos intenta hacer frente a todo ese conjunto imprevisible de riesgos de diversa probabilidad y gravedad para los derechos y libertades de las personas físicas. Pero ahora interesa destacar en qué medida todo ello afecta o afectará a la Administración Pública y a los entes de su sector público. A las personas físicas sin duda que lo hará. En efecto, aunque esa mirada deba ser predominante, no es menos cierto que si se prescinde del eje central en el que se basa el RGPD (la protección de los derechos fundamentales y libertades públicas de la ciudadanía), el sector público no cubrirá cabalmente las expectativas que la nueva regulación tiene puestas en su aplicación. Todos esos “riesgos de diversa probabilidad y gravedad para los derechos y libertades de las personas físicas” (artículo 24.1 RGPD) irán inevitablemente siendo cada vez mayores conforme la revolución tecnológica avance de forma inexorable.

Controlar los datos
Comienza a emerger, en los ámbitos profesionales y se traslada sin duda a la Administración Pública, una necesidad imperiosa de controlar los datos. Como en su día resaltaron Mayer-Schönberger y Cukier (Big Data. La revolución de los datos masivos. Turner, 2013), se torna imprescindible que las personas incrementen las medidas de autocontrol sobre sus propios datos, algo no precisamente fácil en una sociedad completamente interconectada.

Pero eso solo es una parte del problema. El desarrollo de la inteligencia artificial en las próximas décadas abre incógnitas enormes. Jerry Kaplan en un sugerente ensayo (La inteligencia artificial. Lo que todo el mundo debe saber, Tell, 2017), plantea un buen número de preguntas sobre diferentes ámbitos hasta cierto punto inquietantes. La tensión entre humanismo y transhumanismo parece palparse. Como ha expuesto Luc Ferry, estamos en pleno proceso de superación del “ideal terapéutico” que tenía como objeto curar o reparar, y vamos así camino del “ideal de aumentar o perfeccionar”. Y en ello, como afirma también este mismo autor (La revolución transhumanista, Alianza Editorial, 2017), juega un papel central el acrónimo NBIC (nanotecnología/ biotecnología/informática-Big Data/Conocimiento aplicado a la Inteligencia Artificial). Todo ello abre, en efecto, un manejo múltiple y cruzado de datos, pero especialmente un horizonte de problemas éticos de primera magnitud, que en estos momentos no pueden ser tratados. Pero los riesgos están presentes, siendo cada vez mayores, y el RGPD los recuerda una y otra vez con su énfasis especial en el sistema preventivo o enfoque de riesgos.

Lo cierto es que se ha inaugurado con fuerza lo que puede calificarse como un largo período de revolución tecnológica en la que la digitalización (y el dato, como núcleo) está (y estará) en el centro de todo este proceso. El modelo se ha ido desarrollando y asentando paulatinamente, tomando como apoyo fuerte (algo que será perecedero) la oferta por las grandes compañías tecnológicas de “servicios gratuitos”, a cuenta, tal como se ha dicho, de entregarles o hacer jirones nuestra privacidad. A partir de esos presupuestos, la práctica totalidad de la humanidad digitalizada ha “ofrecido” sus datos (y, por tanto, sus preferencias, su vida e, incluso, sus expectativas) a tales compañías, que comercializan sin rubor ni límite alguno (al menos hasta ahora) con tales datos. La “mediación algorítmica”, como ya advirtió tempranamente Evgeny Morozov, tiene sus peligros (La locura del solucionismo tecnológico, Katz, 2013).

Pero tales peligros, como también resalta el propio RGPD tanto en sus Considerandos como en el articulado, aparte de ser inciertos, todo el mundo es plenamente consciente (o al menos así se presume)  que irán creciendo cuantitativa y cualitativamente con el paso del tiempo. Y para ello la Administración Pública debe prepararse convenientemente, tanto dotándose de medios “técnicos y organizativos” adecuados para hacer frente a tales escenarios de incertidumbre llenos de potenciales peligros, como especialmente en invertir en la construcción de ese modelo de gestión de protección de datos basado en el enfoque de riesgos. No es una cuestión menor, tampoco incidental o de cumplimiento normativo, es sencillamente existencial.

Y para ello tal vez sea oportuno llevar a cabo unas sucintas reflexiones sobre prospectiva. Si examinamos, por ejemplo, algunos estudios de prospectiva que tienen por objeto el impacto de la revolución tecnológica sobre el empleo tal vez nos aporten  aproximaciones que puedan tener interés al objeto de estas líneas. Hay coincidencia en todos estos estudios que la revolución tecnológica hoy en día en marcha tendrá tres grandes oleadas o etapas. A saber.

La primera oleada es la “digitalización” propiamente dicha. Es una etapa en la cual estamos hoy en día inmersos. También las Administraciones Públicas, que deben cumplir, entre otras cosas, las exigencias de la Ley 39/2015, de 1 de octubre, de procedimiento administrativo común de las administraciones públicas. La segunda oleda es la de “automatización”, y que se desarrollará en torno a 2025, momento en el que las máquinas llevarán a cabo una parte importante de las tareas y en el que habrá que estar vigilantes para evitar que esos cambios tecnológicos de magnitudes considerables puedan afectar a los derechos y libertades de las personas físicas en el tratamiento de sus datos personales. En esta fase, encontrarán pleno sentido muchas de las previsiones recogidas en el RGPD, especialmente aquellas dirigidas a “la protección desde el diseño y por defecto”, así como, en su caso, la evaluación de impacto y la consulta previa. Para ese momento las Administraciones Públicas deberían tener plenamente implantado y a pleno rendimiento el sistema institucional y de gestión de protección de datos personales que exige el RGPD. Ello garantizaría que las afectaciones pudieran ser menores o, cuando menos, controladas, siempre que ello sea posible.

Y la tercera oleada, sin duda la más crítica, en la que las incertidumbres se multiplicarán, es la de la aplicación de la Inteligencia Artificial al ámbito de las Administraciones Públicas y en lo que respecta también a la protección de datos personales. Se estima que, temporalmente, esta etapa se puede producir en torno a los años 2030-2035 (al menos así lo confirman los diferentes estudios de prospectiva: ver, por ejemplo: PwC, Will robots really steal our jobs? An international analysis of the potencial long term impact of automation, 2017; o 50 Estrategias para 2050, Fundación Telefónica/Prospektiker), donde los cambios cualitativos pueden ser de una dimensión desconocida hasta entonces. Veremos si el marco normativo diseñado en el RGPD es suficiente para enfrentarse a un reto de tales características, que impregnará sin duda todo o gran parte del actuar de las Administraciones Públicas como prestadoras de servicios y recopiladoras de datos en masa, que en no pocos casos ya los harán las maquinas “inteligentes” y no las personas (servidores públicos).

Sin duda la revolución tecnológica se caracteriza por la importancia que los datos adquieren en la propia economía. Se ha dicho así que los datos son el petróleo de la economía digital, pero eso no es verdad, pues -tal como afirma Franklin Foer- “los datos son infinitamente renovables, no son finitos como el petróleo” (Un mundo sin ideas, Paidós, 2017). La amenaza de los datos a la intimidad y al resto de derechos y libertades es, hoy en día, obvia. Uno de los principales asesores de una las grandes empresas monopolísticas de Internet, Eric Schmidt, lo reconocía  con toda crudeza: “Sabemos dónde estás. Sabemos dónde has estado. Podemos saber más o menos lo que estás pensando”.

Los datos empujarán el crecimiento económico, no cabe dudar de ello. Pero también, dependiendo de su uso, son un desafío real y tangible a la privacidad, aunque ya hay quien dude que en la era de Internet y de las redes sociales tal derecho a la intimidad tenga vigor alguno. La solución, como apunta Luc Ferry en su recomendable obra citada, pasa inevitablemente por la regulación. Habrá que seguir y persistir en esa línea.

Por mucho que se empeñen los diletantes y resistentes, especies que abundan precisamente en el ecosistema público, en los próximos años la revolución tecnológica transformará en viejas muchas de las prácticas y formas de actuar que están insertas en el funcionamiento cotidiano de las Administraciones Públicas, también (aunque no solo) en lo que afectan a la protección de datos personales. 

Pero, como se viene insistiendo, ello requerirá un cambio cultural y organizativo de magnitudes considerables, si bien hoy por hoy nada de esto parece advertirse en el funcionamiento de nuestras adormecidas y tradicionales organizaciones públicas, sino más bien lo contrario (la regla es, en efecto, la quietud y el funcionamiento estandarizado).

Robotización/Inteligencia artificial
Por tanto, los efectos más profundos de la revolución tecnológica sobre la Administración Pública (así como sobre el ámbito empresarial y económico o sobre el empleo), también sobre la protección de datos personales, vendrán de la mano del binomio robotización/Inteligencia artificial, ambos términos complementarios o indisolublemente unidos. Una vez más cabe recurrir a las palabras de Luc Ferry: la nanotecnología, la biotecnología, la informática de Big Data y el Conocimiento vinculado a la Inteligencia Artificial, “van a generar más cambios en los próximos cuarenta años que en los cuatro mil anteriores”.

Y esos profundos cambios abrirán un sinfín de retos, pero también se inaugurará un tiempo de tensiones extraordinarias. El transhumanismo radical produce vértigo. Realmente esa pretendida simbiosis entre el hombre y la máquina solo conduce al “posthumanismo” o al “antihumanismo”. Ciertamente, si atendemos al juicio fundado de dos científicos consagrados del campo de la IA, López de Manteras Badía  y Meseguer González (Inteligencia Artificial, Catarata, 2017), ese horizonte de fusión entre “hombre y máquina” está aún muy lejano, de momento hay que apostar por la complementariedad y no por la sustitución. La IA débil o especializada (la que realiza tareas  que requieren inteligencia) ha tenido un fuerte desarrollo, mientras que la IA fuerte o general (la que permite replicar la inteligencia humana mediante máquinas) está lejos de alcanzarse. La explicación, a juicio de estos autores, es muy clara, pues consiste en la dificultad de dotar a las máquinas de conocimientos de sentido común. Aún así, los riesgos están allí, por lo que todo este mundo abre un amplio abanico de problemas éticos de no fácil solución y que, más temprano que tarde, habrá que afrontar.

Pues bien, todo esto por fuerza (o por la naturaleza de las cosas) terminará afectando al sector público, además de forma profunda e inevitable. Y asimismo impactará sobre la protección de datos personales, que estará en el centro del problema. Pues no cabe olvidar que esta revolución tecnológica, como todas revoluciones industriales anteriores, comportará también una suerte de destrucción creativa, en términos del insigne economista Schumpeter (Capitalismo, socialismo y democracia, vol. I., Página Indómita, 2015). Lo relevante es que ese proceso de destrucción creativa –como sancionó Schumpeter- es la clave del capitalismo y conlleva un fenómeno de “destrucción ininterrumpida de lo antiguo y una creación continua de elementos nuevos”. Ambos momentos se solapan, conviven en falsa armonía y uno de ellos (el antiguo) se va desmoronando frente a la emergencia del otro (el nuevo). Esta vez, no obstante, el proceso, aunque desigual, puede ser mucho más rápido.

En ese proceso de “destrucción creativa” que ya está llamando a nuestra puerta, el problema que tiene la Administración Pública para llevar a cabo esos ajustes tan drásticos que el nuevo escenario tecnológico anuncia, también en el ámbito de protección de datos personales, radica principalmente en su enorme rigidez estructural y su anquilosamiento normativo. Pero este último elemento, el anquilosamiento normativo, al menos por lo que respecta a la protección de datos personales, ha sido removido por el “legislador europeo”: la plena efectividad del RGPD abre un sinfín de retos aplicativos a las Administraciones Públicas a los que deben enfrentarse de modo inevitable cuanto antes mejor, puesto que la revolución tecnológica alterará la esencia de las cosas y en todo este proceso, la proteccion de datos personales dejará de estar en la perfieria de las políticas públicas para situarse en el epicentro de muchas de ellas. Algo que el paso del tiempo irá confirmando.

(*) Este trabajo es un resumen del Epílogo al documento La aplicación del RGPD a la Administración Pública, que será editado en abierto por el IVAP/HAEE en próximas semanas. Asimismo, una versión de este trabajo se recoge también como Epílogo a la obra colectiva coordinada por Concepción Campos Acuña, Aplicación práctica y adaptación de la protección de datos en el ámbito local. Novedades tras el Reglamento Europeo, que se publicará por la Editorial Wolters Kluver próximamente.

No hay comentarios:

Publicar un comentario