La inteligencia artificial en el RGPD: análisis, problemas y soluciones en el horizonte

0

La cuarta revolución industrial

Realidades virtuales capaces de revolucionar nuestras vidas ofreciéndonos otras paralelas y robots sustitutos de la mano de obra humana no pertenecen más a elementos de películas de ciencia ficción. Siri de Apple, Alexa de Amazon, Google Translate ya son ejemplos concretos de como la inteligencia artificial ha entrado a formar parte de nuestras vidas, determinando un avance importante en la ya desarrollada Cuarta revolución industrial. De todos modos, ya lo habían demostrado, anteriormente, las victorias de las supercomputadoras “Watson” de IBM en el programa de preguntas y respuestas de EE. UU. “Jeopardy” o “AlphaGo” de “Deepmind” de Google en el antiguo juego chino “Go”; recientemente, el nuevo experimento publicado en el sitio internet arXiv[1] por el grupo liderado por Andrew Owens del Massachussets Institute of Technology en 2016, en el cual la maquina inteligente pasó por tercera vez la llamada prueba de Turing[2], consiguiendo transformar un video mudo en sonoro. Y el aspecto probablemente más exitoso de esta primera fase de vida de la inteligencia artificial es que ya no es “el dominio de unos pocos especialistas empollones que trabajan principalmente en el mundo académico, los servicios financieros o los grandes departamentos de marketing” (Finlay, 2018). En otras palabras, como sugiere Mitrou (2018), “la investigación sobre la inteligencia artificial está pasando de ser impulsada por la curiosidad académica a ser requerida por las demandas económicas y sociales”, añadiría, también del futuro. Neuralink, por ejemplo, es una demostración. La nueva sociedad de Elon Musk, el fundador de – entres otras – Paypal y Space X, ya está activa para crear una interfaz real para conectar el cerebro humano a un ordenador, con el objetivo de, supuestamente, “reemplazar las áreas del cerebro dañadas por accidentes o enfermedades neurodegenerativas con computadoras y así restaurar las funciones comprometidas a los pacientes” (R. Mantovani, 2020). El sector de la salud es el en el que la inteligencia artificial promete probablemente más, como también enseña el primer ciborg de la historia de la humanidad “Neil Harbisson”, un activista británico y catalán de adopción que se hizo implantar en el cráneo una antena gracias a la cual puede remediar a su acromatopsia y percibir colores incluso en forma de vibraciones[3].

Estamos, entonces, en el umbral de la que los economistas ya han nombrado “cuarta revolución industrial”. Es la que ha empezado a cobrar fuerza con el Internet de las cosas y que se basará, como ya está empezando a hacer, en la alta tecnología que será capaz de revolucionar el mundo entero, la manera en que vivimos, en que trabajamos y también en la que nos relacionaremos entre nosotros. De hecho, la palabra “revolución” ha sido acuñada para describir este nuevo mundo cada día más digital en el que vivimos: es la llamada revolución 4.0.

Velocidad, alcance e impacto en el sistema son las tres palabras llaves que, gracias al tratamiento de grandes cantidades de datos y las posibilidades enormes de almacenamiento en la nube – el llamado big data – permiten definir el nuevo cambio programado por esta nueva era (V. Perasso, 2016).

Desde un punto de vista macro, como todas las revoluciones, se podría decir que hay que esperar que los promotores de este cambio sean guiados por los expertos competentes – y, entonces, por policies gubernamentales apropiadas – a fin de evitar que el cambio radical hacia el que nos estamos dirigiendo produzca efectos a favor de unas pocas cuantas personas, teniendo, al revés, el potencial de cambiar en mejor la vida de todos. Y, como en todas las revoluciones, hay que tener en cuenta que sobrevive el que mejor se adapta al nuevo cambio. En otras palabras, los gobiernos deberán seguir paso a paso las evoluciones de las grandes empresas tecnológicas, intervenir ahí donde sirva y, sobretodo, invertir cuanto más puedan en la innovación para estar al día con las economías emergentes, o sea las que serán la más capaces de sacarle el beneficio mayor. A este respecto, hay quien habla de “darwinismo tecnológico”, para subrayar el peligro real que en este mundo caracterizado por un abismo cada día más importante entre ricos y pobres (sean ellos estados o particulares) corren los que no serán capaces de adaptarse y, entonces, de sobrevivir.

Por esto es importante reconocer los riesgos que se corren al desarrollar las matrices de esta revolución, o sea las creaciones de inteligencia artificial. Estas, de hecho, no son maquinas perfectas (sean ellas software o hardware) como se puede imaginar al no ser exentas de errores humanos que pueden influir negativamente en nuestras vidas. Son muchas las cuestiones éticas levantadas por el uso de la inteligencia artificial y de las que depende la relación que ésta tendrá con derechos humanos fundamentales puestos en peligro, primero entre todo el de la privacidad.

La prioridad, en consecuencia, en la elaboración de la inteligencia artificial debe ser la de crear valor para la sociedad entera. Esto implica que los derechos fundamentales no pueden desempeñar un papel secundario a la hora de diseñar sistemas inteligentes, sobretodo en el caso en que estos últimos tengan el poder de tomar decisiones que impacten directamente en la vida del ser humano.

En primer plano se deberían colocarse la dignidad, o sea el “valor intrínseco”[4] a cualquiera de nosotros, y la igualdad humana, que implican el respeto reciproco que cualquier ser humano se merece por ser tal y que, por lo tanto, nos es debido. Considerado de esta manera, el respeto constituye, a su vez, un limite al desarrollo de superinteligencia que tiene el potencial de quitarnos – o al menos disminuir significativamente – el control que tenemos sobre nuestras vidas. A este propósito entra, entonces, en juego otro valor fundamental para elevar a principio a la hora de elaborar inteligencia artificial, es decir la libertad. Esta, siendo sinónimo de – entre otros – autonomía, está garantizada en el momento en el que somos capaces de tomar decisiones por nuestras vidas sin interferencias externas por parte de terceros.

La inteligencia artificial puede producir tantos beneficios como problemas; puede ser considerada por una doble perspectiva, como herramienta de destrucción o de creación de valor. Por lo tanto, está en las manos de nosotros elegir y tener cuidado a poner limites que son impuestos por el respeto de los valores fundamentales de cualquier sociedad democrática anteriormente mencionados, o sea dignidad, igualdad y libertad.

El objetivo, por lo tanto, debe ser el de crear inteligencias que sean capaces de ponerse al servicio de la humanidad, de potenciarla y mejorarla, en vez de sustituirlas, sobre todo en virtud del hecho de que “cuanto mayor sea el numero de personas que disfruten de las oportunidades y beneficios […], mejor serán nuestras sociedades” (L. Floridi et al., 2018)[5]. El importante es que no lleguemos a depender de la superinteligencia – como algunos ya denuncian que está pasando con el internet de las cosas –, porque de ahí el paso hacia la perdida de control sobre ella es mínimo y las consecuencias, en cambio, irreversibles. Esto es un imperativo que debe ser considerado a la luz de las ventajas que puede conllevar la adopción de un enfoque ético a la hora de desarrollar inteligencia artificial. Entre estas, no perder de vista los principios éticos al elaborar creaciones de IA, permite a los promotores y desarrolladores de la misma de aprovechar del valor social que la IA puede crear. Por otro lado, la ética puede asegurar que las organizaciones eviten o, en alternativa, reduzcan cuanto más posible esos errores que la IA puede generar con costes consecuentes inimaginablemente significativos.

Para alcanzar esto, es inevitable que todos los actores interesados en este proceso de cambio económico-social del que pueda beneficiar la sociedad entera colaboren desde el principio. En otras palabras, para que la así llamada revolución 4.0 pueda producir los efectos deseados debería tener un enfoque de múltiples interesados, entre los que se pueden mencionar desarrolladores, usuarios y legisladores.

¿Qué es la inteligencia artificial y cómo funciona? Algoritmos y machine learning.

Aunque no exista una definición universalmente aceptada de inteligencia artificial, la propuesta por uno de sus padres fundadores, el científico estadunidense Nils J. Nilsson, permanece una de las más completas y esclarecedoras: “La inteligencia artificial es aquella actividad dedicada a hacer inteligentes a las máquinas, y la inteligencia es aquella cualidad que permite a una entidad funcionar apropiadamente y con previsión en su entorno”[6]. Efectivamente, muchos de los avances más rápidos que se han conseguido alcanzar en la última década se pueden colocar dentro del marco del análisis y predicción del comportamiento humano, por ejemplo, pero no solo (destacan, además, los desarrollos en el ámbito de la robótica, de los sistemas automatizados y visión computerizada).

Efectivamente, el objetivo reside en crear maquinas (hardware o software) que sean capaces de “actuar de una manera que se consideraría inteligente en los seres humanos”, como reporta la Sociedad para el Estudio de la Inteligencia Artificial y la Simulación[7] del Comportamiento.

Hoy en día esto se hace cada vez más sencillo gracias – además de la infraestructura cloud (de nubes), la conectividad móvil, la multiplicación de sensores –, en primer lugar, a un crecimiento exponencial de la capacidad de cuantificar, almacenar, analizar y procesar cantidades enormes de datos – como correctamente hipotizado en las Leyes de Moore[8] – y, en segundo lugar, a lo que en el mundo anglosajón se conoce como datification. Con respecto al primer aspecto, los expertos reportan que solo en el año 2000, “sólo alrededor de un cuarto de la información almacenada en el mundo era digital y el resto era analógico […]. En 2007, sólo alrededor del 7 por ciento de los datos eran analógicos” y en 2013 “más del 98 por ciento de todos los datos son digitales” (V. Mayer-Schönberger y K. Cukier, 2013). En cuanto al segundo aspecto, la “datification” es el termino que se refiere a la digitalización de información sobre actividades o aspectos de nuestra vida para que se conviertan en datos que, una vez analizados, puedan llevar a ofrecernos nuevas oportunidades.

Todo esto es posible no solo gracias a una capacidad cada día más potente de procesamiento informático, sino también al uso de algoritmos cada vez más sofisticados. De aquí el pasaje de una “sociedad de la información” a una sociedad del algoritmo” (M. Bassini, L. Liguori, O. Pollicino, 2018).

Es a este respecto que entra en juego el concepto de machine learning (aprendizaje automático). Uno de los enfoques de más rápido crecimiento con el que se realizan obras de inteligencia artificial es el machine learning, que encontramos definido – por ejemplo – por el gigante tech Intel como “el conjunto de técnicas y herramientas que permiten a los ordenadores ‘pensar’ a través de la creación de algoritmos matemáticos basados en los datos acumulados” (D. Landau, 2016). En otras palabras, el machine learning es el instrumento con el que se hace la maquina inteligente a niveles que van allá del nivel de inteligencia humana. En particular, hay dos tipos de aprendizaje en que se puede basar el machine learning: el aprendizaje “supervisado” (supervised) o el “no supervisado” (unsupervised). El informe Big data, artificial intelligence, machine learning and data protection (Big data, inteligencia artificial, aprendizaje automático y protección de datos) de la Oficina británica del Comisionado para la Información[9] explica la diferencia precisando que en el aprendizaje supervisado se usan datos específicamente etiquetados para el desarrollo de los algoritmos. En otras palabras, dichos algoritmos han sido entrenados a través de datos con valores ‘correctos’ ya asignados a ellos para mapear desde el input (o sea un elemento de entrada) al output (un elemento de salida). Mediante este entrenamiento (técnicamente definido training) los algoritmos son capaces de desarrollar modelos del mundo y hacer predicciones. En cambio, los algoritmos de aprendizaje no supervisado no están entrenados, por lo tanto se deja que sean ellos mismos, en autonomía, a encontrar regularidades en los datos de entrada sin instrucciones. En los dos casos, de todas formas, los algoritmos resultan capaces de cambiar su salida (entonces el resultado) en base en la experiencia. En esto consiste el machine learning.

El potencial de los programas de machine learning es, entonces, el de aprender sin ser explícitamente programados y, por lo tanto, de aprender autónoma y automáticamente con la experiencia. Y son precisamente las consecuencias arriesgadas y los efectos potencialmente negativos de dicha capacidad de las maquinas dos de los problemas que más debate literario ha generado últimamente entre los expertos y que nos encontraremos a discutir en este escrito.

Para hacerlo, el machine learning se basa en algoritmos complejos que permiten predecir y tomar decisiones autónomamente.

La Agencia de los Derechos Fundamentales de la Unión Europea define técnicamente dichos algoritmos como “una secuencia de comandos para que un ordenador transforme un input en un output”[10] y, entonces, más simplemente como “maneras de calcular las predicciones deseadas con el uso de datos”. Decisiones cada día más importantes, o sea relativas a aspectos fundamentales de nuestras vidas, son tomadas por dichos algoritmos predictivos. Elecciones en el mundo bancario, financiero, sanitario[11], laboral, judicial, comercial ya son hechas por algoritmos de machine learning capaces de crear nuevos algoritmos o nuevas configuraciones de los ya existentes, como los llamados neural networks (redes neuronales), redes de neuronas artificiales conectadas entre ellas y capaces de comunicar de manera similar a las del cerebro humano. Las consecuencias en términos concretos es el desarrollo de una economía basada en una creciente personalización de las condiciones contractuales, así como de productos y medicamentos para los clientes.

Sin embargo, como en toda cosa, el potencial tiene sus riesgos y detrás de sus aspectos positivos se celan rasgos negativos. Como afirma el Profesor Mitrou “los algoritmos clásicos son deterministas, sus criterios de funcionamiento están claramente definidos por las personas que desean ejecutarlos. El machine learning constituye una alteración de los algoritmos convencionales. Los algoritmos de aprendizaje automático son probabilísticos: sus resultados cambian siempre en función de la base de aprendizaje que se les ha dado, que a su vez cambia en función de su uso. En particular, el desarrollo de tecnologías de aprendizaje profundo permite a los algoritmos resolver operaciones complejas que conducen a posibles decisiones” (L. Mitrou, 2018, p. 13). Son estos, de hecho, los algoritmos que generan más preocupación a nivel social y legislativo porque plantean problemas de responsabilidad. A través de algoritmos muy complejos específicamente creados para evolucionar de manera autónoma, el machine learning infiere una determinada regla a partir de los patrones que observa al manejar enormes cantidades de datos, pero al tener la capacidad de descubrir patrones nuevos que el análisis tradicional de datos no encontraría puede llegar a tomar, autónomamente, decisiones dañosas para la vida de los seres humanos, por ejemplo, creando discriminación por orientación sexual, raza, origen étnico, religión, discapacidad.
Esto es debido al hecho de que, aunque el intento sea el de encargar a maquinas creadas específicamente para tomar decisiones objetivas, “idealmente neutrales” (L. Edwards, M. Veale, 2017), en las que no influya el sesgo humano (human bias), en realidad no son exentas de problemas que puede dar lugar a determinaciones sistemáticamente erróneas. Es decir, la promisa de la inteligencia artificial – y en particular del machine learning – es la de eliminar, o al menos reducir lo más posible, el sesgo humano en la toma de decisiones (Mitrou, 2018), especialmente en las complejas donde entran en juego datos sensibles; pero si los algoritmos de machine learning aprenden en ejemplos históricos basados en sesgos o prejuicios implícitos del pasado o en datos que dan una imagen distorsionada de las categorías sociales de la población total pueden llevar a outputs discriminatorios. Más simplemente, si se crean sistemas algorítmicos que aprenden sobre un input inicial (o training data), o sea una base inicial de datos sesgados del pasado, será alta la probabilidad que recreen o exacerbasen la discriminación observada en la toma de decisiones pasada. Basta pensar en los algoritmos de Google que erróneamente categorizaban las personas negras como gorilas en su app Photos; o en otros casos igualmente relevantes, como el de mujeres que en base a algoritmos sesgados recibían anuncios en línea de empleos de alta remuneración con una frecuencia significativamente menor que a los hombres; o el de resultados de búsqueda igualmente fallados que mostraban imágenes de mujeres blancas al buscar “cabello profesional” y de mujeres negras al buscar “cabello no profesional”.  De igual manera, búsquedas de nombres de personas negras llevaban a resultados asociados con registros de arrestos con frecuencia significativamente mayor que en caso de búsquedas de nombres de personas de raza blanca; finalmente, en Inglaterra una doctora no le dejaba acceder al vestuario de mujeres de un gimnasio porque el sistema de seguridad automatizado la categorizaba como hombre por la asociación del título “Dr.”. Mañana dichos biases podrían influir decisiones fundamentales por nuestras vidas, como por ejemplo los procedimientos de contratación o la tramitación automatizada de solicitudes de préstamo en línea; o si un individuo o una empresa pagará un préstamo o saltará la fianza.
En conclusión, el machine learning es una espada de doble filo y el objetivo de este escrito es de analizarlo como tal.

El artículo 22 del GDPR: la controvertida interpretación del “derecho a una explicación”

El articulo 22, sede de la protección contra las decisiones tomadas individualmente por creaciones de inteligencia artificial (o, mejor, por sus algoritmos), propone tutelar los particulares mediante lo que ha sido denominado “derecho a una explicación” (right to an explanation), sin bien a través de una formulación vaga y de difícil interpretación que ha puesto en duda su posible implementación.

Con respecto a la norma correspondiente de la anterior Directiva, el artículo 22 parece tener un ámbito de aplicación más extendido, cubriendo cualquier tipo de procesamiento automatizado de datos personales, incluso la así llamada actividad de profiling, o sea el perfilaje, la elaboración de perfiles. De hecho, el texto del apartado 1 del articulo 15 de la Directiva derogada había sido redactado como sigue: “los Estados miembros reconocerán a las personas el derecho a no verse sometidas a una decisión con efectos jurídicos sobre ellas o que les afecte de manera significativa, que se base únicamente en un tratamiento automatizado de datos destinado a evaluar determinados aspectos de su personalidad, como su rendimiento laboral, crédito, fiabilidad, conducta, etc.”.  En cambio, la disposición del apartado 1 del nuevo articulo 22 prevé que “todo interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar”.

Según los expertos, el articulo se expone a una doble posible interpretación: puede ser considerado como un derecho de oposición a dichas decisiones – lo cual dejaría una amplia gama de acción a las empresas, que serían libres de “utilizar regularmente algoritmos en la toma de decisiones importantes ajustando su comportamiento sólo” en el caso de que “los individuos invoca[ran]sus derechos” (M. E. Kaminski, 2019) – o como una prohibición general con respecto a ciertos tipos de decisiones automatizadas, lo cual, en cambio requeriría que las empresas que hacen uso de algoritmos para la toma de decisiones evalúen la excepción en la que caben y alternativamente lleven a la práctica garantías que tutelen los derechos de los particulares o no desplieguen la toma de decisiones algorítmicas.

Aunque considero personalmente que la interpretación correcta, o al menos más adecuada, se inclinaría más hacia una prohibición general, independientemente de si se quiera considerar el codificado por el articulo 22 como un derecho o como una prohibición hay que tener en cuenta que su aplicación es limitada a decisiones exclusivamente automatizadas (“basada únicamente en el tratamiento automatizado”) que produzcan “efectos jurídicos” para el interesado o que “le afecte[n]significativamente de modo similar”. Mientras con respecto a la primera condición, o sea el total automatismo de la decisión, parecería no caber duda alrededor de su interpretación, más desafiante ha sido la interpretación de las otras dos condiciones para los expertos.

En cuanto al primer requisito, E. Pehrsson afirma claramente que a fin de que haya el exclusivo automatismo en la decisión hay que considerar tres elementos: “Primero, debe haber una decisión. En segundo lugar, la decisión tiene que ser el resultado de un procesamiento automatizado. Tercero, la decisión debe ser el resultado de un proceso que incluye sólo el procesamiento automatizado, sin intervención humana.” (2018).

Aunque parezca unívocamente interpretable, sigue habiendo expertos que dudan que “una intervención aunque sea solo nominal” (S. Wachter, B. Mittelstadt, L. Floridi, 2017) no eximan a una decisión del articulo 22. A este propósito no parecería una casualidad que el Parlamento europeo haya intentado prevenir el surgir cualquier tipo de duda proponiendo la inclusión del termino “predominantemente” (predominantly) al lado de “únicamente” (solely) con referencia a la decisión automatizada. La propuesta pareció sensata al Supervisor Europeo de Protección de Datos que la añadió a la norma, aunque el resultado fue el que todos conocemos, lo cual puede llevar a pensar que el intento sea simplemente el de conferir al termino “únicamente” una interpretación restrictiva (S. Wachter, B. Mittelstadt, L. Floridi, 2017).

Una curiosidad que puede extrañar, en cambio, son las líneas guiadoras del Grupo de Trabajo del Artículo 29 – un grupo de expertos sobre protección de datos que acompañó la Comisión Europea en la redacción antes de la Directiva y después del RGPD[12] – que intentando aclarar la definición de decisiones “basadas exclusivamente” en un tratamiento automatizado de datos personales, avanza explicaciones que podrían ser objeto de mal interpretación. Es decir, después de una clara declaración según la cual la expresión “basadas exclusivamente” quiere decir que “no hay participación humana en el proceso de decisión”, el Grupo de Trabajo del Articulo 29 añade que “el responsable del tratamiento no puede eludir las disposiciones del artículo 22 fabricando la participación humana. Por ejemplo, si alguien aplicase rutinariamente perfiles generados automáticamente a particulares sin ninguna influencia real en el resultado, seguiría siendo una decisión basada únicamente en el tratamiento automatizado. Para calificar la participación como humana, el responsable del tratamiento debe garantizar que toda supervisión de la decisión sea significativa, y no sólo un gesto simbólico. Debe ser llevada a cabo por alguien que tenga la autoridad y la competencia para cambiar la decisión. Como parte del análisis, deben considerar todos los datos pertinentes.” Dicha explicación parece contradecirse con la primera. Es decir, la primera simplifica el todo no dejando espacio a otras interpretaciones si no a la de que el articulo 22 aplica solo en el caso en el que no haya ningún tipo de intervención humana (aparte la de la inserción inicial de los datos que la maquina utilizará para aprender autónomamente). En cambio, en la segunda excluye la aplicación del articulo 22 solo si la intervención humana no haya sido “fabricada” y haya tenido un “influencia efectiva” en el resultado. Evidentemente la contradicción no es de poca relevancia, porque de la diferente interpretación de la definición de decisión automatizada depende la configuración de un eventual proceso. Una definición como ésta última plantearía problemas importantes de onus probando, sin saber donde se colocaría su peso, si sobre la empresa detentora del algoritmo decisor o si sobre el particular. En ambos casos, por las razones explicadas anteriormente sobre el funcionamiento complejo de los algoritmos de machine learning, ésta podría calificarse como una probatio diabolica.

Por lo que concierne la interpretación de la segunda condición de la disposición, en cambio – la necesidad que la decisión automatizada produzca “efectos jurídicos” para el interesado o que “le afecte significativamente de manera similar” – habría que hacer referencia otra vez a las guías del Grupo de Trabajo del Articulo 29. Éste afirma que, aunque el Reglamento no defina el significado de las expresiones que se están analizando, “sin embargo, la redacción deja claro que sólo los efectos de impacto graves estarán cubiertos por el artículo 22”. La explicación, que inicialmente no parecería tan clara, sigue estableciendo que con respecto a la expresión “efectos jurídicos”, la decisión automatizada debe afectar a los derechos legales de un particular o a su condición jurídica o “a sus derechos en virtud de un contrato”. Entre los ejemplos presentados aparecen la cancelación de un contrato, el derecho o denegación de una prestación social concreta concedida por la ley, como la prestación por hijos o la prestación por vivienda; o, en fin, la denegación de la admisión a un país o la denegación de la ciudadanía.

Con respecto al significado de la expresión del efecto que la decisión tendría sobre el particular “significativamente de manera similar”, es interesante remarcar que la Directiva anterior preveía la misma disposición sin la presencia del termino “similar” (en el correspondiente articulo 15). Parecería que haya sido una propuesta del Parlamento europeo; sin embargo, no sabemos exactamente la ratio de dicha propuesta, lo cual lleva a deber, en este caso también, considerar la guía  del Grupo de Trabajo del Articulo 29, según el cual aunque la decisión fruto de la obra de la inteligencia artificial no modifique un derecho del particular puede igualmente caer en el ámbito de aplicación del artículo 22 si el impacto es “equivalente” y esto es si “el umbral de significación” es “similar al de una decisión que produzca un efecto jurídico”. Para quitar eventuales dudas residuales, el Grupo de Trabajo del Articulo 29 en fin impone tres condiciones, añadiendo que “la decisión debe tener el potencial de:

 

  • afectar significativamente las circunstancias, el comportamiento o las elecciones de los individuos afectados;
  • tener un impacto prolongado o permanente en el titular de los datos; o
  • en su extremo, conducir a la exclusión o a la discriminación de los individuos”[13].

 

A entrar en el ámbito de aplicación de las decisiones automatizadas potencialmente significativas son las relativas al acceso a oportunidades de empleo, recursos financieros, educación y atención sanitaria, como especificado en la misma guía del Grupo de Trabajo del Articulo 29. Finalmente, otros dos ejemplos son fornidos por el Considerando 71 que menciona el “rechazo automático de una solicitud de crédito en línea” y las “prácticas de contratación electrónica sin intervención humana”, refiriéndose evidentemente a decisiones que tengan efectos similares e igualmente significativos a las que produzcan un efecto jurídico en la esfera jurídica personal del titular de los datos tratados de manera automatizada, tratándose de ejemplos, la aprobación para la extensión de un crédito o una oferta de trabajo, donde no existe un derecho de base a la prestación en cuestión. Al mismo tiempo, se entiende la ratio detrás de la decisión de poner dichos ejemplos en lugar de otros. “El acceso al crédito puede tener un gran impacto en la capacidad de un ciudadano para comprar una casa, automóvil, o buscar oportunidades de educación. Asimismo, el empleo es un componente crítico en vivir y participar plenamente en la sociedad moderna. Tanto el empleo como el acceso al crédito tienen potencial para cambiar el estatus del individuo en la sociedad y alterar las oportunidades que tiene para apoyarse a si mismo” (E. Pehrsson, 2018).

Analizada la interpretación de la primera parte de la disposición del articulo, cabe destacar que la protección del particular contra las decisiones basadas en un tratamiento exclusivamente automático no es absoluta. Ciertas decisiones algorítmicas podrían, por lo tanto, cumplir con el segundo principio base del RGPD – igualmente consagrado en el articulo 5 – de la legalidad. Éste, con respecto al articulo 22, prevé tres excepciones al apartado 1 en las que seria permitido “someter” los particulares a decisiones completamente automatizadas: a) en el caso de necesidad contractual (“es necesaria para la celebración o la ejecución de un contrato entre el interesado y un responsable del tratamiento”[14]); b) en el caso de “autorización” por la Unión Europea o un Estado miembro (es decir cuando uno de los dos hayan emanado una ley que cree la excepción)[15]; c) en la circunstancia en la que haya el consentimiento explicito del interesado[16]. De todos modos, en cada caso será necesario que el responsable en el caso de los puntos a) y c) o la Unión o los Estados miembros autorizadores en el caso del punto b) apliquen tutelas de protección a garantía los derechos del particular titular de los datos tratados. La referencia del articulo 22 es específicamente a “medidas adecuadas para salvaguardar los derechos y libertades y los intereses legítimos del interesado”. Aunque el Reglamento no proporcione una explicación más elaborada sobre el concepto o la gama de medidas de salvaguardia adoptables, el Grupo de Trabajo del Articulo 29 compensa dicha falta de especificación, aunque sea de manera poco satisfactoria, mencionando el derecho a una “información específicamente significativa sobre la lógica implicada, así como la importancia y las consecuencias previstas para el interesado”, consagrado en los artículos 13 y 14 RGPD. Aunque se trate de disposiciones formuladas sencillamente, es evidente que dicha especificación por el Grupo de Trabajo del Articulo 29 no consista en una verdadera aclaración porque quedan dudas sobre la manera en la que la “información especifica” requerida por los artículos 13 y 14 pueda ser efectivamente otorgada, así como especificado en el texto, al interesado, considerada la premisa inicial sobre los algoritmos de aprendizaje automático.

Lo que sí menciona el legislador europeo es, en cambio, una tutela “mínima”, pero solo referidas a los puntos a) y c) del apartado 2, cual es el “derecho a obtener intervención humana por parte del responsable, a expresar su punto de vista y a impugnar la decisión.” Es el que ciertos expertos han denominado “derecho a una explicación” – en inglés right to an explanation – interrogándose tanto sobre su efectiva existencia como sobre su eventual y posible implementación. La vaguedad de la disposición y la dificultad de llevarla a la práctica, siendo el proceso de machine learning que subyace a la decisión automatizada definible, en la mayoría de los casos, como “intrínsecamente no transparente” (C. Kuner, D. Jerker B. Svantesson, F. H. Cate, O. Lynskey, C. Millard, 2017), hacen inclinar a creer que el RGPD no sea a prueba de inteligencia artificial.

El escepticismo encuentra sus raíces en las técnicas opacas de machine learning, del carácter intrínseco de black box, o sea de caja negra, del mecanismo que subyace al aprendizaje automático de los algoritmos del machine learning. Su capacidad de inferir nuevos patterns, o sea nuevos patrones, nuevas pautas de la elaboración de los datos dados, hace no solo difícil sino a menudo imposible verificar el proceso seguido por dichos algoritmos hasta para los expertos o los creadores de las maquinas inteligentes. Y esto pasa sobretodo en el caso de los algoritmos basados en las llamadas “redes neuronales” (neuronal networks), que funcionan a través de capas ocultas de relaciones de todas las diferentes características en los datos y de las que derivan distintas combinaciones. ¿Y aunque fuera posible, como explicarlo de una manera inteligible a los titulares de los datos usados que hayan sido perjudicados por una decisión automatizada? Además, “¿para ser lo suficientemente ‘específico’, se requerirá un consentimiento separado para cada situación en la que se vayan a procesar datos personales para la toma de decisiones automatizada, por ejemplo, en particular, el empleo, las finanzas o la medicina contextos?” (C. Kuner, D. Jerker B. Svantesson, Fred H. Cate, O. Lynskey, C. Millard, 2017).

Estas no son las únicas cuestiones controvertidas del “derecho a una explicación”, porque su realización práctica podría requerir una inevitable intromisión en los datos de terceros que hayan formado parte de la base de datos sobre la cual la decisión automatizada haya sido tomada; y, por otra parte, la revelación del funcionamiento de los algoritmos plantea inevitablemente cuestiones de secretos comerciales y propiedad intelectual, que el Considerando 63 trata explícitamente, requiriendo que el derecho de información del articulo 15.1.h no afecte “negativamente a los derechos o libertades de los demás, incluidos los secretos comerciales o la propiedad intelectual y, en particular, los derechos de autor que protegen el programa informático”. Sin embargo, intenta mantener la eficacia de lo dispuesto en el articulo 15 asegurándose de que la tutela de secretos y propiedad intelectual no debería anular el derecho “a proporcionar toda la información al interesado”.

La razón la explican claramente L. Edwards y M. Veale: “esto se ha debido a que se ha pasado de los algoritmos basados en normas especificadas manualmente […] al aprendizaje automático. En los sistemas basados en reglas” predefinidas por los creadores de la maquina inteligente “las lógicas explícitamente definidas convierten las variables de entrada, [input], como la información de las transacciones de las tarjetas de crédito, en variables de salida, [output]como por ejemplo un indicador de fraude. Los algoritmos complejos de machine learning son diferentes: las variables de salida y las variables de entrada se introducen juntas en un algoritmo que, según se ha demostrado teóricamente, es capaz de ‘aprender’ de los datos. Este proceso forma un modelo que exhibe lógicas implícitas, en lugar de explícitas, que por lo general no están optimizadas para la comprensión por parte de los seres humanos como son, en cambio, los sistemas basados en reglas preestablecidas” (2018)[17].

 

 

[1] https://arxiv.org

[2] La famosa prueba determina si el comportamiento de una máquina inteligente es indistinguible del humano. Según Alan Turing una maquina se define “inteligente” en el momento en el que las ideas por ella misma creadas tengan un significado y no sean sin sentido, como definido en el libro del autor intitulado “Computing machinery and intelligence”, en “Mind”, 1959, 49, p. 433 ss. Las otras dos veces, la prueba vino superada, la primera vez, por una computadora “pensante” que se demostró capaz de comportarse como un niño de 13 años y, la segunda vez, por una maquina que había realizado una producción escrita, componiendo un texto que habría podido ser escrito por un ser humano.

[3] La acromatopsia es una enfermedad congénita que impide reconocer los colores, concediendo una vista solo en blanco y negro.

[4] C. McCrudden, Human Dignity and Judicial Interpretation of Human Rights, EJIL, 19(4), 2008.

[5] Énfasis añadido.

[6] Nilsson, The Quest for Artificial Intelligence: A History of Ideas and Achievements, 2010.

[7] The Society for the Study of Artificial Intelligence and Simulation of Behaviour. What is

Artificial Intelligence. http://www.aisb.org.uk/public-engagement/what-isai

[8] En 1965, el cofundador de Intel Gordon Moore predijo que el número de componentes de un circuito integrado se duplicaría cada dos años (predicción formulada inicialmente a un año y siguientemente redefinida a dos) y que dicha tendencia habría continuado durante dos décadas. Por lo tanto, se considera como una de las predicciones mas exitosas del ultimo medio siglo con respecto al avance tecnológico, definiendo el progreso de medio siglo.

[9] Big data, inteligencia artificial, aprendizaje automático y protección de datos de la Information Commissioner’s Office.

[10] European Union Agency for Fundamental Rights, #BigData: Discrimination in data-supported decision making, 2018, p. 4.

[11] Diagnosis y medicamentos personalizados

[12] En 2018 el “Grupo de Trabajo del Artículo 29”, que fue establecido por el artículo 29 de la Directiva 95/46/CE a fin de proporcionar asesoramiento a la Comisión sobre cuestiones de protección de datos, fue sustituido por la Junta Europea de Protección de Datos (EDPB).

[13] E. Pehrsson no considera las condiciones como alternativas, creyendo que deban coexistir todas a fin de que pueda aplicar el articulo 22.

[14] Apartado 2, punto a) del articulo 22.

[15] Apartado 2, punto b) del articulo 22.

[16] Apartado 2, punto c) del articulo 22.

[17] Énfasis añadido.

Share this article!
Share.

About Author

Leave A Reply