Con el uso de la Inteligencia Artificial (IA) ha aumentado de manera exponencial la posibilidad de procesar enormes cantidades de datos personales. El tratamiento automatizado brinda la posibilidad de captar, tratar datos personales, elaborar perfiles, compararlos y tomar decisiones de manera constante e ininterrumpida. Ello es aprovechado por las plataformas digitales, redes sociales y proveedores de bienes y servicios, entre otros actores, ya que es posible conocer con bastante precisión cuál será nuestra próxima una compra, los anuncios llegan a las personas realmente interesadas de manera constante y hasta se pueden realizar ofertas personalizadas de productos y contenidos de acuerdo al interés y a la necesidad que poseen las personas humanas de obtenerlos. Todo este escenario, tiene grandes beneficios para los usuarios/as quienes poseen todo aquello que necesitan —o que la IA considera que deben necesitar— ofrecido en su entorno digital. Una vez que ha realizado una búsqueda en Google —o ha expresado de algún modo su interés—, el perfilamiento permite su persecución constante por los oferentes a través de anuncios en la mayoría de los sitios web y aplicaciones que visite.
Ahora bien, la mayor problemática que se produce se vincula con la vulneración de los derechos de los titulares de datos personales quienes, en la mayoría de los casos, no pueden conocer en su totalidad, entre otras cosas, 1) que sus datos son recopilados; 2) que a partir de ellos se toman decisiones que influyen en sus vidas; 3) los métodos de recolección y 4) que las plataformas digitales se encuentran percibiendo enormes ganancias a partir del uso de sus datos personales.
Nos encontramos en un momento crucial para intentar brindar protección a los usuarios/as consumidores en el mundo digital. La finalidad de la presente ponencia consiste en analizar el nuevo paradigma de tratamiento de datos personales y la necesidad de proteger a los usuarios/as y consumidores ante la irrupción de la IA.
II. Tratamiento de datos personales con Inteligencia Artificial [arriba]
El tratamiento de datos personales ha sido definido como cualquier operación o conjunto de operaciones que se realiza sobre datos personales. Abarca la recopilación, registro, organización, estructuración, almacenamiento, adaptación o alteración, recuperación, consulta, uso, divulgación por transmisión, difusión o puesta a disposición, alineación o combinación, restricción, borrado o destrucción[2].
Una de las novedades que trae la Cuarta Revolución Industrial consiste en el tratamiento automatizado de datos personales a partir de la introducción de la lA. Un sistema de IA puede ser definido como aquel que, basado en máquina, permite hacer predicciones, recomendaciones o tomar decisiones sobre ciertos objetivos definidos por los humanos/as. Estos sistemas, operan con varios niveles de autonomía[3]. Ahora bien, ¿cómo funciona este procesamiento automatizado?
- Recolección de datos personales
Las grandes plataformas y redes sociales poseen herramientas encargadas de captar absolutamente todo nuestro comportamiento en el mundo digital: los “me gusta” que colocamos, las historias y publicaciones que observamos y el tiempo que nuestra mirada permanece en las mismas, los contenidos que leemos, las personas con las que nos contactamos, las páginas que visitamos, las noticias que nos interesan y nuestra geolocalización de manera constante, entre otros. Asimismo, además del comportamiento expreso, son capaces de hacer recolección implícita[4]
Para ello, se valen de las “cookies” que son ficheros de texto que los sitios web instalan en el ordenador o el dispositivo de los usuarios/as que los visitan[5] y permiten almacenar, entre otras cosas, las preferencias de los usuarios/as y reunir datos de análisis. Cada usuario/a que visita un sitio web, deja un rastro o número IP de origen que permite comprobar aquellos sectores que ha visitado. De este modo, se van recolectando los datos personales que construyen nuestra identidad digital[6].
Estas cookies configuran útiles herramientas ya que se han convertido en medios de obtención de información[7] acerca de potenciales clientes e interesados/as lo que permite realizar ofertas personalizadas y ofrecer u ocultar cierta información.
- Perfilamiento y comparación constante
Ahora bien, a través del tratamiento automatizado de datos personales, se elaboran perfiles acerca del comportamiento de los usuarios/as con los cuales es posible evaluar determinados aspectos personales. Estos perfiles se nutren con la totalidad de nuestro ser digital. Ello, con la finalidad de analizar o predecir aspectos relativos al rendimiento profesional, situación económica, salud, preferencias personales, intereses, fiabilidad, comportamiento, ubicación o movimientos de dicha persona física[8]. Con ellas, se obtienen mediciones sofisticadas y precisas acerca de nuestros intereses, objetivos e incluso lo que no nos interesa.
Ahora bien, los perfiles elaborados sobre cada persona humana, son múltiples y se someten a comparaciones constantes, ya que esta lógica es la que permite mejorar las predicciones permanentemente.
Por ejemplo, Spotify capta que a una usuaria le gustan las canciones de Divididos y Soda Estéreo. A partir de estos datos puede inferir que le gusta el Rock Nacional. Comparará el perfil de la usuaria con los otros millones de usuarios/as que han manifestado interés por estos cantantes y a partir de ello, predecirá que le gustarán las canciones de Charly García, por ejemplo, y le ofrecerá sus listas de canciones. Pero además las plataformas digitales como Instagram o Facebook comenzarán a lanzar anuncios vinculados a los intereses de distinta índole. Por ejemplo, si le interesa la Inteligencia Artificial, sigue en redes el perfil de MIT, asistió a eventos vinculados a la materia, se une a los vivos que realizan estudiosos/as en la materia y está pendiente sobre las últimas recomendaciones de los organismos internacionales, la IA captará su afición sobre este tema y es probable que sus redes sociales estén colmadas de anuncios acerca de los últimos libros publicados y se le envíe la opción de dirigirse a la página de venta, por las últimas compras realizadas por personas que comparten su gusto. En fin, de los datos recolectados, se derivan otros a partir de predicciones.
- Transferencias de perfiles
En todo este contexto, las plataformas y páginas web recolectan datos personales, perfilan, comparan los perfiles, realizan predicciones y además transfieren esta información. Las plataformas digitales como Facebook, anuncian en sus políticas de privacidad que transfieren los datos personales que recolectan a un número considerable de terceros agrupados e categorías. Entre ellos, se mencionan los socios que usan sus servicios de análisis, es decir, que proporcionan información que las personas y empresas utilizan para conocer como los usuarios/as interactúan con las publicaciones, anuncios, páginas, videos y otro contenido dentro y fuera de los productos de Facebook. Por ejemplo, se transfiere información sobre el número de personas o cuentas vistas, comentarios realizados, reacciones a las mismas y demás interacciones[9].
Las cuestiones en relación a los usos —y abusos— sobre nuestros datos personales, cuando interviene la Inteligencia Artificial en los procesamientos, se vuelven más complejas.
III. Problemáticas vinculadas al tratamiento automatizado de datos personales [arriba]
La irrupción del tratamiento automatizado de datos genera enormes desafíos que requieren respuestas capaces de brindar protección en el escenario actual de vulneración en el que nos encontramos inmersos/as. Además de los principios y derechos de protección que portamos como poseedores de datos personales, en las leyes sancionadas a tal efecto, como la Ley 25326 de Argentina, se están lesionando los derechos básicos que tenemos como usuarios/as y consumidores/as. A simple vista, el posible verificar las siguientes problemáticas:
- Ausencia de información
Una de las principales problemáticas que se presentan en relación al tratamiento automatizado de datos personales, radica en que a través del mismo es posible recolectar la totalidad de nuestros datos personales en función de nuestra actividad e inactividad en línea, elaborar perfiles y compararlos de manera constante, tomar decisiones que influyen en nuestra vida y manipularnos sin que nosotros/as tengamos noción de estas cuestiones en la mayoría de los casos.
La desinformación en la que nos encontramos inmersos es una de las principales razones de la hegemonía que viven hoy en día las grandes plataformas como Google, las redes sociales en general y otras páginas web. A pesar de que para el uso de las plataformas digitales y redes sociales no debemos pagar con dinero[10], pagamos con lo más íntimo de nuestra persona y con datos que serían imposibles de obtener si no fuese por estas tecnologías. Con los datos y perfiles obtenidos se generan enormes ganancias que tienen como fuente las operaciones sobre los datos personales de millones de seres humanos que se encuentran navegando en la web. Las redes sociales realizan acuerdos con sus socios o terceros, perfilan y arrojan anuncios e información en general. Es decir, lo que podía ser considerado privacidad se encuentra a merced de las decisiones comerciales.
Entre las cuestiones que en general no son explicadas se encuentran las siguientes:
- La recolección de datos personales; Los comportamientos explícitos e implícitos de los que recolectan dichos datos; El método por el cual extraen los datos; La elaboración de perfiles[11]; Las finalidades de la recolección de datos personales[12]; Los beneficios que las plataformas, páginas y socios reciben a partir del tratamiento y transferencia de datos personales; Las transferencias que se realizan sobre nuestros datos personales y los terceros a quienes se transmiten.
El precio que nos encontramos pagando hoy en día es demasiado alto. En un mundo digital donde reina la ignorancia de millones de usuarios/as, se encuentran unos pocos que logran numerosos provechos.
- Imposibilidad de brindar un consentimiento válido
La Ley de Protección de Datos de Argentina, consagra el derecho a otorgar un consentimiento lícito en su artículo 5. La realidad es que en el mundo de la IA, es muy difícil considerar que brindamos un consentimiento lícito cuando nos unimos a las plataformas digitales o redes sociales. A poco de observar, es posible percatarse que el mismo esfuerzo destinado a diseñar páginas y plataformas que capten nuestra atención constantemente, llamativas y que nos seduzcan de modo que pasemos largo tiempo en ellas, está destinado a lograr políticas de cookies, de datos o privacidad que nos resulten tediosas: están escritas en lenguaje técnico, la información no se organiza de modo atrayente y susceptible de comprensión. En un escenario digital, del cual somos parte por necesidad de obtener información, por ocio o para seguir una moda, no son mayoría las personas que deciden destinar de 20 a 30 minutos para leer y analizar lo que se hará con los datos personales y acepta sin demasiada reflexión.
De todos modos, la información que se ofrece en las mismas no es completa[13] y se brinda en un lenguaje incomprensible para la mayoría de los usuarios/as ignorantes en el tema. Esto es uno de los mayores problemas a la hora de garantizar este derecho y la causa principal de su vulneración: si no se tiene conocimiento e información, como mínimo, sobre lo que implican los datos personales, los tratamientos de datos, la IA y todas las finalidades de su realización, es imposible que se pueda brindar un consentimiento informado.
Se agrava el problema cuando observamos que en las políticas se aplican fórmulas como “por ejemplo”[14] cuando se enumeran las finalidades de las manipulaciones a las que se someterán nuestros datos, por lo que podemos concluir en este punto, que por más que la persona destine su esfuerzo a leer la información y a comprenderla, jamás podrá consentir de manera “informada” las mismas.
Permanecemos en las redes y páginas web sin tener consciencia de lo que se realiza con nuestros datos, sumado a la simulación creada de que en realidad hemos aceptado formar parte de esta sociedad digital. Considero que ello es totalmente alejado a la realidad.
- Manipulación y atención constante
La logística del tratamiento automatizado, requiere que nuestra atención se encuentre el mayor tiempo posible en el mundo digital, que ingresemos a los portales web, consumamos el contenido que nos presentan y así precisar cada vez más las predicciones y ofertas. Podríamos decir que los socios o terceros interesados en conocer cuál será nuestro interés, requieren contar con la información del último segundo, para ello presionan a las plataformas quienes compiten entre si para lograr cada vez más socios y aumentar las ganancias. A su vez presionan a los usuarios/as para que pongan a disposición su ser de manera constante[15]. Para lograrlo utilizan pequeños “empujoncitos” que los colocan completamente a su merced. Por ejemplo, cuando transcurre un determinado tiempo desde que se visita la plataforma, ciertas redes sociales envían notificaciones que avisan que una persona de interés ha realizado una publicación, o que se ha iniciado un vivo, o que hay un descuento en una determinada marca que ofrece el último producto googleado. Estos empujones resultan efectivos ya que, como no se debe disponer de dinero para hacer uso de las mismas y baja la guardia, los usuarios/as se relajan y obedecen a los algoritmos.
Con estos comportamientos, se produce una pérdida de libertad y es el algoritmo en gran medida quien determina cuándo se debe ingresar, qué hacer y todo ello con finalidades económicas, entre otras. Esto ha generado consecuencias dañinas observables como depresión, ansiedad, problemas de sueño e inseguridad[16]. Tal es la dependencia que las plataformas digitales se esfuerzan por lograr que algunos portales de noticias han comunicado que Reed Hasting ha expresado que el mayor enemigo de Netflix no es HBO o Amazon, sino el sueño[17].
Si bien podría parecer que dicho comentario forma parte de una broma o fue quitado de contexto, la realidad es que si analizamos el modo en que las plataformas trabajan, podemos percatarnos que es la triste realidad que vivimos como usuarios/as ya que intentan retenernos de manera constante, sin preocuparse por la posibilidad de lesionar la salud y dignidad misma.
Estas cuestiones, nos van quitando nuestra misma humanidad, ya que se crea una adicción, a partir de los mismos datos personales que entregamos, la mayoría de las veces, sin saberlo.
- Discriminación
Otra de las graves problemáticas que se producen a partir del uso de datos personales, perfilamiento, realización de predicciones y toma de decisiones, es que los resultados de las mismas pueden resultar discriminatorios. Las empresas utilizan nuestros datos personales para la concesión de préstamos o seguros y sus condiciones de pago, discriminación de precios y selección de personal, entre otros fines[18]. El efecto que posee el tratamiento automatizado es exponencial ya que es capaz de evaluar a múltiples personas que se encuentran detrás de los perfiles al mismo tiempo y liberar un resultado en pocos segundos, por lo que los resultados podrían resultar sumamente gravosos.
Por ejemplo, Amazon utilizó una herramienta experimental con IA con el fin de dar puntuaciones a candidatos a empleos, de manera similar a la que los compradores/as calificaban sus productos. Se podría ingresar un número determinado de CVs al sistema y este sería capaz de seleccionar los cinco mejores. Ahora bien, la compañía se percató de que su sistema, cuando se trataba de puestos de desarrollo de software y otras cuestiones técnicas, no era neutral en materia de género. Por ejemplo, se rechazaron los CV que incluían la palabra “femenino” o “capitana de club de ajedrez femenino” y se rebajó la calificación a las graduadas en dos universidades exclusivas de mujeres[19].
La discriminación en este contexto, está especialmente relacionada con el modo en que los sistemas de IA son entrenados y los sesgos existentes en los conjuntos de datos que se utilizan para ello. Téngase en cuenta que la mayoría de las aplicaciones de IA utilizan aprendizaje profundo cuyos algoritmos se especializan en encontrar patrones en los datos. Estos datos pueden generar sesgos especialmente por dos vías: o los datos no son representativos de la realidad como sucede cuando un algoritmo recibe más fotos de personas de piel negra que de piel blanca o bien reflejan perjuicios ya existentes. Esto es lo que sucedió con el algoritmo de Amazon referido, ya que el software se entrenó a partir de decisiones históricas de contratación que favorecían a los hombres sobre las mujeres[20].
Ahora bien, uno de los factores que determinan la existencia de sesgos en los datos y que resultan tan difíciles de corregir radica en los propios sesgos que tenemos los seres humanos y que se trasladan a las máquinas. Es decir, los seres humanos seleccionamos los datos con los mismos sesgos que luego reproducirán las máquinas. Por lo tanto, la educación de todos los actores en este punto es clave. Esta causa incluye, en ciertos casos, la implementación de un sistema de IA creado para una sociedad con ciertos ideales, creencias e idiosincrasia en otro que posee consideraciones diferentes. Por lo tanto, cuando se trata de datos, el dicho “entra basura, sale basura”, es válido según afirma el MIT[21].
En conclusión, si los sistemas que se utilizan para tomar decisiones a partir del tratamiento automatizado de datos se encuentran sesgados y son susceptibles de generar discriminación, los problemas se complejizan aún más. La discriminación no es un problema que nace con los algoritmos inteligentes, pero la IA utilizada de modo perjudicial, puede volver sus efectos exponenciales. Entonces, no sólo se utilizan los datos personales cuyo otorgamiento y generación es constante, se elaboran perfiles y se toman decisiones sobre ellos sin que contemos con la información necesaria para brindar un consentimiento válido, sino que además estas decisiones personalizadas pueden resultar discriminatorias. Los presentados, son sólo algunos de los múltiples desafíos a abordar ante el tratamiento automatizado de datos personales.
IV. Propuestas para garantizar los derechos [arriba]
En todo este escenario, es necesario implementar mecanismos efectivos que nos permitan continuar aprovechando los grandes beneficios de la Inteligencia Artificial, pero que logren que los sistemas sean desarrollados con perspectiva de derechos, para que se encuentren al servicio de la humanidad.
- Reinterpretación de los principios y derechos existentes a la luz de la IA
Los grandes principios y derechos protectorios existentes y plasmados en las normas jurídicas son útiles, siempre y cuando se realicen nuevas interpretaciones de los mismos que los hagan aplicables ante las actuaciones con tratamientos automatizados de datos personales.
Por ejemplo, el derecho a la información y el derecho al consentimiento son dos de los principales que se encuentran reconocidos en nuestra Ley de Datos Personales. Una reforma a la Ley debería incluir su adaptación al contexto actual.
Para lograr un consentimiento libre, expreso e informado en el mundo de la IA, es necesario brindar información expresa y clara sobre: Qué son los datos personales, cuáles son los que se recolectan y cómo se realiza la recolección; Cuál es la implicancia del uso de la IA en el tratamiento automatizado; Cuáles son las finalidades de la recolección y perfilamiento; Qué implica el perfilamiento de datos y la finalidad de su realización; Cómo se llega a la conclusión sobre que anuncios mostrar; Cuáles son los perfiles que llevaron a que se ofrezca una u otra información en las redes sociales y páginas web; Cómo fue el proceso de entrenamiento de los sistemas de IA con los que se realiza el tratamiento de datos personales; Cuáles fueron los conjuntos de datos y cómo se elaboraron los Datasets; Si se realiza transferencia de datos personales o perfiles, a quiénes específicamente, por qué motivo y que harán los terceros con los datos recolectados; A quién dirigirse si se toma una decisión discriminatoria[22].
Asimismo, debería obligarse a las plataformas y páginas a tener un canal de consulta permanente al cual se pueda recurrir en caso de que no se logre comprender esa información. Así, se debería brindar información especialmente adaptada a los conocimientos y formación del interesado/a en particular. Asimismo, toda la información de las políticas debería ser brindada en un lenguaje claro y preciso[23].
- Consagración normativa de nuevos derechos ante el avenimiento del tratamiento automatizado de datos personales
El Proyecto de Ley de Protección de Datos Personales para Argentina, tuvo como antecedente el RGPD del Parlamento Europeo y por lo tanto preveía cuestiones sobre el tratamiento automatizado[24]. Si bien en mi opinión el proyecto requería la incorporación de aún más derechos nacidos a partir de la incorporación de IA, considero que se desaprovecha la oportunidad de debatir ampliamente sobre esta temática. Una modificación a la regulación debería incluir como mínimo las siguientes cuestiones: Derecho a no ser perfilado[25] sin consentimiento; Derecho a no ser sujeto de decisiones tomadas únicamente en base a tratamientos automatizados[26]; Derecho a la explicabilidad de los sistemas de IA empleados; Derecho a la portabilidad de los datos personales y perfiles[27]; Obligación de que los encargados/as de diseñar e implementar los sistemas posean perspectiva de derechos para evitar discriminación.
- Importancia de la sanción de un Tratado internacional Latinoamericano
A pesar de los esfuerzos por sancionar normas en el interior de los países latinoamericanos que contemplen el tratamiento automatizado[28], la realidad es que las plataformas y páginas continúan con su actuar ilícito e irrespetuoso de los derechos. Por lo tanto considero que sería de real interés que se sancionen tratados protectorios de las personas ante el tratamiento automatizado de datos personales con IA en ámbitos similares a la Organización de Estados Americanos, que impliquen un esfuerzo conjunto de los distintos Estados Latinoamericanos. De este modo, se podría obligar a las páginas y plataformas a que se adecúen a las normas consagradas en un texto unificado.
Asimismo, sería importante que se brinde competencia a un órgano de aplicación especial de carácter regional con facultades de control que sea capaz de velar por el constante respeto del Tratado por parte de las páginas y plataformas que se introducen en el interior de los Estados firmantes. También deberían otorgarse facultades disciplinarias ante un conflicto entre usuarios/as y las plataformas digitales. Además, estos órganos deberían evaluar la perspectiva de derechos humanos con que cuentan los actores de la IA.
Actualizar la Ley 25326 a la luz del tratamiento automatizado de datos personales con Inteligencia Artificial, consagrar normativamente los nuevos derechos y mecanismos de protección de los titulares y reinterpretar los derechos ya reconocidos. Sancionar un Tratado Latinoamericano de Protección de Datos y designar una autoridad de aplicación que vele por su cumplimiento.
[1] Abogada. Diploma de Honor UBA. Ponencia presentada y aprobada por unanimidad en la Comisión de Informatica en el marco de las XXXI JORNADAS ACÁDEMICAS DE LA COMISION DE LA ABOGACIA JOVEN DE COLPROBA. 26 y 27 de Noviembre de 2020.
[2] Ver Reglamento General de Protección de Datos Personales de la Unión Europea, 2016/679 del 27 de abril de 2016, artículo 4, inciso 4, disponible en: https://www .boe.es/doue/2016 /119/L00 001-00088.pdf
En la Ley Argentina ha sido definido como Tratamiento de datos: Operaciones y procedimientos sistemáticos, electrónicos o no, que permitan la recolección, conservación, ordenación, almacenamiento, modificación, relacionamiento, evaluación, bloqueo, destrucción, y en general el procesamiento de datos personales, así como también su cesión a terceros a través de comunicaciones, consultas, interconexiones o transferencias. Ver Ley 25326, artículo 2.
[3] Ver OCDE, Inteligencia Artificial en la Sociedad, junio de 2019, disponible para su descarga en: https://www .oecd-il ibrary.org/science-and-technolo gy/artificial-in telligence- in-society_eedf ee77-en
[4] Ver Corvalán Juan G., Perfiles Digitales Humanos, colaboradora Carina Mariel Papini, Thomson Reuters, año 2020, página 43.
[5] Ver cookies, Unión Europea, disponible en: https://euro pa.eu /european-union /abouteuropa/co okies_es
[6] Ampliar en Corvalán Juan G., Nada es privado mientras subastan tu identidad digital con IA, DPI Cuántico, 09.09.2019, disponible en: https://dpic uan tico.com/sit io/wp-content/ uploads/20 19/09/Doctrina-C orval%C3 %A1n.pdf
[7] Ver Gustavo Daniel Tamus, Artículo publicado en Information Technology, revista editada por Mind Opener S.A. Edición Nº 57 - Agosto 2001, pág. 90. Buenos Aires, Argentina, disponible en: http://www.protec cionded atos.com.ar /doc5.htm
[8] Ver Reglamento General de Protección de Datos Personales de la Unión Europea, 2016/679 del 27 de abril de 2016, artículo 4, inciso 4, disponible en: https://www.boe .es/doue/2016/119/L00001-00088.pdf
[9] Ver Política de Datos de Facebook , disponible en: https://www.facebook.c om/privacy/e xplanation
[10] Téngase en cuenta que Facebook, por ejemplo, en la pantalla de inicio establece “Facebook es gratis y lo seguirá siendo”.
[11] La Política de datos de Facebook no ofrece información acerca del perfilamiento. La Política de Datos de Twitter también omite información al respecto.
[12] Obsérvese que el derecho a ser informado sobre las finalidades del tratamiento de datos personales ha sido consagrada en el artículo 6 de la Ley 25326 de Protección de Datos Personales de Argentina, disponible en: http://servi cios.infoleg.go b.ar/infolegInternet /anexos/600 00-64999/64 790/norma.ht m
[13] Muy pocos portales informan de la existencia de ficheros de data mining y de la finalidad de los tratamientos que realizan con los datos de los usuarios/as registrados. Ver Basterra Marcela, El consentimiento del afectado en el proceso de tratamiento de datos personales, Lexis Nexis, Número especial, 28 de abril de 2004, página 12, disponible en: http://marcelabas terra.com.ar/wp-content/up loads/2016 /11/HD.-El-con sentimiento-del- afectado-en-el-pro ceso-de-tratamiento -de-datos-p ersonales.pdf
[14] Ver Política de Datos de Facebook, punto: ¿Qué tipo de información recopilamos?, disponible en: https://www.facebook.com/privacy/explanation
[15] El aprendizaje automático (machine learning) ha permitido a los comerciantes comprender las correlaciones entre los datos del consumidor (compras, sitios visitados, likes en las redes sociales) y las posibles respuestas a los anuncios. Esta capacidad podri?a transformarse en manipulacio?n, dice el informe del IMCO.
Ver: Sonsoles Valero, Inteligencia Artificial y protección a los consumidores. Último informe del Parlamento Europeo, Abogacía Española, Consejo General, disponible en: https://www.abog acia.es/public aciones/blog s/blog-de-derec ho-de-los-los-consumid ores/inteligencia -artificial-y-prot eccion-a-los-c onsumidores-ultim o-informe-del-p arlamento-eur opeo/
[16] ¿Qué efectos tienen las 5 mayores redes sociales en la salud mental de los jóvenes?, BBC, 19 de mayo de 2017, disponible en: https://www.bb c.com/mundo/n oticias-399746 88
Estos temas han sido abordados en el documental de Netflix El dilema de las redes sociales
[17] Nuestro mayor enemigo es el sueño: Netflix, 18 de abril de 2017 disponible en: https://www.entrep reneur.com /article/2 93016
La noticia se encuentra también en: https://www.abc.es/p lay/series/noticias/abci-gr an-competidor-n etflix-sueno-2017 04192030_ noticia.html? ref=https:% 2F%2Fwww.go ogle.com%2F
[18] Andrea Guillén Gil, El derecho a no ser objeto de decisiones basadas únicamente en el tratamiento automatizado de datos personales, incluida la elaboración de perfiles, Universitat Oberta de Catalunya, Mayo de 2019, página 1, disponible en: http://open access.uoc.edu/web apps/ o2/bitstr eam/10609/9 9828/6/aggilTFM0 619mem oria.pdf
[19] Jeffrey Dastin, Amazon abandona un proyecto de IA para la contratación por su sesgo sexista, 14 de octubre de 2018, Reuters, disponible en: https://es.reuters.com/article/a mazon-com-c ontratacion- ia-idESKCN1M O0M4
[20] Karen Hao, Cómo se produce el sesgo algorítmico y por qué es tan difícil detenerlo, MIT Technology Review, 8 de febrero de 2019, disponible en: https://www.technolog yreview.es /s/10924/como-se -produce-el-ses go-algoritmico- y-por-que-es-tan -dificil-detenerlo
[21] Beth Stackpole, 5 pasos para la Inteligencia Artificial “centrada en las personas”, MIT Management Sloan School, 6 de enero de 2020, disponible en: https://mits loan.mit.edu/i deas-made-to-matt er/5-steps-to-people-cen tered-artificial-int elligence
[22] Sobre estas cuestiones ampliar en Corvalán Juan G., Perfiles Digitales Humanos, Colaboradora Carina Mariel Papini, Thomson Reuters, año 2020, página 153.
[23] Corvalán Juan G., Perfiles Digitales Humanos, Colaboradora Carina Mariel Papini, Thomson Reuters, 2020, página 121.
[24] Proyecto de Ley de Protección de Datos Personales, año 2017, disponible en: https://www.arge ntina.gob.ar/sites/d efault/files/a nteproy ecto_refo rma_ley_p roteccion_de_los_d atos_personales_nue va_version.pdf
[25] Ver Corvalán Juan G., Perfiles Digitales Humanos, Colaboradora Carina Mariel Papini, Thomson Reuters, 2020, página 135.
[26] Ver RGPD, artículo 22, disponible en: https://www.boe.es /doue/2016/11 9/L00001-000 88.pdf
[27] En el artículo 20 del RGPD se prevé el derecho a la portabilidad de los datos personales. Es importante consagrar el derecho a la portabilidad de los perfiles ya que los mismos contienen la historia digital de la persona. Sería injusto que una persona que fue perfilada durante años por una red social, si decide unirse a otra deba comenzar “su vida digital” de cero.