Muñoz, Ricardo A. (h.) 29-05-2020 - Las TICs en la Administración Pública 29-05-2020 - Las TICs en las "categorías" del derecho administrativo 29-05-2020 - Inteligencia artificial y automatización de la Administración 29-05-2020 - La IA ante un enfoque basado en derechos
Empecemos ahora a desandar el camino respecto la aplicación de tecnologías más complejas en la Administración pública, en donde los sistemas digitales ya no solo meramente expresan la voluntad decisoria, sino la definen y determinan, conforme algoritmos, redes neuronales, técnicas de aprendizaje profundo, y cuanta otra IA pueda utilizarse.
Se ha definido a la IA como
“la rama de las ciencias de la computación que estudia el software y hardware necesarios para simular el comportamiento y comprensión humanos. El objetivo último de la IA es simular la inteligencia humana en una máquina creando robots que sean conscientes y con sentimientos reales, similares a los humanos…”1.
Susana Navas Navarro, profesora española y verdadera autoridad en la materia, comenta que a través de la IA se trata de emular las diversas capacidades del cerebro humano para presentar comportamientos inteligentes sintetizando y automatizando tareas intelectuales. De ahí que sea potencialmente aplicable a cualquier ámbito de la actividad intelectual humana. De hecho, emplea técnicas y conocimientos propios de otras disciplinas tales como filosofía, economía, estadística, ingeniería, neurociencia, psicología y, por supuesto, las matemáticas2.
Resulta especialmente interesante para este nuevo desarrollo de sistemas, el hecho que ya no son meros programas con una estructura de conocimientos predefinida, como lo es la IA “simbólica”, sino en realidad estas tecnologías son “entrenadas”, tal como se precisará infra respecto los algoritmos y las redes neuronales. En una fase de entrenamiento se proporcionan a la red modelos de entrada y los correspondientes modelos de salida (respuesta) apropiados, para que a través del nuevo conocimiento que vayan adquiriendo, tomen la mejor solución cumpliendo con el objetivo.
b) IA y algoritmos
A su vez, se ha aclarado con razón que
“La IA necesita de una secuencia de instrucciones que especifique las diferentes acciones que deben ejecutar un sistema inteligente para resolver un determinado problema denominado algoritmo que consiste en un procedimiento para encontrarle la solución mediante la reducción a un conjunto de reglas”3.
De tal manera entonces, no es lo mismo IA que algoritmo, pues mientras la primera es un sistema que, al simular la inteligencia personal genera soluciones cuyo resultado es análogo al logrado por el pensamiento humano, el algoritmo es una estructura procedimental, un conjunto de reglas y secuencias, que debe ejecutar la máquina para obtener una respuesta concreta. En palabras de la autora antes citada:
“Un sistema de IA necesita de una secuencia de instrucciones que especifique las diferentes acciones que debe ejecutar el computador para resolver un determinado problema. Esta secuencia de instrucciones es la estructura algorítmica que emplea el sistema de IA. Por tanto, “algoritmo” es el procedimiento para encontrar la solución a un problema mediante la reducción del mismo a un conjunto de reglas”4.
En esencia, entonces, un algoritmo puede ser definido como un conjunto preciso de instrucciones o reglas, o como una serie metódica de pasos que puede utilizarse para hacer cálculos, resolver problemas y tomar decisiones, es decir, el algoritmo es una fórmula que se utiliza para hacer un cálculo5. Y la IA se sustenta, nutualmente, en algoritmos inteligentes o en algoritmos de aprendizaje que, entre muchos otros fines, se utilizan para identificar tendencias económicas, predecir delitos, diagnosticar enfermedades, predecir nuestros comportamientos digitales, etc.
Ahora bien, la principal razón de la preocupación frente a los algoritmos refiere a que, por su intermedio, el sistema tomaría decisiones que podrían poner en jaque derechos fundamentales de individuos, cuyos datos son utilizados para estos cálculos. Riesgos como futuros usos no previstos en el momento de obtener la información y el consentimiento sobre ella, tales como la generación de perfiles, la manipulación, la monitorización de la conducta y especialmente las valoraciones basadas en decisiones automatizadas que generen una discriminación algorítmica que puede perjudicar seriamente a las personas. En este sentido, debe evitarse definitivamente lo que se ha denominado “algoritmocracia”, es decir un gobierno de los algoritmos, donde estos podrían estar tomando decisiones sobre los ciudadanos, cuyo impacto en los derechos fundamentales aún no somos capaces de prever6.
Finalmente debe precisarse en este apartado que, si bien puede entenderse –en apretada síntesis– que la IA resuelve aplicando algoritmos que definen el proceso para obtener la respuesta frente al conflicto, ello no quiere decir en modo alguno que los algoritmos sean fuente de derecho, sino en rigor de verdad –aunque parezca una obviedad, deba aclararse– es la “ley” en sentido lato la que resuelve, haciéndolo a través de la delegación material que implicó la norma (ley, decreto, etc.) que aprobó a su vez el sistema de IA.
Por eso, el algoritmo, no es fuente de derecho.
“En el caso de ejercicio de potestades administrativas, se puede decir que se delega en la IA tal ejercicio y el autómata toma el sitio del humano en función de las instrucciones que ha recibido” y la fuente del Derecho “sigue siendo la norma jurídica que es ejecutada mediante la IA y el algoritmo”7.
Más adelante volveremos sobre este punto.
c) Función de la IA: la representación del conocimiento
La representación del conocimiento y el razonamiento se encuadran en un área de la IA que tiene como objetivo fundamental recrear y graficar el conocimiento de una manera que facilite la inferencia. Esto es, sacar conclusiones a partir de dicho conocimiento. En otras palabras, los mecanismos de IA será útiles y habrán cumplido su cometido si permiten visualizar y representar debidamente el conocimiento.
Una buena representación del conocimiento cubre seis características básicas:
1. Cobertura: significa que la representación del conocimiento cubre la información a lo ancho y en lo profundo. Sin una cobertura amplia, la representación del conocimiento no puede determinar nada ni resolver ambigüedades.
2. Ser comprensible por humanos. La representación del conocimiento es aceptada como un lenguaje natural, por lo que la lógica debería fluir de manera libre. Debería estar en condiciones de soportar la modularidad y jerarquía de clases (Ejemplo, los osos polares son osos, que, primero, son animales).
3. Consistencia. Si se advierte una acción, el acto debe ser interpretado como tal acción, y siempre de la misma manera. A su vez, si es consistente, la representación del conocimiento puede eliminar el conocimiento tanto redundante como conflictivo.
4. Eficiencia. Debe actuar cumpliendo los fines previstos, sin fallas, y casi sin fisuras.
5. Facilidad de modificación y actualización. A través de su capacidad de aprendizaje y simulación del pensamiento, el sistema debe ser apto para adaptarse a nuevos objetivos.
6. Soporte de la actividad inteligente que usa la base de conocimiento.
Para entender mejor por qué estas seis características conforman una buena representación del conocimiento, debe pensarse a la IA como una enciclopedia. Tomemos con ejemplo Wikipedia: está estructurada, hay millones de artículos (cobertura) organizados en categorías, tipos de contenido y temas similares (comprensible por humanos), redirecciona diferentes títulos, pero con el mismo contenido al mismo artículo (consistencia), es eficiente, se pueden añadir o actualizar páginas fácilmente y permite a los usuarios consultar la base de conocimiento en sus teléfonos u ordenadores de escritorio.
d) El aprendizaje automático. Redes neuronales
Pero la IA no es todo, sino –por el contrario– solo el primer paso para la automatización y la actividad instantánea. Hay muchos más métodos. Y en todos se utilizan capacidades a través de técnicas de algoritmos.
Explica la doctrina8 que la IA
“que intenta utilizar facultades identificables como cognitivas a nivel humano, reside en la capacidad de interpretar parámetros de manera flexible para aprender y utilizar el conocimiento obtenido para el objeto fijado como meta…En un paso más complejo, el machine learning es una rama derivada de la inteligencia artificial más compleja, que permite el desarrollo de técnicas que posibilitan el aprendizaje genuino, es decir, la capacidad de que por medio del procesamiento de la información (datos en relación), se pueda inducir conocimiento… Finalmente, el deep learning o aprendizaje profundo, es una derivación del machine learning, que permite la modelación de abstracciones que permiten la toma de decisiones de forma automatizada basadas en el conocimiento adquirido”.
Al “machine learning”, se lo conoce como el subcampo de las ciencias de la computación y una rama de la IA cuyo objetivo es hacer posible que las computadoras aprendan. Es una técnica que utiliza algoritmos que razonan de manera similar al cerebro humano. El “machine learning” logra el aprendizaje de las computadoras por dos vías: a partir de los datos que se le introducen, así como también a través de la ejecución de los respectivos algoritmos. Con respecto a estos, comparte su uso con otras ramas de la IA, pero desarrolla un enfoque en los datos orientado a “educar” a la maquinaria para fomentar su autonomía.
Es una técnica que utiliza algoritmos que razonan de manera similar al cerebro humano. Concretamente, se trata de crear programas capaces de generalizar comportamientos a partir de la información suministrada en forma de ejemplos. El aprendizaje automático cuenta con una amplia gama de aplicaciones: a saber, motores de búsqueda, diagnósticos médicos, detección de fraude en el uso de tarjetas de crédito, análisis del mercado de valores, clasificación de secuencias de ADN, reconocimiento del habla y del lenguaje escrito, juegos y robótica, entre otros.
Para entender mejor, tomemos un ejemplo:
“imaginemos que queremos identificar la marca y el modelo de todos los vehículos que pasan por una calle. Por un lado, tendríamos las imágenes y el sonido de las cámaras y por otro una base de datos enorme con la forma, características técnicas o el sonido del motor de miles de coches. Un sistema de inteligencia artificial identificaría los coches de las imágenes por su aproximación a los datos que conoce; pero no siempre acertaría, ya que hay coches con características muy similares. Un sistema con Machine Learning podría ´aprenderse´ los datos y clasificar con mayor precisión los vehículos, pero uno con Deep Learning puede ´entrenarse´ sobre los nuevos datos que va recibiendo. Es decir, puede emplear un diferenciador erróneo y equivocarse una vez, pero a la siguiente emplea otro para acercarse cada vez más al resultado correcto”9.
Muchos de las IA diseñadas y construidas con un propósito, como ejecutar un robot que juega ping pong o domina cualquier juego. Este es el resultado inevitable cuando los informáticos se sientan y crean algo para hacer una tarea específica, terminan con algo que puede hacer esa tarea y no mucho más. Para superar este problema de las IA orientadas a la tarea, los científicos de la computación empezaron a operar con redes neuronales artificiales.
Las redes neuronales artificiales intentan recrear este sistema de aprendizaje en ordenadores construyendo un programa simple para responder a un problema y recibir retroalimentación sobre cómo lo hace. Una computadora puede optimizar su respuesta haciendo el mismo problema miles de veces y ajustando su respuesta de acuerdo a la retroalimentación que recibe. A la computadora se le puede dar un problema diferente, el cual puede aproximarse de la misma manera que aprendió de la anterior. Al variar los problemas y el número de enfoques para resolverlos los cuales la computadora ha aprendido, los científicos informáticos pueden enseñar una computadora determinados aspectos10.
Una red neuronal artificial es un grupo interconectado de nodos similar a la red de neuronas en un cerebro biológico. Cada nodo representa una neurona artificial y una flecha representa una conexión desde la salida de una neurona a la entrada de otra. El objetivo de la red neuronal es resolver los problemas de la misma manera que el cerebro humano, aunque las redes neuronales son más abstractas.
En esencia, las redes neuronales artificiales son modelos de redes neuronales humanas diseñadas para ayudar a las computadoras a aprender. Aquellas, fundamentan la existencia de los sistemas de IA más populares.
e) Tecnologías de IA más utilizadas
A los fines de graficar la importancia de lo abordado, y a modo de ejemplo, podemos señalar distintas tecnologías de IA que dominan la materia en la actualidad11, muchas de las cuales son conocidas por todos nosotros, la mayoría de utilización diaria. Así, podemos mencionar:
1. Generación de lenguaje natural. La generación de lenguaje natural es una sub-disciplina de la IA que convierte los datos en texto, lo cual permite a las computadoras comunicar ideas con una precisión impresionante.
2. Reconocimiento de voz. Cada día son creados nuevos sistemas que pueden transcribir el lenguaje humano, través de sistemas interactivos de respuesta de voz y aplicaciones móviles (Siri, puede ser un conocido ejemplo).
3. Agentes virtuales. Un agente virtual no es más que un agente informático o un programa capaz de interactuar con humanos. Los agentes virtuales se están utilizando actualmente para el servicio de atención al cliente y soporte, así como administradores de hogares inteligentes (los chatbots, por ejemplo).
4. Plataformas machine learning. Como se dijo, ésta es una subdisciplina de las ciencias de la computación y una rama de IA, cuyo objeto es desarrollar técnicas que permitan a las computadoras aprender, por lo que son utilizadas para para predicción y clasificación. Un ejemplo puede ser la compañía Adext que aplica la IA y machine learning a la publicidad digital para encontrar la audiencia o grupo demográfico más redituable para cualquier anuncio.
5. Plataformas de aprendizaje profundo. También se dijo que las plataformas de Deep Learning usan una forma única de machine learning que involucra circuitos neuronales artificiales con varias capas de abstracción que pueden imitar al cerebro humano, procesar datos y crear patrones para la toma de decisiones. Actualmente se usa principalmente para reconocer patrones y clasificar aplicaciones que sólo son compatibles con conjuntos de datos a gran escala.
6. Biométricas. Esta tecnología puede identificar, medir y analizar el comportamiento humano y los aspectos físicos de la estructura y de la forma del cuerpo. Permite interacciones más naturales entre los seres humanos y máquinas, incluidas las relacionadas con el reconocimiento del tacto, imágenes, voz y lenguaje corporal, por lo que es extremadamente importante en el campo de la investigación de mercado.
7. Automatización de procesos robóticos. La automatización de procesos robóticos usa scripts y métodos que imitan y automatizan tareas humanas para apoyar en los procesos corporativos. Retomando el ejemplo de Adext, esta plataforma automatiza la publicidad digital usando AI, con la finalidad de ahorrar tiempo y recursos dedicados a las realizar las tareas mecánicas y repetitivas que demanda esta profesión, las cuales pueden efectuadas con mayor eficiencia y asertividad por la misma. Es una solución que te permite aprovechar al máximo el talento meramente humano y mover a los empleados a posiciones más estratégicas y creativas, para que sus acciones realmente puedan tener un impacto en el crecimiento de la compañía.
8. Analíticas de texto y NLP (Procesamiento de Lenguaje Natural). Esta tecnología utiliza análisis de texto para comprender tanto la estructura de las oraciones, como su significado e intención, a través de métodos estadísticos y machine learning. Esta técnica se utiliza actualmente en sistemas de seguridad y detección de fraudes, aunque también están siendo utilizados por una amplia gama de asistentes y aplicaciones automatizadas para extraer datos no estructurados. Otro ejemplo, especialmente en la materia que nos convoca, es la utilización de NLP para revisar contratos, inclusivo, para la redacción de sentencias o resoluciones administrativas modelos.
9. Compliance (cumplimiento). Compliance es la certificación o confirmación de que una persona u organización cumple con los requisitos de prácticas aceptadas, legislaciones, regulaciones, estándares o términos de un contrato. En la actualidad, se advierte soluciones regulatorias de complicance que utilizan IA para ofrecer eficiencia a través de la automatización y la cobertura integral de riesgos. Las soluciones con análisis predictivo y constructores de escenarios pueden ayudar a las organizaciones a cumplir con los requerimientos del capital regulatorio. Y el volumen de actividades de transacciones señaladas como potenciales ejemplos de lavado de dinero se puede reducir a medida que se utiliza el deep learning para aplicar reglas comerciales cada vez más sofisticadas12.
10. Creación de Contenido. La creación de contenidos ahora incluye cualquier tipo de material que una persona sume al mundo online, ya sean videos, anuncios, publicaciones en blogs, white papers, infografías u otros recursos visuales o escritos.
11. Reconocimiento de Emociones. Esta tecnología permite que el software “lea” las emociones en el rostro humano mediante el procesamiento avanzado de imágenes o el procesamiento de datos de audio. Hoy en día podemos capturar “microexpresiones” o señales sutiles del lenguaje corporal y cualquier entonación vocal particular que nos indiquen los verdaderos sentimientos de una persona. Las fuerzas de seguridad, podrían estar usando tecnología para tratar de detectar más información sobre alguien durante un interrogatorio, lo que nos llevaría a muchos cuestionamientos desde la perspectiva constitucional y de los derechos fundamentales. Pero también podría tener una amplia gama de aplicaciones para los especialistas en marketing.
12. Reconocimiento de Imagen. El reconocimiento de imágenes es el proceso que identifica y detecta un objeto o característica específica en una imagen digital o video. La IA está aprovechando cada vez más esta tecnología y brindando excelentes resultados. La IA puede buscar fotos en las plataformas de redes sociales y compararlas con una amplia gama de conjuntos de datos para decidir cuáles son más relevantes durante las búsquedas de imágenes. También se puede utilizar para detectar placas de autos, diagnosticar enfermedades, analizar clientes y sus opiniones y verificar a los usuarios basándose en su rostro.
13. Automatización en Marketing. La automatización del marketing permite a las empresas mejorar la interacción con su mercado meta y aumentar su eficiencia –características que suelen traducirse en un incremento exponencial de los ingresos de la compañía–. A su vez, utiliza software para automatizar la segmentación de sus públicos meta, la integración de los datos de sus clientes y el manejo de sus campañas; simplificando las tareas repetitivas, y permitiéndoles enfocarse en lo que mejor saben hacer.
f) Historia de la IA
Entendemos que, si pretendemos analizar y discurrir sobre la historia de la IA, debemos remontarnos a cualquier intento que –desde el momento que el “hombre es hombre”– ha tenido para simular el comportamiento y razonamiento humano a través de una máquina. La automatización de las tareas y la “maquinización” del pensamiento, sin que hablemos ni siquiera de computación o informática, es lo que ha motorizado a la humanidad, y todo desarrollo científico –o por lo menos la mayoría– se asienta sobre ello. Porque, el ser humano desde la antigüedad ha anhelado replicar sus capacidades intelectuales en otros seres creados por él mismo, y esto no está solo relacionado con la literatura ni el cine (como el personaje de “Frankenstein”, los extraterrestres o los robots que hablan).
Por esta razón, los papers científicos dan cuenta13 que, aunque aún veamos la IA en “pañales”, lo cierto es que los orígenes de esta tecnología se remontan a la época griega, por ejemplo cuando Aristóteles describió un conjunto de reglas que describen una parte del funcionamiento de la mente para obtener conclusiones racionales, y Ctesibio de Alejandría (250 a. C.) construyó la primera máquina autocontrolada, un regulador del flujo de agua (racional pero sin razonamiento).
A pesar de estos primeros referentes históricos, es a Alan Turing a quien se considera padre de la IA (dando, de hecho, nombre al test que determina la calidad de las IA). En 1936, este visionario diseñó una máquina capaz de implementar cualquier cálculo que hubiera sido formalmente definido, pilar esencial para que un dispositivo pueda adaptarse a distintos escenarios y “razonamientos”. Después, en 1956, John McCarthy, Marvin Minsky y Claude Shannon acuñaron este término durante la conferencia de Darthmounth para referirse a “la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cálculo inteligentes”.
En los 90, la mayoría de las empresas tecnológicas decidieron realizar inversiones mayúsculas en este terreno con el fin de mejorar la capacidad de procesamiento y análisis de la ingente cantidad de datos que se generan en el creciente mundo digital.
De hecho, la consagración definitiva de la IA llegó en 1997, cuando IBM demostró que un sistema informático era capaz de vencer al ajedrez a un humano, y no un humano cualquiera, sino el campeón del mundo Gari Kaspárov.
Si hay un ejemplo de IA por defecto, ese es IBM Watson. Un sistema que hizo su aparición estelar ganando una competición de alto nivel, aunque en este caso más compleja que la anterior. En 2011, Watson ganó el popular concurso televisivo Jeopardy frente a los dos máximos campeones de este programa, en el que se realizan preguntas sobre cultura y conocimiento de todo tipo. Watson, primero tuvo que ser capaz de entender las preguntas, y después brindar una respuesta, a lo que ayudaron sus 200 millones de páginas de contenido almacenadas en su sistema.
Y a partir de allí, al proceso de la IA no ha dejado de crecer, lo que se ve a diario en cada una de los avances tecnologías que se comunican a diario.
g) Cuestionamientos éticos a la IA
1. Principios, directrices y guías en el ámbito internacional
Uno de los temas más relevantes, y que suscita un gran debate, es el de la ética aplicada a la IA, cuyo análisis profundo –por cierto– escapa al objeto de nuestra propuesta.
La posibilidad de crear máquinas pensantes plantea una serie de cuestiones éticas que abarcan diferentes puntos tanto que las máquinas no lastimen a seres humanos o seres vivos en general, como el estatus moral propio de la máquina. De tal manera, el tema puede dividirse en: a) la ética de los investigadores, diseñadores y usuarios: la preocupación por el comportamiento moral de los seres humanos a medida que diseñan, construyen, usan y tratan con productos de IA, y b) yéndonos un poco más lejos, y con mayor abstracción, la ética de las máquinas: es la preocupación por el comportamiento moral de los productos artificiales.
En este sentido, tanto el Parlamento Europeo, por un lado, como algunos de los principales exponentes de la IA mundial, por el otro, se han reflexionado sobre los componentes éticos de la IA.
Inmersos en el debate sobre la IA, el Parlamento Europeo, tras una propuesta de borrador (junio 2016) y un informe razonado (febrero 2017) ha aprobado un informe sobre Robótica en el que se establece un Código Ético de Conducta.
La propuesta de resolución del Parlamento Europeo establece que es necesario establecer “un marco de guía ético para el diseño, producción y uso de los robots” que sirva de complemento a las diferentes recomendaciones puramente legales que se realizan. Es decir, profundizar en una nueva disciplina que aborde los problemas éticos de la IA, la “roboética”. La idea de fondo es que los estándares éticos deberían ir dirigidos a la humanidad –esto es, los diseñadores, productores y usuarios de los robots– y no tanto a los robots en sí mismos; aspecto éste último –agregamos nosotros– en realidad se sujeta a asuntos de programación del propio hombre y no de la máquina en sí misma, que no cobra vida por sí misma y en forma independiente.
Los principios sancionados por el Parlamento Europeo, puede resumirse en:
1.– Proteger a los humanos del daño causado por robots: la dignidad humana.
2.– Respetar el rechazo a ser cuidado por un robot.
3.– Proteger la libertad humana frente a los robots.
4.– Proteger la privacidad y el uso de datos: especialmente cuando avancen los coches autónomos, los drones, los asistentes personales o los robots de seguridad.
5.– Protección de la humanidad ante el riesgo de manipulación por parte de los robots: especialmente en ciertos colectivos –ancianos, niños, dependientes– que puedan generar una empatía artificial
6.– Evitar la disolución de los lazos sociales haciendo que los robots monopolicen, en un cierto sentido, las relaciones de determinados grupos.
7.– Igualdad de acceso al progreso en robótica: Al igual que la brecha digital, la brecha robótica puede ser esencial.
8.– Restricción del acceso a tecnologías de mejora regulando la idea del “transhumanismo” y la búsqueda de mejoras físicas y/o mentales.
Por el otro costado, desde la perspectiva de los desarrolladores de la IA, se ha informado14 que en febrero de 1975 un grupo de genetistas se reunió en un pequeño pueblo de California, “Asilomar”, para decidir si su trabajo podría destruir el mundo. En esa oportunidad, se estaba al inicio de la ingeniería genética y la manipulación del ADN, y de esa reunión surgieron una serie de principios y un estricto marco ético para la biotecnología. Cuatro décadas después –organizado por el “Future of Life Institute”– otro grupo de científicos se reunió en el mismo lugar y con el mismo problema. Pero esta vez se trataba de analizar las posibles consecuencias de la IA. La idea de fondo fue clara y compartida: un profundo cambio está llegando y afectará a toda la sociedad y las personas que tengan algún tipo de responsabilidad en esta transición tienen tanto una gran responsabilidad como la oportunidad de darle la mejor forma posible.
Tras una profunda deliberación de meses, se aprobaron una serie de principios que fueron apoyados por al menos el 90 % de los asistentes. Estos 23 principios aprobados (denominados los “23 principios de Asimolar”) no son exhaustivos, pero muestran la necesidad de que ciertos principios fundamentales se respeten y que, a través del desarrollo de este debate, la IA se utilice para mejorar la vida de todos. De este modo, se plantean una serie de principios agrupados en tres consideraciones generales: a) Principios relativos a la investigación; b) Ética y valores; y c) Temas a largo plazo.
El modo de reflexionar y plantear los marcos éticos –y posteriormente legales– ofrece un ejemplo claro de la distinta forma que tienen los americanos y europeos de enfrentarse a los problemas: éstos últimos desde un punto de vista más institucional, con comités, subcomités, informes, propuestas y marcos legales (más o menos obligatorios), frente a una discusión más flexible, abierta y voluntaria que caracteriza al modo de hacer anglosajón. Aun así, podemos observar una serie de parámetros e ideas comunes, que pueden servir de base compartida para intentar conceptualizar y regular, en su momento, las prácticas y consecuencias de la IA.
De tal manera, puede observarse que existen una serie de consideraciones comunes en los dos modos de realizar esta aproximación a la ética de la IA: a) La IA debe realizarse por el bien de la humanidad y beneficiar al mayor número. Es necesario reducir el riesgo de exclusión; b) Los estándares éticos de la IA deben ser altísimos en lo que respecta a la seguridad de los humanos. Para ello, es necesario un control ético y finalista de investigación, transparencia y cooperación en el desarrollo de la IA; c) Los investigadores y diseñadores tienen una responsabilidad crucial: toda la investigación y desarrollo de la IA debe estar caracterizada por la transparencia, la reversibilidad y trazabilidad de los procesos; d) Necesidad de control humano: Que en todo momento sean los humanos los que decidan qué pueden hacer o no los sistemas robóticos o basados en IA; e) Gestionar el riesgo: Cuanto más grave sea el riesgo potencial, más estrictos deberán ser los sistemas de control y gestión del riesgo; f) No desarrollo de la IA para realizar armas de destrucción; g) Incertidumbre: Se reconoce que los avances en estos campos son inciertos, en ámbitos y alcances que en ciertos casos son inimaginables.
Por otro lado, diversas voces de gran relevancia de los ámbitos científicos y académicos, con el fin de llamar la atención sobre los riesgos que atañe el desarrollo de la IA y para reivindicar un papel de esta disciplina de servicio hacia los seres humanos, se han adscrito a una “carta abierta” publicada por el “Instituto Future of Life”. Entre los firmantes de esta misiva sobresalen nombres como el del científico Stephen Hawking o Elon Musk, propietario de la firma Tesla Motors de vehículos eléctricos. Además, también suscriben este mensaje profesores de diversos centros de prestigio (Harvard, MIT, Berkeley, Oxford, Cambridge, etc.) y numerosos trabajadores de Google.
A través de esta misiva, titulada “Prioridades de Investigación para una inteligencia artificial robusta y beneficiosa: una carta abierta”, y de su archivo adjunto, “Documento de Prioridades de Investigación”, los firmantes reconocen el inmenso abanico de posibilidades que brinda este campo. Estos documentos recogen como la IA cuenta con “unos enormes beneficios potenciales”, pero advierten que todo lo que ha ofrecido la civilización desde el origen de los tiempos es “producto de la inteligencia humana”. Además, la epístola muestra un cierto escepticismo y reconoce que los seres humanos “no podemos predecir lo que podremos alcanzar si esa inteligencia se encuentra magnificada por las herramientas”.
Sin embargo, en la propia misiva, y especialmente en el documento adjunto, se evidencia una postura firme respecto al uso, siempre al servicio de la humanidad, de esta tecnología. “Recomendamos una extensa investigación destinada a asegurar que, con cada vez más cualidades, los sistemas de Inteligencia Artificial sean sólidos y beneficiosos”, señala como premisa de cara al objetivo que marca como “nuestros sistemas de inteligencia artificial deben hacer lo que queremos que hagan”. Un proceso que, según sus firmantes, “debe ser necesariamente interdisciplinar, porque implica tanto a la sociedad como a la inteligencia artificial”. Una tarea, prosigue la carta, que “engloba desde economía, derecho y filosofía, hasta seguridad informática, metodología formal y, por supuesto, varias ramas de la propia inteligencia artificial”.
2. La IA y los gobiernos nacionales
Destaca la doctrina15 que a fines del 2018 más de veinte países contaban con estrategias nacionales de IA. Por ejemplo, en la “Estrategia Francesa para la Inteligencia Artificial” (2018) se recogen las implicaciones éticas y políticas de la IA y se formula una estrategia nacional para su desarrollo, a la que suman un conjunto de recomendaciones éticas centradas en la necesidad de mejorar la comprensión actual de los algoritmos a través de apoyo a la investigación sobre temas de rendición de cuentas, formación del personal a cargo, elaboración de estudios de impacto y conducción de auditorías algorítmicas para identificar y mitigar posibles discriminaciones.
El Reino Unido, es otro ejemplo. El “Informe de la House of Lord” (2018), se centra en el uso de algoritmos en procesos de toma de decisiones y las situaciones referidas a la discriminación producida por su uso, la transparencia y la regulación algorítmica. Entre las principales recomendaciones figuran la creación de un organismo independiente dedicado al monitoreo de los temas relacionados con algoritmos, la transparencia en las decisiones algorítmicas tomadas por el gobierno para fomentar la participación ciudadana, la expedición de medidas para evitar la discriminación algorítmica, el derecho a la explicabilidad de los algoritmos que afecten significativamente a las personas y el resarcimiento en caso de errores o fallas, entre otras.
II. La administración 4.0 y la inteligencia artificial [arriba]
El catedrático español Carles Ramió Matas explica que hay dos posibles estrategias a encarar por la Administración pública ante procesos de IA, smartificación y robotización16.
Una posibilidad, es encarar una estrategia reactiva. El sector privado avanza en la implantación de la IA y de la robótica, y las Administraciones públicas, capturadas a nivel político, sindical y corporativo, deciden quedarse a la orilla. Se trataría de una “estúpida quimera” (dice el autor), ya que es imposible mantenerse al margen de esta revolución tecnológica. Al final, las instituciones públicas no van a tener más remedio que incorporarse a esta revolución implantando los dispositivos tecnológicos maduros auspiciados por las empresas privadas y con valores privados. Para catedrático citado “el resultado de esta estrategia sería penoso: una Administración cada vez más anticuada y una adquisición, a última hora, irreflexiva e improvisada de una tecnología que la va a dejar en manos de los grandes cuasimonopolios tecnológicos”.
El otro camino, es adoptar una estrategia proactiva. Aprovechar la revolución tecnológica no solo para renovar su capacidad técnica, sino especialmente para solventar buena parte de sus problemas conceptuales y organizativos. La IA y la robótica pueden ser la gran oportunidad para implantar una renovación institucional y organizativa radical de las instituciones públicas que contribuya a su adaptación, su relevancia y su supervivencia en un contexto de gobernanza.
“Es una enorme oportunidad para implantar un nuevo modelo conceptual que erradique definitivamente el clientelismo y la corrupción, que mejore la seguridad jurídica y el trato equitativo, que sea más transparente y más inteligente y, finalmente, que sea capaz de prestar más y mejores servicios públicos”.
Para la Unión Europea17, por ejemplo, resulta fundamental que las administraciones públicas, los hospitales, los servicios públicos y de transporte, los supervisores financieros y otras áreas de interés público empiecen a adoptar rápidamente productos y servicios que se basen en la IA en sus actividades, haciendo especial hincapié en los sectores de la atención sanitaria y el transporte, en los que la tecnología está suficientemente desarrollada para una adopción a gran escala.
En esta línea, más adelante (Capítulo V) se demostrará de qué manera, a través de técnicas de IA, la automatización administrativa provoca consecuencias valiosas, en pos de irrenunciables objetivos para la gestión pública, como lo son la transparencia, la razonabilidad, la igualdad, la eficiencia, entre otros.
A su vez, en referencia refiere e a las Administraciones públicas, se ha destacado que en el proceso para la efectiva implantación de la IA se observan al menos tres fases:
“a) Automatización robótica de procesos, que afecta principalmente a elementos burocráticos y rutinarios, resultando imprescindible en esta fase la digitalización y la implantación de sistemas automatizados de apoyo a la toma de decisiones. b) Automatización cognitiva, que implica ya la aplicación real de inteligencia artificial en sentido estricto, siendo los principales desafíos el tipo de información que se estructura en el sistema, y los criterios utilizados para el diseño de los algoritmos. c) Inteligencia artificial en su máxima expresión, lo que supone implantar la informática afectiva, el análisis predictivo y la utilización de máquinas con capacidad de aprendizaje; donde ya entran en juego los valores, las premisas ideológicas en las que se sustenta la tecnología y, en particular, los problemas relativos al sesgo de las decisiones”18.
Como podrá observar el lector, del análisis de esta caracterización, los desafíos para el derecho son claramente distintos en función de la fase del proceso en que nos situemos, y en nuestro país, en nuestra opinión, todavía ni siquiera podemos ubicarnos en la primera de las etapas aludidas.
Así las cosas, y volviendo con la “actitud” de la Administración, es imprescindible que las instituciones públicas adopten una estrategia proactiva, es decir, que se beneficien de la revolución tecnológica, más allá de la simple digitalización e innovación tecnológica, aprovechando el nuevo paradigma tecnológico para “ordenar” los distintos modelos y culturas de la Administración (burocrático, gerencial, regulador y de gobernanza) y conseguir una mayor fortaleza institucional.
Como se sabe, uno de los principales problemas de las administraciones públicas contemporáneas es la confusión y la confrontación entre sus distintos modelos conceptuales. La IA y la robótica presentan una gran ocasión para alcanzar definitivamente un nuevo y sólido modelo de Administración pública que sea líquida, abierta, colaborativa, creativa e innovadora, pero a la vez también sólida, predecible y constante.
Esto lo explica Ramió Matas (a quien traigo nuevamente), para quien la IA, la smartificación y la robotización pueden contribuir decididamente a ordenar “modelos”19, que se presentan (aparentemente) en tensión. Veamos.
Primero, la erradicación definitiva del modelo clientelar. “Los procesos de smartificación y robotización pueden ejercer de catalizador para contribuir a la erradicación del modelo clientelar al impedir la discrecionalidad interesada de los distintos agentes públicos con tendencias clientelares…”.
Segundo, establecer un renovado modelo burocrático mecanizado:
“La robotización implicará una mecanización virtuosa del modelo maquinal burocrático y puede asegurar que no opere de manera defectuosa o discrecional. Además, puede contribuir a evitar en gran medida la corrupción funcionarial. Por ejemplo, la simple digitalización de una Administración implica que los documentos administrativos quedan registrados en todo momento y no se puedan alterar discrecionalmente y, por tanto, puede evitar las potenciales manipulaciones interesadas en los procedimientos administrativos”.
Tercer, implementar un renovado modelo gerencial mecanizado y smartificado.
“La prestación de servicios y el modelo gerencial también se va a beneficiar, con igual o con superior intensidad, de la smartificación o inteligencia artificial. Gracias al manejo de grandes datos (big data) la prestación de servicios públicos va a ser mucho más eficaz y eficiente, y el modelo gerencial va a incrementar su inteligencia institucional. Las ganancias en calidad, en eficacia y en eficiencia van a afectar todos los servicios públicos”.
Y cuarto, un modelo de gobernanza inteligente en materia de gestión smartificado.
“La Administración pública debería disponer de programas inteligentes de gestión integrada de la información que le permitiera de manera sencilla controlar la calidad de los servicios públicos y poder realizar análisis de eficiencia para asegurar que las transferencias económicas hacia las organizaciones privadas sean las más justas”.
Tales conceptos serán ejemplificados en forma concreta a través de la automatización del acto y procedimiento administrativo (Capítulo V), pero siempre desde la visión que nos dan la persona humana, su dignidad y los derechos fundamentales (Capítulo VI). Mientras tanto, sigamos con el análisis de la IA, pasando a continuación a su aplicación al Derecho.
III. La IA aplicada al derecho. Algunas dificultades [arriba]
a) La IA aplicada
El mundo de los negocios no ha vivido una transformación similar a la que trae la IA (que está reinventando la forma en la que las compañías compiten y se desarrollan) desde la Revolución Industrial. Cuando se implementen estas tecnologías de forma integral, ayudarán definitivamente a mejorar la productividad y a la reducción de costos, impulsando puestos de trabajo más creativos y generando nuevas oportunidades de crecimiento.
Tenemos algunos ejemplos: 1) Chatbots conversacionales: También llamados asistentes personales virtuales. Son sistemas de atención al cliente automatizados, y hoy los podemos usar libremente en una variada gama de comercios, de negocios e incluso en las entidades bancarias. 2) Predicción en las compras: Amazon utiliza la IA para anticipar las necesidades de sus clientes. 3) Generación de noticias: Varias compañías usan IA para escribir historias simples como resúmenes financieros o resúmenes de deportes. No se trata de artículos de fondo o piezas de periodismo investigativo, sino de textos simples basados en datos duros. 4) Motores de búsqueda: Google se vale de un sistema de inteligencia artificial para interpretar consultas de búsqueda, basándose en el posicionamiento geográfico, intereses y búsquedas previas. 5) Exámenes médicos a distancia: Sistemas que tras analizar datos pueden diagnosticar enfermedades. 6) Reconocimiento Facial Biométrico: La biométrica es una aplicación de IA que aporta a los sistemas inteligentes la capacidad de recopilar datos sobre características faciales y demográficas. Así, las máquinas inteligentes pueden adaptar sus respuestas analizando diferentes identidades y respuestas emocionales.
En la actualidad las herramientas con IA son un gran apoyo para los procesos industriales, ya que ayudan a generar un mayor rendimiento en el área donde son usadas. Y los campos de aplicación de la IA, son numerosísimos. Entonces, repasemos algunas áreas de IA aplicada.
En la asistencia sanitaria. El objetivo es mejorar la atención a los pacientes y reducir los costos. Las empresas están aplicando el aprendizaje de máquina para hacer mejores diagnósticos y más rápidos que los seres humanos. Una de las tecnologías sanitarias más conocidas, y ya mencionada aquí, es IBM Watson. Entiende el lenguaje natural y es capaz de responder a las preguntas que se le formulan. El sistema extrae datos de los pacientes y otras fuentes de datos disponibles para formar una hipótesis, que luego presenta con un esquema de puntuación de confianza. También puede traerse a colación las apps que, a través de un cuestionario, puede determinar posibles casos de enfermedad, como el coronavirus Covid-19.
En los negocios y en la comercialización. La automatización de procesos robóticos se está aplicando a tareas altamente repetitivas que normalmente realizan los seres humanos. Los algoritmos de aprendizaje automático intentan descubrir información sobre cómo servir mejor a los clientes. Un ejemplo son los chatbots se han incorporado en los sitios web para ofrecer un servicio inmediato a los clientes.
En la educación. La AI puede automatizar la calificación. La IA permite evaluar a los estudiantes y adaptarse a sus necesidades, ayudándoles a trabajar a su propio ritmo. Los tutores pueden proporcionar apoyo adicional a los estudiantes, asegurando que se mantengan en el buen camino. De esta forma podría cambiar dónde y cómo los estudiantes aprenden, tal vez incluso reemplazando a algunos maestros.
En las Finanzas. Existen aplicaciones que pueden recopilar datos personales y proporcionar asesoramiento financiero. Por ejemplo, hoy en día, el software realiza gran parte de las operaciones en Wall Street.
En la fabricación y manufactura. Esta es un área que ha estado a la vanguardia de la incorporación de robots en el flujo de trabajo. Los robots industriales solían realizar tareas únicas y estaban separados de los trabajadores humanos, pero a medida que la tecnología avanza eso ha cambiado.
Y en el ámbito Jurídico, que es nuestra especial preocupación. Como sabrá el lector, el proceso de descubrimiento, a través de la revisión de documentos judiciales es a menudo abrumador. Automatizar este proceso permite un mejor uso del tiempo y un proceso más eficiente. Seguidamente, nos detendremos en este aspecto.
b) La IA aplicada al Derecho
La IA aplicada al Derecho, o también conocida como “Artificial Legal Intelligence” (ALI), se centró fundamentalmente en el estudio de la automatización del razonamiento jurídico y de la solución a los problemas jurídicos.
La capacidad de la IA para extraer, compilar y aportar soluciones es infinitamente superior a la inteligencia humana en todos los campos y específicamente en el ámbito jurídico, en el cual los sistemas de cognitive computing aplicados al razonamiento jurídico permiten que la IA extraiga el conocimiento del cuerpo compuesto por leyes, fallos, artículos, comentarios, etc. proporcionando una solución que explica y argumenta jurídicamente una o varias soluciones alternativas respecto de casos concretos, o bien, realiza predicciones de resolución20.
En estos días ya casi no se debate sobre la necesidad de la utilización de la IA en el ámbito de las decisiones jurídicas, aunque lo que sí está en estudio son los distintos modelos computacionales para la argumentación jurídica.
Comenta Navas Navarro21 que hasta la fecha se conocen dos modelos computacionales aplicados al razonamiento jurídico: por un lado, los sistemas expertos basados en la lógica formal mediante el suministro de una serie de reglas, y, por el otro, los sistemas expertos de extracción de información conceptual y el Cognitive Computing. Los primeros son sistemas automáticos de extracción de la información legal relevante sobre la base de asociar conceptos presentes en un texto o documento con los conceptos necesarios para resolver el problema jurídico presentado; el segundo consiste en la colaboración entre el algoritmo y el humano, de manera que no solo selecciona la información, la ordena, la resume en la forma más conveniente para el humano sino que, además, explora e interactúa con los datos de maneras no previstas aportando soluciones creativas al problema jurídico que se le presenta.
Los dos sistemas difieren en la fuente de la que se extrae el conocimiento pues, en el primer caso, lo aporta el humano mediante reglas construidas por los ingenieros en código binario y que introducen en la máquina; mientras que, en el segundo caso, el conocimiento lo extrae el propio sistema del cuerpo de textos legales, jurisprudenciales y otros documentos proporcionando, con posterioridad, una solución que explica y argumenta jurídicamente uno o varios casos y, además, hace predicciones.
Así las cosas, gracias a los avances en IA, pueden “automatizarse” en el ámbito jurídico, solo para nombrar algunos sin ánimo de taxatividad, el análisis, extracción de información relevante, predicción, generación de argumentos escritos, redacción de documentos contractuales, informes o memorándums, planificación de tareas en los despachos de abogados o en los juzgados, redacción de actos administrativos, todo tipo de resoluciones y de normas legales, análisis de tendencias en relación con cambios legales o doctrinales, o cambios de tendencias en los mercados que permitan pensar en un cambio en la estrategia inversora, predicciones, resolución de demandas mediante técnicas automatizadas de solución alternativa de conflictos, control de calidad y aplicabilidad posterior de textos legales, entre muchos otros.
c) El nacimiento de la IA aplicada al Derecho
Desde el principio, la IA aplicada al Derecho nació con el objetivo de solucionar un conjunto de problemas específicos que se plantean en el ámbito jurídico, conocidos por todos nosotros y que todavía persisten: la organización de las grandes bases de datos, la clasificación y ordenación de los textos jurídicos que varían permanentemente en el tiempo (leyes, reglamentos, sentencias, etc.), la categorización de distintos tipos de actores, usuarios, etc., el modelado de las operaciones realizadas por los agentes, los modelos de razonamiento jurídicos, entre muchos otros.
Con el surgimiento de las grandes bases de datos, públicas y privadas, el interés por los sistemas de clasificación en “bases relacionales” se incrementó, campo que en los años setenta se denominó “jurímetría”22, para después ser conocido como “informática jurídica”. Detengamos aquí por un instante.
Cuenta Patricia Reyes Olmedo23 –que seguimos en este punto–, que el jurista norteamericano Lee Loevinger, que en 1949 publica “Jurimetrics. The Next Step Forward”, fue quien creó el concepto de “jurimetría” para hacer referencia a la aplicación de la automación para contribuir a la racionalización del Derecho, escrito que plantea la posibilidad de prever decisiones jurídicas sobre cálculos de base empírica. En ese texto, el autor, miembro de un comité antimonopolio en EE.UU., señaló que la tecnología, usada fundamentalmente para el trabajo de investigación y recopilación de precedentes judiciales, podría ser aplicada, bajo una metodología científica para el procesamiento de esa información con fines de previsión de decisiones jurídicas.
Sin embargo, no puede decirse que se encuentre allí todo el fundamento de la Jurimetría, pues hasta nuestros días existen diferentes hitos y líneas de investigación que se han desarrollado en tormo a los sistemas de recuperación de información legal.
De tal manera, en el año 1961, un informe del “Jurimetrics Committee of the American Association of American Law Schools”, describe el interés del Comité en investigar el campo de la Jurimetría y los siguientes temas: a) Posible utilización de la autoinstrucción (self intructional) en la educación jurídica, b) uso de la lógica simbólica como instrumento de análisis (analytics tools) para detectar y controlar ambigüedades sintácticas en documentos jurídicos escritos; c) usos de computadores y otros métodos de recuperación automática de información (automatic data retrieval) como ayuda para la investigación jurídica; d) empleo de la semántica para mejorar la comunicación legal (comunication en law); e) análisis cuantitativo de los aspectos de las decisiones jurídicas; f) otras aplicaciones y desarrollos en el ámbito del Derecho.
A pesar de todo este intento de conceptualización, el término Jurimetría quedó en la historia del Derecho, motivado en las múltiples polémicas a su respecto y también a los resultados prácticos que su estudio promovió y que alcanzan incluso al presente.
Con el tiempo en Estados Unidos el término Jurimetric cedió ante la denominación de Computer and Law. Al traspasar las fronteras y llegar a Europa, su denominación y contenido fue enriquecido con otras proyecciones24. Por ejemplo, desde Inglaterra, Paul Hoffman, en el artículo “Lawtomation in Legal Research: Some Indexing Problems”, de 1962, propone la acepción: Lawtomation, haciendo referencia a que este vocablo es válido para designar la moderna mecanización de la estructura jurídica de los textos y documentos jurídicos, que constituye el primer paso y condición necesaria para la total automatización del sistema jurídico. En España, Mario Losano comienza a trabajar estas temáticas bajo el concepto de Iuscibernética, reconociendo su aplicación a la documentación, los registros, la actividad profesional y las decisiones jurídicas.
Y finalmente, comenta Reyes Olmedo25, hacia los años 70 comenzó en Europa el desplazamiento de los autores hacia el término Informática Jurídica. En esa primera época la Informática Jurídica se concibió de manera general, como el uso de las aplicaciones de las tecnologías de la información y comunicaciones (TIC) en el quehacer jurídico, es decir como un instrumento o herramienta al servicio del procesamiento, automatización y sistematización de la información y actividad jurídica26.
Así fue que, en esos años, el profesor italiano de Filosofía del Derecho, Vittorio Frosini, distinguió lucidamente entre dos tipos de aplicación de la tecnología informática: la informática jurídica y la informática judicial propiamente dicha.
“La informática jurídica consiste en la aplicación de las metodologías de la automatización, como el information retrieval, al material jurídico: por ejemplo, la búsqueda automática de las normas, de las sentencias (válida para los sistemas jurídicos basados en el case law, pero útil también en los sistemas de code law) y evidentemente, de los textos doctrinales para las referencias bibliográficas. Existe también la informática judicial que concierne, en cambio, a los procedimientos de carácter administrativo, y que incluye la sucesión y la distribución de las causas y su asignación a los tribunales según criterios objetivos; la elaboración de listas en base a índices de referencia en materia de concursos o competencias (como en el derecho de quiebra), y otras formas de racionalización de la actividad judicial”27.
Ahora, en estos tiempos, más allá del análisis de la documentación, del procesamiento de datos, si se quiere, de la “archivística”, actualmente –y tal como se dijo– la IA aplicada al Derecho se ocupa de determinados aspectos relacionados con el conocimiento, los conceptos, la argumentación y el razonamiento jurídico.
Desde entonces, y ya entrado el siglo XXI, la “revolución” ha llegado de la mano del propio desarrollo de la tecnología, aunque debemos coincidir que la extensión de la globalización económica y cultural, la convergencia de las TICs y comunicaciones en Internet, sumado a la generalización del ordenador personal y cualquier otro tipo de dispositivo, crearon las condiciones para el desarrollo al que nos estamos refiriendo. Las instituciones jurídicas, al principio se han adaptado con lentitud al proceso y a estos cambios, y luego de forma acelerada, aunque no siempre ordenada.
Al igual que las múltiples aplicaciones que la IA ha tenido sobre todo tipo de ciencias (ingeniería, medicina, etc.) y que han demostrado resultados satisfactorios, no se trata de sustituir el criterio de un ingeniero, médico, etc., por un programa, sino ampliar y reforzar su capacidad de diagnóstico. Y en las ciencias jurídicas, pasa lo mismo, no se busca reemplazar al juez o funcionario que dicta una resolución, sino habilitarlo legalmente para que, previa validación, se respalde en las tecnologías automatizadas para la emisión de un acto administrativo. Se impide suplantar a lo insustituible (la “persona humana”), sin obstaculizar ni obstruir un proceso que es imparable (las TICs y la IA en el ámbito de la Administración y la gestión pública).
Insistimos en que no se trata de sustituir el criterio del Juez (ni del médico, si estamos en las ciencias médicas) por un programa, sino de ampliar y reforzar su capacidad de diagnóstico28. Por ello, coincidimos con Horacio Granero en que
“La inteligencia artificial constituye un término provocador y epistemológicamente controvertido: no se trata de hacer inteligentes a las máquinas, sino de modelizar la inteligencia racional, o sea tratar de comprender de la mejor manera posible qué pasa cuando, dentro de una situación compleja, el cerebro elige de forma silenciosa e invisible la solución que parece más razonable entre otras posibles”29.
d) Algunas dificultades
1. El lenguaje y la presentación formal de la norma
Claro está, toda esta actividad automatizada, no está desprovista de diversas dificultades, que se presentan especialmente en el ámbito del Derecho, y que se vinculan fundamentalmente a dos tipos: por un lado, lo relacionado con el lenguaje, y por el otro, la presentación formal de la norma.
Respecto lo primero, puede decirse que hace algún tiempo los ordenadores pueden reconocer, con un alto grado de precisión, el sentido de las consultas formuladas por los seres humanos, sin que estos deban utilizar para ello complejas construcciones sintácticas.
El Procesamiento del Lenguaje Natural es una rama de conocimiento de la IA que, básicamente, pretende conseguir que una máquina comprenda lo que una persona expresa mediante el uso de su lengua natural de expresión (idioma inglés, español, chino, etc.) También puede definirse al procesamiento de lenguajes naturales –abreviado PLN, o NLP del idioma inglés Natural Language Processing– como un campo de las ciencias de la computación, IA y lingüística que estudia interacciones entre las computadoras y el lenguaje humano30.
Sin embargo, el lenguaje jurídico posee algunas características propias que aumentan las dificultades de comprensión de las consultas formuladas, tales como la vaguedad, ambigüedad y textura abierta del derecho31, entre otros.
Respecto lo segundo, la manera de modelización de reglas y pautas jurídicas (codificación vs. dispersión y dinamismo) se presenta como un problema a resolver a la hora de construir un sistema de IA aplicado al derecho, ya que la maquina no siempre comprende las diferentes alternativas que presenta la regulación jurídica en el plexo normativo, ni muchos menos sus constantes cambios y transformaciones.
2. La IA y el sistema jurídico
Pero quizás la dificultad mayor que se advierte está relacionada con el sistema jurídico adoptado, y por consiguiente con la forma de razonamiento jurídico, lo que se conecta –además– con los modelos tradicionalmente seguidos en cada país.
En este sentido, ya en el año 2001 Sarra entendía que
“las teorías formalistas del derecho aparecen como las que mejor resisten una representación formal del conocimiento y, por lo tanto, favorecerían la utilización de la IA; de hecho, es posible advertir que tradicionalmente las diferentes aplicaciones prácticas en la materia implícitamente las reconocen como basamento, aunque hay quienes sostienen que ello ha conducido a modelos inadecuados. Por el contrario, las teorías del derecho que se encuentran en el extremo opuesto como el sociologismo norteamericano o, más recientemente, el postmodernismo, serían ámbitos más hostiles para la aplicación de tales técnicas”32.
Ahora bien, continúa la autora citada,
“la IA es una disciplina que tiene como objetivo emular la inteligencia humana, es decir, lograr la representación de los modelos de pensamiento. Como consecuencia de esto, muchos investigadores en IA y derecho se abocan al análisis de los modelos teóricos descriptivos del razonamiento jurídico y no de los modelos normativos pues éstos no describen la forma en que el razonamiento verdaderamente ocurre”33.
Esto pone en evidencia las exigencias para los sistemas de IA sean cada vez más representativos de todos los elementos que cuenta y valora el decisor a la hora de resolver, si es que se quiere “simular” “representativamente” la conducta humana. Por tal razón, los algoritmos deben contemplar, además de los hechos y antecedentes fácticos –con particular detalle–, los Principios Generales del Derecho, los principios y reglas del Sistema Internacional de Derechos Humanos, normas y reglas convencionales y constitucionales, el contexto, los precedentes, los aspectos multi e interdisciplinarios como los económicos, sociales, políticos, psicológicos, entre muchos otros.
Somos conscientes que la IA puede ser particularmente cuestionada cuando se trata de aplicar a conflictos en los cuales no puede soslayarse la fuerte preeminencia de valores. En estos casos, el dilema que se nos presenta es: si ante un problema que pudiera eventualmente ser solucionado por un sistema inteligente, querríamos la solución “fría” y “aséptica” del programa, o, preferiríamos una solución como la que brinda el “juez”, analizada a la luz de su experiencia personal pasada y de los valores adquiridos en su socialización dentro de una cultura determinada. No hay duda de que en la mayoría de los casos elegiríamos la segunda opción, la solución brindada por el hombre.
Y esta última no debe ser incompatible con la IA, toda vez que lo que debería ofrecerle al derecho es, simplemente, un sistema que permita al órgano decisor (pensando en la Administración pública) ampliar su universo de soluciones posibles para que, en la última instancia, la decisión siga siendo humana. Para después quedará la posibilidad de revisar la decisión, o mejor aún, antes a través de la incorporación en el programa de variables que contemplen estos supuestos, queridos y buscados por la Autoridad competente.
De todas maneras, huelga decir, una decisión desapegada en valores, creencias, reglas éticas y/o morales, o cuanto más prefiera el actor, es igualmente (o lamentablemente más aun todavía) esperable cuando la argumentación es definida en el caso concreto por una persona humana que ocupa un cargo en un órgano ejerciendo funciones administrativas, en un contexto actual de crisis de valores éticos que trasvasa todo el ámbito estatal, en el cual la falta de transparencia y corrupción navega con naturalidad.
En el Capítulo siguiente se analizará de qué manera la IA colabora en la búsqueda la transparencia, razonabilidad, motivación, igualdad, etc., valores tan caros para nuestro sistema democrático.
3. Ejemplos de reconfiguración de algunas instituciones
Dicho esto, debemos reflexionar decididamente que las tecnologías, la IA y la robótica que se basa en algoritmos, nos exige plantear la reconfiguración de las categorías jurídicas por todos conocidas, pues de lo contario se corre el riesgo de caer ante la inutilidad del Derecho como principal herramienta transformadora de las conductas sociales. Tomo dos casos, a modo de ejemplo.
El supuesto de la contratación empleando agentes inteligentes permite replantearse cuestiones tales como el error como vicio del consentimiento en la formación del contrato, habida cuenta que aquel tiene difícil encaje en la medida en que –en el supuesto dado– no existe persona humana o jurídica contratante. De tal manera, para la doctrina especializada34, la cuestión estriba por determinar contractualmente un sistema de justa distribución de riesgos entre las partes (ej. riesgo por el conocimiento defectuoso del contexto que se tomó en cuanta para arribar a la decisión).
También, puede perfectamente plantearse supuestos jurídicos de “derecho de autor digital”. Si bien es verdad que la creatividad que la legislación atribuye siempre es a favor de una persona humana. También lo es que los estudios en creatividad computacional demuestran que los entes inteligentes son capaces de emular el cerebro humano en cuestión de ingenio y producir obras mucho más originales. Se trata de los denominados “agentes creativos”. La obra así concebida no se protege por el Derecho más allá del programa de ordenador que le ha servido de base en la medida en que debe proceder del ingenio humano y no de una máquina. Sin embargo, existen jurisdicciones en las que los computer generated works se consideran “obras protegibles” atribuyendo el ejercicio de los derechos de autor a aquella persona que los encargó35.
1 TORRES MANRIQUE, Jorge I., “Análisis de la relación entre la inteligencia artificial y el derecho. Hacia el arribo del derecho de los robots”.
2 NAVAS NAVARRO, Susana, “Derecho e inteligencia artificial dese el diseño. Aproximaciones”, en NAVAS NAVARRO, Susana (directora,) Inteligencia artificial. Tecnología. Derecho, ob. cit., pág. 24.
3 GIL DOMÍNGUEZ, ANDRÉS, Inteligencia artificial y derecho, ob. cit., pág. 18. La IA “es una combinación de tecnologías que agrupa datos, algoritmos y capacidad informática” (UE, Comisión Europea, Libro Blanco sobre la inteligencia artificial: un enfoque europeo orientado a la excelencia y la confianza, COM, (2020) 65).
4 NAVAS NAVARRO, Susana, “Derecho e inteligencia artificial dese el diseño. Aproximaciones”, en NAVAS NAVARRO, Susana (directora,) Inteligencia artificial. Tecnología. Derecho, ob. cit., pág. 24.
5 CORVALÁN, Juan Gustavo, “Inteligencia artificial: retos, desafíos, y oportunidades. Prometea: la primera inteligencia artificial al servicio de Latinoamérica al servicio de la Justicia”, ob. cit., pág. 299.
6 REYES OLMEDIO, Patricia, “De la informática jurídica a la algoritmocracia”, elDial.com - DC2943.
7 PONCE SOLÉ, Juli, “Inteligencia artificial, Derecho administrativo y reserva de humanidad: algoritmos y procedimiento administrativo debido tecnológico”, en Revista General de Derecho Administrativo, N° 52, enero, 2019, España.
8 FALIERO, Johanna C., EL derecho al anonimato: revolucionando el paradigma de la protección en tiempos de posprivacidad, Bs. As, Ad-Hoc, 2019, pág. 120.
9 .
10 .
11 .
12 Téngase en cuenta, por ejemplo, el artículo 24 de la Ley Orgánica N° 3/2018, de 5 de diciembre, de “Protección de Datos Personales y garantía de los derechos digitales” de España, que establece que: “Artículo 24. Sistemas de información de denuncias internas. 1. Será lícita la creación y mantenimiento de sistemas de información a través de los cuales pueda ponerse en conocimiento de una entidad de Derecho privado, incluso anónimamente, la comisión en el seno de la misma o en la actuación de terceros que contratasen con ella, de actos o conductas que pudieran resultar contrarios a la normativa general o sectorial que le fuera aplicable. Los empleados y terceros deberán ser informados acerca de la existencia de estos sistemas de información. 2. El acceso a los datos contenidos en estos sistemas quedará limitado exclusivamente a quienes, incardinados o no en el seno de la entidad, desarrollen las funciones de control interno y de cumplimiento, o a los encargados del tratamiento que eventualmente se designen a tal efecto. No obstante, será lícito su acceso por otras personas, o incluso su comunicación a terceros, cuando resulte necesario para la adopción de medidas disciplinarias o para la tramitación de los procedimientos judiciales que, en su caso, procedan. Sin perjuicio de la notificación a la autoridad competente de hechos constitutivos de ilícito penal o administrativo, solo cuando pudiera proceder la adopción de medidas disciplinarias contra un trabajador, dicho acceso se permitirá al personal con funciones de gestión y control de recursos humanos. 3.Deberán adoptarse las medidas necesarias para preservar la identidad y garantizar la confidencialidad de los datos correspondientes a las personas afectadas por la información suministrada, especialmente la de la persona que hubiera puesto los hechos en conocimiento de la entidad, en caso de que se hubiera identificado. 4. Los datos de quien formule la comunicación y de los empleados y terceros deberán conservarse en el sistema de denuncias únicamente durante el tiempo imprescindible para decidir sobre la procedencia de iniciar una investigación sobre los hechos denunciados. En todo caso, transcurridos tres meses desde la introducción de los datos, deberá procederse a su supresión del sistema de denuncias, salvo que la finalidad de la conservación sea dejar evidencia del funcionamiento del modelo de prevención de la comisión de delitos por la persona jurídica. Las denuncias a las que no se haya dado curso solamente podrán constar de forma anonimizada, sin que sea de aplicación la obligación de bloqueo prevista en el artículo 32 de esta ley orgánica. Transcurrido el plazo mencionado en el párrafo anterior, los datos podrán seguir siendo tratados, por el órgano al que corresponda, conforme al apartado 2 de este artículo, la investigación de los hechos denunciados, no conservándose en el propio sistema de información de denuncias internas. 5. Los principios de los apartados anteriores serán aplicables a los sistemas de denuncias internas que pudieran crearse en las administraciones públicas”.
13 .
14 .
15 REYES OLMEDIO, Patricia, “De la informática jurídica a la algoritmocracia”, elDial.com - DC2943.
16 RAMIÓ MATAS, Carles, “inteligencia artificial, robótica y modelos de administración pública”, Revista del CLAD Reforma y Democracia, N° 72, oct. 2018, pág. 5 y ss., en part. pág. 10.
17 UE, Comisión Europea, Libro Blanco sobre la inteligencia artificial: un enfoque europeo orientado a la excelencia y la confianza, COM, (2020) 65.
18 VALERO TORRIJOS, Julián, “Las garantías jurídicas de la inteligencia artificial en la actividad administrativa desde la perspectiva de la buena administración”, Revista Catalana de Dret Públic, N° 58, Año 2019, pág. 82 a 96.
19 RAMIÓ MATAS, Carles, “inteligencia artificial, robótica y modelos de administración pública”, Revista del CLAD Reforma y Democracia, N° 72, ob. cit., pág. 23 a 27.
20 No obstante, se han manifestado voces en contra de la IA. Ante el interrogante si será factible aplicar estas tecnologías en los procesos judiciales, tanto por parte del juzgador como de los abogados litigantes, prescindiendo de la subjetividad, la respuesta es negativa “fundada en que no es posible encontrar soluciones a los conflictos que el derecho presenta sin el discernimiento humano de la cuestión… los algoritmos nos ayudaran, a través de los sistemas y los softwares, a afrontar el desafío del Big Data, pero nunca podrán sustituir al magistrado ni al letrado en la interpretación y en la aplicación del derecho” (ASOREY, RUBÉN, “La inteligencia artificial en el Derecho”, en Legaltech II, el Derecho ante la Tecnología, Suplemento Especial, La Ley, octubre 2019, pág. 93).
21 NAVAS NAVARRO, Susana, “Derecho e inteligencia artificial dese el diseño. Aproximaciones”, en NAVAS NAVARRO, Susana (directora,) Inteligencia artificial. Tecnología. Derecho, ob. cit., pág. 26.
22 CASANOVAS, Pompeu, “Derecho, Tecnología, Inteligencia artificial y web semántica. Un mundo para todos y para cada uno”.
23 REYES OLMEDIO, Patricia, “De la informática jurídica a la algoritmocracia”, elDial.com - DC2943.
24 REYES OLMEDIO, Patricia, “De la informática jurídica a la algoritmocracia”, elDial.com - DC2943.
25 REYES OLMEDIO, Patricia, “De la informática jurídica a la algoritmocracia”, elDial.com - DC2943.
26 Más adelante, comenta la autora citada- se ocupó del estudio, desarrollo y promoción del uso de las TICs en el ámbito jurídico, distinguiendo 3 áreas de acción: a) Informática jurídica documental, que crea y procesa la documentación jurídica, tales como las bases de datos legales, jurisprudenciales, etc.; b) Informática jurídica de gestión, que se ocupa de apoyar la actividad del jurista a través de sistemas de gestión automatizados, como por ejemplo son sistema de tramitación judicial, de información legislativa, etc.; c) Informática jurídica decisional, en que las TIC apoyan a los operadores jurídicos (jueces, abogados, mediadores) recogiendo, sistematizando y procesando información y ofreciendo alternativas de decisión en base a reglas predefinidas.
27 FROSINI, Vittorio, “Informática y Administración pública”, Revista de la Administración Pública, N° 105, septiembre- diciembre, 1984, Madrid, pág. 447 y ss., en part. pág. 455.
28 CASANOVAS, Pompeu, “Derecho, tecnología, inteligencia artificial y web semántica. Un mundo para todos y para cada uno”, Enciclopedia de Filosofía y Teoría del Derecho, vol. 1. Para la doctrina, es cierto que se ha debatido mucho sobre el juez artificial, la posibilidad de que sea un programa y no una persona humana, quien dicte sentencia. Pero también lo es que este tipo de programas sobre el “juez autómata”, que tanta literatura ha generado, están ya fuera de discusión cuando nació la “International Association for Artificial Inteligence and Law”.
29 GRANERO, Horacio Roberto, “Los sistemas inteligentes de medición del caos como elemento de ayuda para mejorar la actividad jurídica”, elDial.com - DCB38.
30 Debe aclararse que las lenguas naturales pueden expresarse en tres formas: oral (mediante la voz), escrita (un texto) o por signos. De más está decir que la expresión escrita se encuentra mucho más documentada y es más fácil de conseguir y analizar que la oral o el lenguaje de signos. Por ello, el Procesamiento del Lenguaje Natural está mucho más avanzado en el tratamiento de textos escritos.
31 TORRES MANRIQUE, Jorge I., “Análisis de la relación entre la inteligencia artificial y el derecho. Hacia el arribo del derecho de los robots”.
32 SARRA, Andrea, “La inteligencia artificial en el derecho”.
33 SARRA, Andrea, “La inteligencia artificial en el derecho”.
34 NAVAS NAVARRO, Susana, “Derecho e inteligencia artificial dese el diseño. Aproximaciones”, en NAVAS NAVARRO, Susana (directora,) Inteligencia artificial. Tecnología. Derecho, ob. cit., pág. 39.
35 NAVAS NAVARRO, Susana, “Derecho e inteligencia artificial dese el diseño. Aproximaciones”, en NAVAS NAVARRO, Susana (directora,) Inteligencia artificial. Tecnología. Derecho, ob. cit., pág. 40. La autora cita, como ejemplo, legislación del Reino Unido, Irlanda, Nueva Zelanda, Australia, etc.