Derecho Penal e Inteligencia Artificial
Emiliano Leonel Aguirre Vila[1]
Introducción
Antes de hablar de Inteligencia Artificial, es importante hacer una breve introducción para ver dónde estamos parados y por qué es importante hablar de estos temas.
En primer lugar, debo decir que nos encontramos viviendo en una de las revoluciones más importantes de la historia humana, la cuarta revolución industrial. Este término fue acuñado en 2016 por Klaus Schwab, fundador del Foro Económico Global, en su libro homónimo y la define de la siguiente manera:
“La cuarta revolución industrial, no obstante, no solo consiste en máquinas y sistemas inteligentes y conectados. Su alcance es más amplio. Al mismo tiempo, se producen oleadas de más avances en ámbitos que van desde la secuenciación genética hasta la nanotecnología, y de las energías renovables a la computación cuántica. Es la fusión de estas tecnologías y su interacción a través de los dominios físicos, digitales y biológicos lo que hace que la cuarta revolución industrial sea fundamentalmente diferente de las anteriores.”[2].
En esta revolución, como señala Schwab, se están borrando las líneas entre lo físico, lo digital y lo biológico. Todo esto nos da como resultado la aplicación de tecnologías antes impensadas como la blockchain, el internet de las cosas (IOT), la nanotecnología, vehículos inteligentes, impresión 3D, entre tantas otras. Incluso abre la puerta a cuestiones que hoy resultan impensadas para la mayoría, aunque cada vez más cercanas, como la posibilidad de fusionar nuestros cuerpos con las máquinas, el llamado transhumanismo. Es dentro de estas tecnologías revolucionarias que nos encontramos con la Inteligencia Artificial (IA).
Alguno podrá pensar que la aplicación de esta tecnología solo afecta a los procesos productivos de la economía y que ninguna injerencia tiene ni tendrá en el derecho, menos en el derecho penal, pero quién piense así está tan equivocado como quien se niega a afirmar que el pasto es verde.
Toda innovación tecnológica llega, más tarde o más temprano, al ámbito del derecho y esta cuarta revolución industrial impactará de una forma tan profunda que corremos el riesgo de que el derecho pierda su propia esencia. Pero de esto hablaremos más adelante.
¿Qué es la IA?
Antes de analizar cuestiones éticas, desarrollaremos brevemente qué es la Inteligencia Artificial.
El término inteligencia artificial fue acuñado en 1956 por John McCarthy, un reconocido informático estadounidense, y la definió como “la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes”[3].
Sin embargo, no es tan fácil definir a la IA puesto que esta tecnología se encuentra en constante desarrollo y el concepto que podamos desarrollar hoy puede quedar obsoleta el día de mañana. Por lo tanto, nos encontramos con una amplia variedad de definiciones.
Por ejemplo, el Parlamento Europeo la define de manera amplia sosteniendo “la IA se caracteriza como el intento por construir máquinas que realizan funciones que se consideran inteligentes cuando las realizan las personas”[4], mientras que la Comisión Europea, en una de sus definiciones de IA, y haciendo un importante hincapié en la disponibilidad y procesamiento de datos, sostiene que “es una combinación de tecnologías que agrupa datos, algoritmos y capacidad informática. Los avances en computación y la creciente disponibilidad de datos son, por tanto, un motor fundamental en el pronunciado crecimiento actual de la inteligencia artificial”[5].
A su vez, el ingeniero argentino Fredi Vidas, fundador de RockingData, en su obra “¿Cómo piensan las máquinas?” la define como “la combinación de algoritmos considerados inteligentes que imiten, en alguno de sus aspectos, las capacidades del ser humano”. Allí también señala la explicación que da la Dra. Cecilia Danesi, fundadora de la primera asignatura de IA en la Facultad de Derecho de la Universidad de Buenos Aires, quien suele definirla como “algoritmos desarrollados para realizar predicciones futuras sobre la base de datos del pasado”[6].
Ahora bien, lo cierto es que no existe una sola IA, sino que existen distintos tipos dentro de este universo. El Dr. Juan Gustavo Corvalan, director del Laboratorio de Innovación e Inteligencia Artificial de la Universidad de Buenos Aires, hace una acertada analogía de la IA con el transporte.
Nos señala que, si bien tenemos distintos tipos de transporte, detrás de cada uno de ellos hay algo en común: permiten al ser humano trasladarse de un lugar a otro. Sin embargo, hay muchas “subespecies” dentro del transporte, los medios de transporte. Nos encontramos con autos, aviones, trenes, bicicletas, etcétera. Todos ellos son medios de transporte y, si bien guardan aspectos comunes entre sí , no son lo mismo.
De la misma forma, nos encontramos con distintos tipos de Inteligencia Artificial, diseñadas de distintas maneras y creadas para diferentes fines. Por ejemplo, en una empresa no será lo mismo una IA desarrollada para seleccionar a los postulantes a un puesto de trabajo que otra diseñada para la atención al cliente y resolver sus consultas.
Vivas, en la obra señalada anteriormente, destaca dos tipos de IA. El primero de ellos son los sistemas que piensan como humanos, estructuras altamente complejas que buscan automatizar actividades complicadas, como la toma de decisiones, la resolución de problemas y el aprendizaje. Como ejemplo de este tipo de IA señala las redes neuronales artificiales, un grupo de nodos interconectados que imitan el comportamiento de las neuronas y conexiones de un cerebro biológico.
Por otra parte, tenemos los sistemas que actúan como humanos, es decir, que realizan tareas de una forma similar a la que solemos usar los seres humanos, buscan imitar nuestro comportamiento, como los chat bots.
Ahora veamos que tiene que ver todo esto con el derecho penal.
Su aplicación en el Derecho Penal
Como señalamos anteriormente, la innovación tecnológica modifica constantemente nuestra sociedad y el ámbito del derecho no es la excepción.
Hace varios años atrás cambiamos las máquinas de escribir por las computadoras, luego, y principalmente desde la pandemia de COVID-19, comenzamos a tramitar expedientes digitales. Antes teníamos un expediente físico que viajaba de un lugar a otro, con los riesgos que eso implica, y los abogados que deseaban verlo debían viajar hasta el juzgado y aguantar interminables colas. Hoy en día, las partes tienen acceso al mismo expediente digital sin moverse de su oficina -o su hogar- y pueden desde allí realizar las presentaciones que deseen.
El sistema de videollamadas modificó radicalmente la forma en la que se le recibe declaración a un testigo. Antes, el citado debía viajar hasta la sede del juzgado o fiscalía donde debía prestar su testimonio -corriendo el gasto por su cuenta- y, en muchas ocasiones, teniendo que ausentarse de su trabajo para poder asistir. Hoy en día, el testigo puede declarar desde la comodidad de su hogar e incluso desde su trabajo, situación en la que ya no tiene que pedirse el día entero o ausentarse varias horas, sino que, en muchas ocasiones, será algo que no le tomará más de media hora.
En igual sentido, la IA implica una verdadera revolución en las investigaciones criminales, generará cambios en cuestiones procesales y permitirá acelerar los tiempos que llevan las investigaciones.
En la Argentina se desarrolló un sistema de IA llamado “Prometea” utilizado por la justicia de la Ciudad de Buenos Aires para recomendar medidas ante ciertas situaciones como, por ejemplo, la solución para un caso habitacional [7].
Este sistema, que está empezando a ser aplicado en el fuero civil, también permite por ejemplo, mediante unas pocas preguntas, despachar una declaratoria de herederos de manera automática y de esta forma agilizar los procesos [8].
De la misma manera, aplicándolo al fuero penal, podemos desarrollar un sistema de inteligencia artificial que analice las denuncias que ingresan en una Fiscalía y sugieran al instructor una serie de medidas recomendadas para comenzar la investigación o analizar las probabilidades de éxito basándose en el principio de oportunidad.
A su vez, la IA podría colaborar con los investigadores para analizar grandes volúmenes de información -como por ejemplo los interminables listados de llamadas de los teléfonos celulares- limitando de esta manera los errores humanos que se producen por cansancio o desconocimiento de cómo interpretar la información analizada.
También, esta tecnología puede utilizarse para decidir cuestiones mucho más sensibles como la prisión preventiva. En estos casos, la máquina puede analizar los supuestos objetivos del hecho junto con las características subjetivas del imputado y definir en qué porcentaje existe un riesgo cierto de peligro de fuga o entorpecimiento procesal que no pueda ser evitado por otros medios.
En este sentido, la Oficina Nacional de Investigaciones Económicas de Estados Unidos realizó un estudio en el que se entrenó un algoritmo para predecir si los acusados mostraban riesgo de fuga mediante sus historiales penales y los registros judiciales de la ciudad de Nueva York. Este estudio dió como resultado que la máquina resultó ser más precisa que los jueces al momento de predecir la conducta de los imputados al momento de ser liberados[9].
Si bien estos resultados son alentadores y nos inclinan a pensar que resulta de suma importancia incorporar su utilización en el proceso penal, debemos recordar que no todo lo que brilla es oro y tener mucho cuidado respecto de cómo vamos a aplicarlo.
En primer lugar, debemos decir que nunca una IA puede reemplazar la decisión de un juez. Desarrollar un sistema que busque determinar de una manera lo más objetiva posible los peligros procesales en el caso que se discuta una prisión preventiva no significa que el resultado sea la resolución. Es una herramienta que puede ayudar al juez pero su decisión será únicamente suya y deberá estar fundada, pudiendo tener en cuenta, o no, el resultado que le dió la máquina.
Podemos encontrarnos ante una IA que fue desarrollada con sesgos[10] -por ejemplo de raza o sexo- y si el juez tuviera que decidirse solo por lo que le dice la máquina, podría derivar en una resolución injusta. Por ejemplo, cuando del muestreo realizado para programar la IA que evalúa los riesgos procesales la máquina determina que los inmigrantes tienen un mayor peligro de fuga frente a los nacionales.
Es por esto que la decisión final nunca puede ser definida por una máquina, imposible de evaluar cuestiones como el ideal de justicia, sino por una persona humana que utiliza como una herramienta la IA para que lo ayude a valorar.
Al mismo tiempo, vemos que pueden surgir grandes problemas e interrogantes respecto al ejercicio del derecho de defensa, por lo que debemos encontrar la forma de que cuando se utiliza una IA pueda ser explicado su código fuente y evitar la conformación de las famosas cajas negras[11] que impidan al imputado y su defensa entender cómo se llegó a esa conclusión.
A su vez, debemos contemplar la posibilidad de que existan varios sistemas de IA aplicados al proceso penal para estos casos y así, en caso de que el resultado de riesgo de fuga sea muy alto, tenga la posibilidad de pedir que su situación sea analizada por otra máquina con el objeto de tener elementos objetivos que ayuden a fundamentar oportunamente su pedido de excarcelación.
Consideraciones finales
Debo decir que, desde mi punto de vista personal, me encuentro sumamente emocionado por las posibilidades que nos ofrece la cuarta revolución industrial, y en especial la inteligencia artificial. Sin embargo, considero que no debemos dejarnos llevar por la emoción y tener mucho cuidado ya que el avance tecnológico, si bien nos ha traído grandes beneficios, también ha generado grandes problemas. Las redes sociales han permitido conectar a las personas entre sí de una forma impensada hasta hace algunas décadas, pero se han visto envueltas en grandes polémicas respecto de los daños psicológicos que causan principalmente en los adolescentes, la posibilidad de censura y la utilización de datos sensibles de los usuarios para fines comerciales. Las criptomonedas y la tecnología blockchain permiten realizar transacciones internacionales en cuestión de minutos sin las trabas que tienen los sistemas bancarios, pero también son utilizadas por el crimen organizado para disponer de su dinero ilegal sin ser atrapados por las autoridades.
Como ya analizamos, la Inteligencia Artificial puede generar grandes beneficios a la hora de facilitar las investigaciones penales, descongestionar el trabajo descomunal de los juzgados y fiscalías, e incluso dar pautas objetivas a la hora de decidir sobre cuestiones tan importantes como la prisión preventiva. Sin embargo, como cualquier tecnología, puede traernos también ciertos problemas que cada día están más cerca y debemos discutir. Por ejemplo, es cuestión de tiempo, si es que no sucede aún, para que la IA sea utilizada para cometer diversos tipos de delitos, por lo que debemos empezar a cuestionarnos si esto puede constituir un agravamiento de la pena, si perseguiremos también a los desarrolladores de las IA creadas para este fin y cómo. Probablemente, en el futuro próximo no falte quien plantee seriamente que algunos delitos sean juzgados por IA, argumentando la objetividad de la máquina frente a la dudosa imparcialidad de un juez humano, lo que podría derivar en un peligroso proceso de deshumanización de la justicia.
La Inteligencia Artificial es una herramienta poderosa y, como cualquier herramienta, no es buena per se, sino que dependerá de cómo la utilicemos. Esta cuestión será un gran desafío para los juristas de nuestro tiempo ya que tendrán el deber de orientar el desarrollo tecnológico en pos del ideal de Justicia, evitando maravillarse por el avance tecnológico y delimitando los límites éticos de una manera clara para que, de esta forma, sea utilizada a favor de la sociedad y nunca en su contra.
Bibliografía
- Klaus Schwab (2016), La Cuarta Revolución Industrial, Editorial Debate
- Fredi Vidas (2021), ¿Como piensan las máquinas?, Editorial Galerna
- Parlamento Europeo, “El impacto del Reglamento general de protección de datos (GDPR) en la inteligencia artificial”, disponible en: https://www.europarl.europa.eu/stoa/en/document/EPRS_STU%282020%29641530
- Comisión Europea, “Libro blanco sobre la Inteligencia Artificial”, disponible en: https://op.europa.eu/es/publication-detail/-/publication/ac957f13-53c6-11ea-aece-01aa75ed71a1
- Mauro Berchi, 22/10/2019, “Prometea, inteligencia artificial para hacer Justicia”, Ámbito, disponible en: https://www.ambito.com/politica/justicia/prometea-inteligencia-artificial-hacer-n5061091
- John McCarthy, 11/12/2007, “What is Artificial Intelligence?”, disponible en: http://www-formal.stanford.edu/jmc/whatisai/node1.html
- Diario Judicial, 09/12/2021, “Máquinas inteligentes que despachan”, disponible en: https://www.diariojudicial.com/nota/90856
- Tom Simonite, 10/03/2017, “La inteligencia artificial ya es capaz de evitar la prisión preventiva innecesaria”, MIT Technology Review, disponible en: https://www.technologyreview.es//s/6859/la-inteligencia-artificial-ya-es-capaz-de-evitar-la-prision-preventiva-innecesaria
[1] Abogado penalista egresado de la Universidad de Buenos Aires, empleado del Ministerio Público Fiscal de la Nación y miembro de la Asociación Argentina de Lucha Contra el Cibercrimen (AALCC). Correo electrónico: eaguirrevila@gmail.com.
[2] Klaus Schwab, La Cuarta Revolución Industrial, página 10.
[3] http://www-formal.stanford.edu/jmc/whatisai/node1.html
[4] Parlamento Europeo, “El impacto del Reglamento general de protección de datos (GDPR) en la inteligencia artificial”, disponible en https://www.europarl.europa. eu/stoa/en/document/EPRS_STU%282020%29641530
[5] Comisión Europea, “Libro blanco sobre la Inteligencia Artificial”, disponible en https://op.europa.eu/es/publication-detail/-/publication/ac957f13-53c6-11ea-aece-01aa75ed71a1
[6] Fredi Vidas, ¿Como piensan las máquinas?, página 141.
[7] https://www.ambito.com/politica/justicia/prometea-inteligencia-artificial-hacer-n5061091
[8] https://www.diariojudicial.com/nota/90856
[9] https://www.technologyreview.es//s/6859/la-inteligencia-artificial-ya-es-capaz-de-evitar-la-prision-preventiva-innecesaria
[10] “Error sistemático en el que se puede incurrir cuando, al hacer muestreos o ensayos se seleccionan o favorecen unas respuestas frente a otras”. Así define la RAE el concepto de ‘sesgo’.
[11] Cuando la IA obtiene un resultado pero no puede ser explicado cómo llegó a él y resulta poco transparente, al contrario de las IA explicables donde se puede explicar el resultado obtenido.