Artículos
24 de febrero de 2023
¿El derecho se ha quedado atrás? Legislar sobre inteligencia artificial
Por: Mariana Rodríguez Salazar
Una de las primeras cuestiones que nos enseñan cuando llegamos a la Universidad es que la sociedad está en constante cambio y avances, y que el Derecho evoluciona y se modifica con ella. Si bien esto es cierto, hace ya varios años que la tecnología avanza a pasos agigantados y pareciera que nuestro sistema jurídico se va quedando atrás por lo compleja que se presenta la tarea de regular ciertos temas del ámbito informático. Uno de los campos en los que esto sucede es en el de la Inteligencia Artificial.
Las IA se han convertido en herramientas muy valiosas para la sociedad, con una gran diversidad de aplicaciones, de este modo, ya existen programas de inteligencia artificial cuya función consiste en la prevención de hecho delictivos, así como en la protección de sistemas informáticos (Vargas, 2022). En cualquier caso, estas herramientas no están exentas de poder emplearse para actividades delictivas, en especial en el ámbito de los ciberdelitos. Esta última idea, en principio, no parece plantear especiales problemas en términos de responsabilidad penal, pues en cualquiera de los casos de mal uso de una IA, encontramos a una persona detrás que deberá hacerse responsable de tal empleo; el problema surge cuando comienzan a encontrarse actividades inusuales realizadas por una IA, o fallos en las mismas en los que no queda muy claro quién debe hacerse responsable de ese mal funcionamiento. Por ejemplo:
En 2018, Google hizo una demostración pública de su inteligencia artificial, capaz de engañar a los seres humanos emulando sus actividades comunicativas con otra persona a través de medios informáticos (Bloomberg, 2018) y ese mismo año, sucedió el primer accidente mortal a un ser humano que protagonizó un vehículo autónomo. Este pertenecía a la empresa Uber, en Arizona, y su pasajera no pudo evitar el accidente. Este caso fue desencadenante de la discusión de quién era el responsable jurídico, si la empresa Uber, el dueño del vehículo, la automotriz que lo diseñó o incluso si el automóvil que es guiado por IA podría ser responsable (Otero, 2018). La cuestión es que aún en la actualidad, no hemos encontrado una respuesta a la mencionada polémica y tampoco para el problema informático, pues en los 10 meses entre julio del año pasado y mayo de 2022, 10 personas han perdido la vida en accidentes automovilísticos con este tipo de vehículos (Scarpellini, 2022).
Igualmente en 2022, han salido estudios que afirman que las IA cometen más errores a la hora de realizar diagnósticos médicos que los profesionales de la salud (Equipo Actualidad, 2022), y se cree que esta clase de errores pueden derivar en daños psicológicos (cuando no en daños a la salud física). Asimismo, la información con la que se “entrena” a una inteligencia artificial está sesgada, y este hecho puede terminar discriminando a las poblaciones socialmente más desfavorecidas.
En estos casos, la tarea de encontrar a una persona responsable se complica y la idea de responsabilizar a la IA parece descabellada. De cualquier forma, si hablásemos de la imposición de una pena, cualquiera distinta a su reprogramación o desconexión parece absurda, y esta última poco satisfactoria en términos punitivos. La autora Alejandra Morán Espinosa en su artículo “Responsabilidad penal de la Inteligencia Artificial (IA). ¿La próxima frontera?” propone que a día de hoy, en el caso de la IA y en el plano de la responsabilidad penal, sucede algo similar al caso de los menores de edad e inimputables, pues esta puede tener conocimiento, pero no conciencia, ya que ésta es una capacidad naturalmente humana aún no emulada por la IA.
Por otro lado, en lo referente a los delitos tecnológicos o ciberdelitos, resulta especialmente preocupante el empleo de una IA como herramienta para su comisión debido al constante perfeccionamiento de las mismas, haciéndolas cada vez mejores y menos detectables a la hora de cometer un delito y, en contraposición, la posibilidad de ser vulneradas y controladas por terceros no autorizados. Es necesario tener presente que la comisión de conductas ilegales debe cumplir con todos los elementos del delito, y para ello es necesario ser especialmente cuidadosos desde su tipificación ya que, de hacerlo incorrectamente, estos tipos penales no servirán para proteger ningún bien jurídico o quedarán múltiples casos considerados como atípicos.
La autora Morán Espinosa plantea la necesidad de comenzar una regulación al respecto de la programación de la IA. En esos términos, “establecer pautas éticas que penalicen cualquier uso indebido de una IA, aun cuando “decida” actuar indebidamente”. En este sentido, también se señala que quizás se debe establecer un código ético base en esta clase de tecnologías, como consideraba el Parlamento Europeo ya en 2015. En 2022, la misma entidad sigue emitiendo resoluciones en materia de inteligencia artificial, en las que se propone un entorno normativo favorable para el desarrollo de la tecnología, sin olvidar que la configuración de la transformación digital debe existir dentro del pleno respeto de los derechos fundamentales y de tal manera que las tecnologías digitales sirvan a la humanidad. Además, en la misma resolución se hace mención a que las herramientas digitales se están convirtiendo cada vez más en un instrumento de manipulación y abuso en manos de algunos agentes empresariales y de gobiernos autocráticos cuyo objetivo es socavar los sistemas políticos democráticos, lo que podría conducir a un choque entre sistemas políticos (Parlamento Europeo, 2022).
Sin embargo, una regulación demasiado estricta en este ámbito plantea una problemática de carácter económico: queremos que las empresas sigan invirtiendo en el desarrollo de IA en nuestro país. Es probablemente por eso que en la actualidad ningún país tiene una regulación precisamente densa sobre este tema. Casi todo lo que encontramos son informes, recomendaciones y modelos de soft law, como es el caso de Colombia, en el que tenemos un Marco Ético para la Inteligencia Artificial, pero cuyo incumplimiento no trae aparejada ninguna clase de responsabilidad. Además, hay quien discute la presunta necesidad regulatoria en este ámbito, en tanto que el desarrollo tecnológico está muy lejos de alcanzar una inteligencia artificial tan autónoma que pueda emular la conciencia del ser humano.
Considero que, si llegásemos a la conclusión de que debemos realizar una regulación en la materia que nos ocupa, esta debe centrarse en los aspectos más elementales: en la protección de Derechos Fundamentales de los ciudadanos, en la exigencia de transparencia por parte de las empresas públicas y privadas que hagan uso de estas tecnologías, el respeto a la privacidad, en el establecimiento de un sistema de responsabilidad de modo que las consecuencias del mal funcionamiento informático no sea solo problema de los particulares y, por último, un requerimiento de inclusión y no discriminación por parte de estos sistemas. Así, este asunto debe ser tomado en consideración de tal forma que la legislación sea lo más armónica posible a nivel internacional.
REFERENCIAS
Bloomberg. (2018). Inteligencia artificial de Google causa asombro y preocupación. Portafolio.co.
Equipo Actualidad . (2022). La IA puede cometer más errores en diagnósticos basados en imágenes que los profesionales médicos. Red AMGEN.
Morán Espinosa, A. (2021). Responsabilidad penal de la Inteligencia Artificial (Ia). ¿La próxima frontera? Revista IUS, 15(48), 289-323. https://doi.org/10.35487/rius.v15i48.2021.706
Otero, C. (2018). Un coche autónomo Uber atropella y mata a un peatón en EEUU. AS.com.
Parlamento Europeo. (2022). Resolución sobre la inteligencia artificial en la era digital.
Scarpellini, P. (2022). Cientos de accidentes vinculados con coches autónomos y el piloto automático en EEUU.
Vargas, N. (2022). La inteligencia artificial, un arma para prevenir y combatir los delitos cibernéticos. Editorial La República.