La Inteligencia Artificial decidirá quien vive y quien muere

La Inteligencia Artificial decidirá quien vive y quien muere

La Inteligencia Artificial decidirá quien vive y quien muere

Casi sin que nos demos cuenta, la inteligencia artificial se ha adentrado en nuestras vidas con un ritmo frenético. Esto tiene sus ventajas pero también hay puntos que debemos pararnos a reflexionar. ¿Tienen las máquinas demasiado poder?  

David Yatskiv

19/10/2021

robot

En los últimos años la inteligencia artificial ha experimentado un crecimiento exponencial, a pesar de que en la actualidad desconocemos exactamente el funcionamiento de nuestro propio cerebro, cada vez somos más capaces de fabricar recreaciones parecidas a éste.

Ahora bien, este avance tecnológico ha hecho saltar las alarmas de los expertos en Derecho de la Inteligencia Artificial, ya que consideran que es muy urgente que la Unión Europea se dote de un código ético articulado para regular las responsabilidades por los daños producidos por estos sistemas.

Pero no son solamente los expertos quienes se han pronunciado al respecto, ya en el propio Parlamento Europeo, eurodiputados como Adrián Vázquez Lázara, eurodiputado del Grupo Renew Europe y presidente de la Comisión de Asuntos Jurídicos del Parlamento Europeo, señaló en su intervención en el VI Congreso de Registradores, que es preciso regular por ejemplo, en los vehículos de conducción autónoma, la decisión que debe tomar este si por ejemplo en su camino se cruza un niño persiguiendo un balón, el sistema de conducción deberá decidir, al no poder frenar a tiempo, si éticamente es mejor mantener la dirección con la posibilidad de atropellar al niño o es mejor dar un volantazo y atropellar a una persona mayor que está en la acera.

Si reflexionamos sobre este planteamiento que ha expuesto el eurodiputado, podemos pensar que se trata de ciencia ficción, como si de una película de Hollywood se tratara, pero este planteamiento realmente no es nuevo.

En el año 1985, Judith Jarvis Johnson puso de manifiesto en la revista The Yale Law Journal (la publicación de la Facultad de Derecho de Yale) algunas cuestiones que ya se han ido planteando los expertos durante el siglo XX. Este reconocido jurista expuso la complejidad que supondría para una inteligencia artificial encontrar la solución de un dilema humano complejo.

Muchos expertos coinciden, que el desarrollo del Código Ético de la inteligencia artificial deberá ser desarrollado por Bruselas mediante un Reglamento como ha sido el caso de la legislación de Protección de Datos, siendo esta legislación la mejor implementada a nivel mundial

Imaginemos un dilema similar al expuesto anteriormente, pero en esta ocasión, es un ser humano quién conduce un vehículo sin frenos y el camino se bifurca en dos: en el camino de la izquierda hay cinco personas, en el de la derecha sólo hay una. ¿Es lícito matar a una persona para salvar a otras cinco?

Ahora vamos con la segunda parte del dilema: un joven acude a una clínica para un chequeo rutinario; en esa clínica hay cinco pacientes esperando trasplantes de órganos. Para poder vivir, dos de ellos necesitan un pulmón, otros dos necesitan sendos riñones y el quinto requiere un corazón. Curiosamente el joven que ha ido a hacerse el chequeo tiene el mismo grupo sanguíneo que ellos, lo que le convierte en el donante idóneo. Ahora repetimos de nuevo la pregunta: ¿Es lícito matar a una persona para salvar otras cinco?

En estos dilemas, un ser humano tendría que despejar las incógnitas de la ecuación atendiendo a criterios éticos. Pero seguramente casi todo el mundo estaría de acuerdo en atropellar a una persona para salvar a cinco. Hay muchos factores humanos que justifican esta decisión. No obstante, es difícil que una máquina pueda calibrar estas decisiones, por ello es importante dotar a la inteligencia artificial de un código ético.

Fruto de esta preocupación, el Parlamento Europeo realizó un informe sobre robótica en 2017 llamado Código Ético de Conducta y en diciembre de 2018, se publicó el primer borrador de la Guía Ética para el uso responsable de la Inteligencia Artificial. 52 expertos han escudriñado y exprimido los rincones de la problemática, centrándose en el ser humano siempre bajo la luz de la defensa de los derechos fundamentales.

Son estándares morales dirigidos a humanos, a los creadores de tecnología.

Los principios son los siguientes:

  • Se debe asegurar que la IA está centrada en el ser humano.

  • Debe respetar los derechos fundamentales y la regulación aplicable.

  • Debe ser técnicamente robusta y fiable.

  • Debe funcionar con transparencia.

  • No debe restringir la libertad humana.

Es difícil que una máquina pueda calibrar decisiones humanas, por ello es importante dotar a la inteligencia artificial de un código ético

Fruto de estas preocupaciones, la Comisión publicó una propuesta legislativa que actualmente se encuentra debatiendo en el Parlamento Europeo.

Esta propuesta legislativa tiene como finalidad clasificar los riesgos que se plantean en cuatro niveles de riesgo admisible: alto riesgo, riesgo limitado y bajo riesgo.

Los sistemas de alto riesgo deberán de someterse a una serie de obligaciones importantes previamente a su comercialización, incluyendo mecanismos de evaluación de riesgos gracias a los cuales se realizará un registro de la actividad, trazabilidad de resultados y medidas de supervisión llevadas por profesionales especializados.

Muchos expertos coinciden, que el desarrollo del Código Ético de la inteligencia artificial deberá ser desarrollado por Bruselas mediante un Reglamento como ha sido el caso de la legislación de Protección de Datos, siendo esta legislación la mejor implementada a nivel mundial.

Pero también, es sumamente importante que los creadores de tecnología cada vez más se especialicen en ética y puedan discernir las implicaciones y riesgos de los sistemas que crean.