La pasada semana tuve la oportunidad de participar dentro
del marco de las XIV Jornadas de Endoscopia Digestiva, en un debate moderado
por el prestigioso Profesor Doctor Sarbelio Rodríguez, director de las
Jornadas, junto a los Profesores Michel Kahaleh gastroenterólogo estadounidense
y experto en endoscopia terapéutica, y Klaus Mönkemüller, Director del Basil
Hirschowitz Endoscopic Center of Excellence, y Profesor de la Universidad
americana de Alabama en Birmingham, bajo el título 'Inteligencia Artificial en
Endoscopia: Eficacia, Eficiencia y Riesgos Legales'.
El moderador centró el debate de una forma realmente
original utilizando para ello la Leyes de Asimov, leyes que aparecen por
primera vez en el relato ‘Círculo Vicioso’, del año 1942, pero que fueron
desarrolladas por Asimov junto con John W. Campbell unos años antes, en 1940.
Se sustituyeron en 1976 por la Ley Cero (‘Zeroth law‘ en
inglés), que narraba que ‘Un robot no hará daño a la Humanidad o, por inacción,
permitir que la Humanidad sufra daño’. Tanto la ley Cero como las de Asimov son
muy claras, pero dejan atrás muchos aspectos modernos con respecto a la
Inteligencia Artificial.
De hecho, ya no solo es que no contemple todas las
situaciones, sino que deberíamos empezar por definir qué es hacer daño a un
humano. ¿Publicar una noticia falsa lo es? No podemos definir exactamente qué
es hacer daño o no, así que las leyes de Asimov quedan nada menos que
obsoletas.
De hecho, la reciente “explosión” de inteligencia artificial
generativa que estamos viviendo ha supuesto el inicio de una carrera
empresarial actualmente fuera de control, que, si bien puede reportar
beneficios multimillonarios, junto a numerosas ventajas para nuestro sistema
sanitario, obliga a analizar su impacto social, económico y cultural que sin
lugar a dudas puede comportar otros profundos riesgos. De ahí que el 22 de
marzo de 2023 más de 1.000 personalidades, desde Elon Musk a Yuval Noah Harari,
intelectuales, tecnólogos y académicos firmaran una carta abierta en la que
solicitar pausar durante seis meses el entrenamiento de sistemas más potentes a
GPT-4. Su argumentación, de seguir avanzando sin una regulación clara, era un
riesgo demasiado grande.
Sam Altman actual CEO de OpenAI, la compañía que desarrolló
el modelo de lenguaje extenso de inteligencia artificial GPT-4, creadora de
ChatGPT y de la plataforma generativa de imágenes DALL-E, sobre la que
consideraba la herramienta más influyente y extraordinaria que la humanidad
haya creado jamás, también advertía junto a otros expertos sobre los riesgos
que esta tecnología arriesgada podría suponer para la civilización.
Desafíos éticos y legales de la IA
Los desafíos éticos y legales surgen, así, de la combinación
de estas nuevas tecnologías que evolucionan rápidamente, nuevas partes
interesadas, por ejemplo, grandes empresas tecnológicas, una gran cantidad de
datos y nuevas técnicas computacionales y analíticas; y frente a ellos
descubrimos una falta de controles reglamentarios o estándares comunes para
guiar esta convergencia en el ámbito de la salud, conclusión final a la que se
llegó en el debate, aunque el hecho de que el avance de la IA se perciba como
irreversible no debería significar que sea incontrolable. Tenemos que tener muy
presente que sin la ayuda de esta tecnología será difícil que pongamos solución
a los retos que plantea actualmente la sanidad.
La primera cuestión a debatir fue sobre la responsabilidad
de los robots médicos, planteándose una cuestión previa a abordar: Es que,
¿acaso se trata de sujetos responsables? ¿Gozan estos ingenios de autonomía
decisoria en el seno de una personalidad jurídica?.
Las características inherentes y el propio concepto que gira
alrededor de la robótica inteligente sigue generando un interesante debate en
los últimos años, el hecho de que una maquina sea capaz de tomar sus propias
“decisiones” nos conduce a pensar sobre una alternativa para una nueva especie
de “persona no humana”. Otorgar personalidad jurídica a un robot y presentarlo
como persona electrónica, es decir, capaz de ser titulares de derechos y
obligaciones se presenta también en la doctrina como un escenario posibilista y
sumamente atractivo.
Todavía sigue habiendo partidarios hacia esta postura,
ponemos por caso a Sophia la primera humanoide con inteligencia artificial
avanzada que se ha creado en el planeta y que en 2017 le fue otorgada la
ciudadanía saudí (es el primer robot que cuenta con nacionalidad). Sin embargo,
como cualquier tesis, hay críticas sobre esta propuesta, ya que, si se diera el
caso hipotético de concebir a los robots como personas físicas o jurídicas -o
una figura muy próxima-, se les estaría otorgando capacidad suficiente para
contraer obligaciones y ejercer derechos, aspectos inherentes a la personalidad
jurídica, ¿deberían los vehículos autónomos, por ejemplo, tener derecho a la
vida, una vez construidos y ser inscritos en el registro civil? Una vorágine de
ideas que surgen para el jurista y que ya en la mesa de investigadores en
Derecho Sanitario del XXV Congreso Nacional de Derecho Sanitario, se efectuó
una aproximación a como se podrá sustanciar la responsabilidad procedente de
los daños ocasionados por estos avances, sin que sigamos en una incertidumbre
que aún esta vigente.
La automatización de las máquinas ha supuesto un paso más a
la mera mecanización, en la que se utilizaba un mecanismo ayudado de operarios
(individuos humanos) para la realización de una tarea. Los distintos niveles de
automatización son los que van permitiendo que una máquina pueda realizar una
tarea por sí sola, de manera autónoma, sin los márgenes de error que cometemos
los humanos y, además, en interconexión con otros sistemas. Nos encontramos en
un momento de desarrollo imparable de la tecnología en el que cada día los
robots inteligentes pueden realizar actividades de mayor complejidad e,
incluso, los algoritmos con los que están dotados les van permitiendo aprender
a efectuar tales actividades cada vez con mayor precisión y rapidez. Hemos
superado ya el uso de mera programación mecanizada de cajeros automáticos o
producción fabril en cadena, por ejemplo.
Debemos descartar, de entrada, la concepción de un robot
como persona física y, por tanto, abordar el tratamiento de la responsabilidad
que pueda alcanzarle. Un robot o un programa inteligente no puede englobarse
dentro de la naturaleza de persona física, porque si analizamos más de cerca
esta figura vemos que cualquier maquina dotada de IA no cumple con los
presupuestos necesarios para entrar en esta categoría jurídica.
¿Un robot puede
“nacer” o “morir”?
Hay un presupuesto esencial para que un sujeto adquiera
personalidad jurídica, como advierte el art.30 de nuestro Código Civil. Este
atributo de la personalidad se adquiere en el momento del nacimiento y para
ello solo es necesario que el nacimiento haya sido viable, es decir, que se
produzca el “entero desprendimiento del seno materno” ¿Un robot puede “nacer” o
“morir”? De momento los avances tecnológicos no cuentan con un espécimen tan
desarrollado que pueda cumplir con estos requerimientos biológicos; lo que sí
podría hacer un robot o incluso un programa es ser desconectado o dejar de
funcionar -si se le puede llamar así, muerte- y encenderse -como símil de
vida-. Hasta los sistemas más complejos y sofisticados como Hatsune Miku
considerada como la primera artista virtual en 2007 no puede considerarse que
ha “nacido”. A pesar de que un robot o sistema dotado con IA tenga
características humanas como la inteligencia, autonomía o razonamiento -hasta
cierto punto-, no podrá encontrarse en principio a la par con los seres
humanos.
En 2018 más de 200 expertos de 14 países enviaron una carta
abierta al presidente de la Comisión Europea pidiendo que no se conceda a las
máquinas la condición de personas electrónicas, ya que implicaría reconocerles
derechos y responsabilidades que no les corresponden debido a que se estarían
sobrevalorando sus capacidades reales, siendo esto usado de pretexto por los
fabricantes o usuarios, en realidad, para librarse de sus responsabilidades.
Uno de los pilares de la IA se encuentra precisamente en esa
toma de decisiones autónomas mediante redes neuronales artificiales, pudiendo
revolucionar prácticamente cualquier sector. Las tareas encomendadas a robots,
en función de las aplicaciones con las que cuentan, y la gestión de los datos,
que es la base del aprendizaje de la IA, ya constituyen una realidad en muchos
campos y su futura proyección resulta aún inimaginable. Se diseñan, construyen
y utilizan buscando que su “inteligencia” sea una réplica de la humana en su
capacidad de cognición y desarrollo.
Se plantea la posibilidad de creación de una nueva categoría
jurídica, que conformaría una figura intermedia entre las personas físicas y
las cosas, bajo la denominación de "persona electrónica". Una nueva
personalidad jurídica que se concedería a los sistemas dotados de inteligencia artificial
fuerte, que supondría básicamente que los robots autónomos más complejos puedan
ser considerados personas electrónicas y de este modo poder ser responsables de
reparar los daños que puedan causar, dotando de personalidad electrónica a
aquellos supuestos en los que estos robots tomen decisiones autónomas o se
relacionen con terceros de forma independiente. Sería imprescindible determinar
el grado de desarrollo idóneo para otorgar legalmente el estatus de persona
electrónica, para poder establecer los derechos y obligaciones de los que
dispondrían, puesto que ni aún se encuentra definido lo que es un robot
complejo ni lo que son las decisiones autónomas inteligentes que pudieran
asignar a la IA la personalidad electrónica, parece que aún está lejos de
concretarse de una forma precisa.
El reconocimiento de personalidad robótica sujeto a una
limitación de su capacidad de ejercicio y subordinado a un control humano
vendría, en realidad, a reducir ese reconocimiento de la personalidad
electrónica a una mera categoría nominal, desprovista de sustancia jurídica
propia. Esto es, no sería una verdadera personalidad (lo cual nos llevaría a
concluir que, si es inocuo, por qué no hacerlo, por qué no reconocer esa
personalidad puramente utilitaria y nominal a los robots).
Pero el solo uso de la palabra personalidad no acaba de ser
inocente. Emplear la palabra personalidad para referirnos a algo que no lo es,
como expediente meramente instrumental y utilitario, violenta el concepto de
personalidad, que tiene como sustrato al ser humano. Un argumento clave en
contra del reconocimiento de una personalidad robótica desde el derecho positivo
-y sin perjuicio de otras consideraciones morales o éticas- tiene su fundamento
en la noción de dignidad de la persona.
En definitiva, los robots son cosas, por muy singulares y
cautivadores que resulten, pero no pueden ser, en modo alguno, personas o
sujetos de derechos. Pues son, de forma exclusiva, objetos singularmente de los
derechos de propiedad, posesión y responsabilidad. Así, como nosotros somos
sujetos de derechos, los robots son objetos de derecho. Consecuentemente habrá
que buscar la responsabilidad en el origen humano de la actividad de estas
máquinas para garantizar así la seguridad jurídica, tanto para las personas que
participan en su fabricación y producción como para los consumidores y
usuarios.
La “inteligencia” de los robots es alimentada por su
constructor o programador y mantenida por quien lo maneja. A partir de ahí la
máquina es capaz de aventajar a ser humano de forma desmedida, pero ni la
máquina ni su comportamiento existen sin la acción humana inicial. Desde la
racionalidad de este planteamiento se podrán construir criterios acerca de las
eventuales responsabilidades que puedan surgir por el uso de la robótica en el
mundo de la Medicina.