Derecho civil e inteligencia artificial: recursos que ofrecen las IAs y el Chat GPT

Como profesora de Derecho Civil, siempre me ha apasionado, además de la docencia, la investigación multidisciplinar y los retos que la Salud plantea al Derecho, que requieren respuestas claras para que la tecnología genere beneficios y se minimicen los riesgos. Tengo el honor de dirigir un equipo de investigadores juristas, médicos y especialistas en bioética en el Proyecto de Investigación Derecho y Medicina. Desafíos tecnológicos y científicos (DEMETYC) del Ministerio de Ciencia e Innovación, y, juntos, tenemos el reto de abordar esta vorágine que fluye de un modo vertiginoso.

Entre las —casi— últimas novedades, el sistema Chat GPT —desarrollado por OpenAI— está generando admiración y suspicacia a partes iguales. El atractivo de esta herramienta capaz de generar chatbots o agentes conversacionales radica en que trata de emular el lenguaje humano a través de AI con mayores niveles de comprensión y de contextualización, con el objetivo de parecer una persona y no una máquina, de interactuar de modo creativo y con la pretensión de ser accesible en general.

¿Puede ayudar esta tecnología disruptiva a los profesionales sanitarios y a los pacientes? En el ámbito de la e-health puede ser de gran utilidad, tanto desde un punto de vista conversacional e informativo, como para resolver dudas potenciando el autocuidado. También se están empezando a utilizar esas tecnologías en el diagnóstico, en el planteamiento y en el seguimiento de las terapias, así como en la prestación de primeros auxilios. Así, el sistema Corti, a través de un proceso de reconocimiento de palabras, detecta un probable paro cardiaco y pregunta el lugar desde donde la persona llama, tras lo cual envía el aviso a la ambulancia más cercana. El asistente digital aconseja también cómo realizar una maniobra de reanimación hasta la llegada de los especialistas.

Además, con una mayor incidencia de patologías crónicas y de dependencia a consecuencia de una edad media poblacional cada vez mayor, el chatbot hará que el paciente gane en autonomía y los recursos puedan utilizarse de un modo más eficiente llegando, incluso, a lugares remotos.

No podemos negar que hasta aquí todo son ventajas. Parece que, en cierto modo, tendremos que acostumbrarnos al médico-máquina en sustitución del médico-humano, por lo menos, y por ahora, para aquellos procesos más sencillos.

Ya contamos con IMPAI para facilitar el diagnóstico de la COVID; Woebot que está pendiente de los síntomas de la depresión, al igual que Youper, también especializada en salud mental; OneRemission que proporciona información dirigida a pacientes oncológicos y a sus familias; en cuanto a la utilización de chatbot para diagnóstico, disponemos de Symptomate, con Infermedica o con GYANT; incluso podemos contar con la ayuda de la enfermera personal Florence.

La lista va creciendo de modo exponencial y Chat GPT mejorará estas herramientas. Creo que el horizonte de oportunidades es inmenso y de gran atractivo, pero los riesgos que puede generar esta tecnología aplicada a la salud, no son nada desdeñables.

El principal reto es que paciente y máquina se entiendan. Pero ni entre humanos es fácil entendernos. Una conversación está plagada de matices y en un ámbito tan sensible como la salud no podemos permitir que el chatbot no entienda perfectamente un mensaje, ya que, de lo contrario, la respuesta será errónea o imprecisa. Para ello, hay que entrenar a la máquina con toda la gama de posibles preguntas y matices y las correspondientes respuestas. La tecnología avanza hacia una IA cada vez más profunda, pero hoy todavía constituye un desafío y, a mi modo de ver, nos encontramos todavía en los más tiernos inicios en lo referente al procesamiento del lenguaje natural.

Por otro lado, el chatbot puede actuar de modo autónomo, sin intervención humana y puede generar daños. Podemos imaginar el alcance de unas recomendaciones erróneas a pacientes oncológicos. El germen de la normativa para adaptar o para ajustar nuestro ordenamiento jurídico a la IA se está gestando en estos momentos, y su estudio tiene un gran atractivo para quienes nos dedicamos a ello desde todas las disciplinas implicadas. Afortunadamente, el Derecho pone límites a la toma de decisiones totalmente automatizadas, de modo que el chatbot no podrá diagnosticar sin que el humano médico «vigilante» supervise de modo significativo la decisión de la máquina. Creo que la IA autónoma siempre deberá estar controlada, en última instancia, por el humano.

La opacidad de la IA y los sesgos en la información de salida constituyen otro desafío para el chatbot. Las respuestas dependerán de los datos de entrenamiento de la máquina Si los datos de entrada para entrenar al chatbot no son de calidad extrema y son sesgados, del mismo modo sus informaciones y recomendaciones —e incluso, al diagnosticar o establecer la terapia— podrán ser discriminatorias, sesgadas o erróneas. Esto nos recuerda al software COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), que, mediante un algoritmo opaco —de caja negra— establecía la probabilidad de reincidencia de los condenados en EEUU. Si bien el sistema no había utilizado la raza como dato de entrada para su entrenamiento, sus decisiones eran discriminatorias, a consecuencia de sesgos en el análisis de datos.

Otro de los desafíos de esta tecnología es el respeto a la privacidad y a la protección de datos de los usuarios. Por un lado, para el entrenamiento del chatbotes necesario recoger, acumular y analizar grandes cantidades de datos que son sometidos a técnicas de minería de datos. A su vez, es habitual que nuestros dispositivos estén conectados a sistemas de IoT, que comparten, almacenan, procesan y analizan cantidades ingentes de información. Todo ello es bueno para que los algoritmos mejoren y, por lo tanto, sus predicciones sean acertadas, pero pone en riesgo derechos fundamentales de la persona cuyos datos son tratados de modo personal y son cruzados con otras informaciones procedentes de múltiples fuentes.

En definitiva, estas tecnologías contribuirán a disponer de una medicina personalizada de gran precisión y, por lo tanto, a mejorar nuestra salud y nuestra calidad de vida, pero también los perfiles de pacientes podrían ser utilizados para “desechar” al débil o para generar nuevas brechas en la atención sanitaria.

Enuncia el primer Considerando de la ya “antigua y superada” Resolución del Parlamento Europeo, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica: «[…] desde el monstruo de Frankenstein creado por Mary Shelley al mito clásico de Pigmalión, pasando por el Golem de Praga o el robot de Karel Čapek —que fue quien acuñó el término—, los seres humanos han fantaseado siempre con la posibilidad de construir máquinas inteligentes, sobre todo androides con características humanas».

Estamos asistiendo a una nueva era, y al reto de apostar por una IA supervisada, segura, transparente, accesible, justa, responsable, que respete la privacidad y que mejore la humanidad. En las manos del Derecho y de la Ciencia está que las Tres Leyes de la Robótica enunciadas por Isaac Asimov en 1942 se cumplan.

Cristina Gil Membrado es codirectora de la colección IA, Robots y Bioderecho (Editorial Dykinson) @cgil3 

Cristina Gil Membrado
Catedrática de Derecho Civil de la Universidad de las Islas Baleares. Investigadora principal del proyecto Derecho y Medicina: desafíos tecnológicos y científicos (DEMETYC) del Ministerio de Ciencia e Innovación. Codirectora de la colección IA, Robots y Bioderecho (Editorial Dykinson) @cgil3

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí