martes, 30 de mayo de 2023

Inteligencia artificial en salud: ¿La diligencia media del algoritmo?

Cuando me puse a ordenar las ideas para escribir este artículo hice un rápido y superficial googleo de 3 palabras: “Inteligencia” “Artificial” y “Salud”. En la primera página de mi buscador apareció:

- Modelo de Inteligencia artificial capaz de predecir Alzheimer 5 años antes de su diagnóstico.

- Inteligencia artificial para el diagnóstico no invasivo de insuficiencia cardíaca.

- Inteligencia artificial podría predecir enfermedades óseas en bebé.

- Inteligencia artificial basada en electrocardiogramas es capaz de predecir supervivencia de pacientes tras cirugía cardíaca.

- Inteligencia artificial logra mejorar terapias de salud mental.

Es muy difícil imaginar el presente y el futuro de la salud disociado de la inteligencia artificial. Su real, actual y potencial impacto positivo en la calidad y capacidad de atención de salud es innegable.

Ahora, como ha ocurrido a lo largo de los años, todo cambio que tiene un impacto tan avasallador en nuestras vidas nos obliga a revisar y repensar muchas cosas. Desde el punto de vista legal, la dimensión de la responsabilidad es un tema ineludible.

En los primeros años de facultad de Derecho, aprendí que el médico no se obliga frente al paciente a un resultado determinado. Se obliga a hacer lo posible para lograr el resultado. Su obligación es de medios. Si el médico actúa con una determinada “diligencia media” cumple con su obligación, aunque no llegue al resultado querido.

¿Qué pasa si se equivoca un algoritmo? ¿Se puede equivocar un algoritmo? ¿Quién es responsable del perjuicio que se le genere al paciente? ¿El profesional de la salud que en realidad no tiene injerencia en el desarrollo del algoritmo? ¿El algoritmo tiene personalidad? ¿El algoritmo tiene patrimonio? ¿Puede ser responsable? ¿Será responsable el fabricante o el tester?

Incluso, cuando encontremos un argumento razonable para designar a alguien como responsable. ¿Cuál es su estándar de conducta? ¿Su obligación es de medios o de resultado? Si fuera de medios ¿Cuál es la diligencia que debería cumplir? ¿Es el mismo estándar con el que se mide la diligencia de un humano a la de un algoritmo?

Por otra parte, la realidad que nos avasalla nos lleva a otros cuestionamientos: ¿Será considerado mala praxis no utilizar inteligencia artificial en determinadas situaciones? ¿Estará fuera de la diligencia media?

No pretendo en este artículo dar respuesta a cada una de las preguntas planteadas, y muchas más que me surgen al pensar este tema. Sí voy a referirme a algunos puntos importantes que entiendo son relevantes y evaluar si nuestras normas actuales son suficientes para regular este tipo de situaciones, o si por el contrario hay que pensar en la construcción de nuevos institutos jurídicos.


1. La inteligencia artificial es muy útil, pero también puede causar daño.

La Organización Mundial de la Salud (“OMS”) expresó que: “La inteligencia artificial (IA) se refiere a la capacidad de algoritmos codificados en medios tecnológicos de aprender de los datos con el fin de realizar tareas automatizadas sin necesidad de que una persona programe explícitamente cada paso del proceso. La OMS reconoce que la IA es muy prometedora para la práctica de la salud pública y la medicina. La OMS también reconoce que, a fin de aprovechar plenamente los beneficios de la IA, es preciso abordar los problemas éticos que conlleva para los sistemas de atención de la salud, los profesionales sanitarios y los beneficiarios de los servicios médicos y de salud pública. Muchas de las preocupaciones éticas descritas en este informe son anteriores a la llegada de la IA, aunque la propia IA presenta una serie de nuevas inquietudes. El hecho de que la IA pueda favorecer los intereses de los pacientes y las comunidades dependerá de un empeño colectivo en diseñar e implementar leyes y políticas éticamente defendibles y tecnologías de IA cuyo diseño tenga en cuenta los principios éticos. También se presentan posibles consecuencias negativas graves si quienes financien, diseñen, regulen o utilicen las tecnologías de IA en el ámbito de la salud no otorgan prioridad a esos principios y a las obligaciones en materia de derechos humanos. Por lo tanto, las oportunidades y los desafíos de la IA están inextricablemente vinculados.” [1] (Los resaltados me pertenecen)

El algoritmo (por el momento) no es una persona reconocida legalmente. Sin embargo, es susceptible de causar daño, tal como lo plantea la OMS.

Uno de los ejemplos más repetidos de errores algorítmicos está vinculados a la calidad y cantidad de los datos. Los datos son manipulados y proporcionados por humanos. Los sesgos negativos, insuficiencia de información o mala calidad que contengan los datos son susceptibles de contagiar al algoritmo y llevarlo a adoptar decisiones equivocadas.


2. ¿El algoritmo sustituye al médico?

Por el momento, hay un consenso general en cuanto a que no hay una sustitución del prestador de salud. La inteligencia artificial es una herramienta, un insumo más que utiliza el profesional para tomar una decisión, pero no lo libera de las responsabilidades que implica su decisión.

Esta situación genera un compromiso muy importante para los prestadores de servicios de salud. No sólo tienen que conocer su profesión y estar actualizados. Sino que también tienen que conocer el funcionamiento de las herramientas de inteligencia artificial, su margen de error, eventuales sesgos, etc.

Tan conscientes deben ser, que deben poder explicarlo e informarlo al paciente cuando brinde su consentimiento informado para la atención médica.

Por otra parte, también genera un compromiso por parte de los fabricantes de crear productos transparentes y explicables, que faciliten su utilización y análisis.

Es fundamental que existan estándares de transparencia y explicabilidad que garantice determinado estándar de calidad de productos que se introduzcan al proceso de atención sanitaria.

A nivel de Unión Europea se establece una clasificación de las herramientas de inteligencia artificial, estableciendo un estándar mayor de seguridad a las que sean consideradas de alto riesgo.


3. ¿La responsabilidad objetiva del fabricante contempla todas las hipótesis?

En general, los ordenamientos jurídicos de diferentes países cuentan con un régimen de responsabilidad de fabricantes de productos. Se plantea una responsabilidad objetiva por los perjuicios que puedan causar al consumidor los productos que introduzcan en el mercado.

Nos preguntamos si en el caso de eventual mala praxis en el que se involucre una herramienta de inteligencia artificial, puede ser resuelta aplicando la responsabilidad del fabricante.

A nuestro entender, esta normativa no es suficiente para contemplar todas las hipótesis. Son muchas las variables que pueden involucrar un “error” del producto. Un ejemplo claro puede ocurrir en caso que la mala praxis se genere por un sesgo de la información utilizada para el entrenamiento en la inteligencia artificial, cuestión que no tiene vinculación alguna con el desarrollo del producto.


4. ¿Hay otro estándar de diligencia media?

Las normas que regulan la responsabilidad de profesionales de salud disponen un estándar de “diligencia media.” De acuerdo con lo que venimos viendo, esa diligencia ya no es la del pasado. El impacto de la inteligencia artificial es tan revolucionario, que no parece descabellado afirmar que parte de esa diligencia comprende (o irá incorporando poco a poco) la necesidad de utilizar y entender el funcionamiento de la inteligencia artificial. Adaptarse a otro modelo de ejercicio de la profesión.

Entonces, es importante preguntarse, ¿Cuál va a ser la vara que va a medir la diligencia media? ¿Quién lo va a determinar? ¿Cuál es el límite entre la responsabilidad del prestador de salud y de la herramienta?


5. Consideraciones finales

Con el presente artículo no pretendo abarcar todos los aspectos del impacto legal de la inteligencia artificial en la eventual responsabilidad de los prestadores de alud. Sí pretendo llamar la atención en determinadas preguntas, que nos obliguen a repensar la regulación.

A mi modo de ver la revolución tecnológica nos obliga a pensar nuevos institutos legales que contemplen esta nueva realidad. También nos desafía y rompe algunos de los cimientos de nuestra construcción como profesionales. ¿Puede una herramienta tener personalidad jurídica y patrimonio propio? ¿Es viable la generación de estándares generales en el desarrollo de inteligencia artificial?¿Quién va a controlar que se cumplan? ¿Sera necesario pensar para determinados desarrollos la necesidad de crear sistemas de seguros obligatorios, como ocurre ya en otras actividades con riesgo, como los accidentes de trabajo y accidentes de tránsito?

Seguramente se les ocurran muchas más. De lo que no hay duda es que hay que pensarlo ya.



Fuente: Abogados.com.ar

No hay comentarios.:

Publicar un comentario

Los comentarios con contenido inapropiado no serán publicados. Si lo que Usted quiere es realizar una consulta, le pedimos por favor lo haga a través del link de Contacto que aparece en este blog. Muchas gracias