jueves, 1 de junio de 2023

La OMS propugna un uso seguro y ético de la inteligencia artificial para la salud

La Organización Mundial de la Salud (OMS) pide precaución en el uso de herramientas que se sirven de grandes modelos lingüísticos generados por inteligencia artificial (IA) con el fin de proteger y promover la seguridad, autonomía y bienestar de las personas, y preservar la salud pública.

Entre dichas herramientas se cuentan algunas de las plataformas más pujantes, como ChatGPT, Bard, Bert y muchas otras que imitan el razonamiento, los procesos y la producción de la comunicación humana. Su meteórica difusión pública y creciente uso experimental en el ámbito de la salud está generando un considerable entusiasmo en torno a su potencial para atender necesidades de salud.

Es imperativo examinar cuidadosamente los riesgos que conlleva utilizar dichos modelos lingüísticos en la mejora del acceso a la información de salud, como herramienta de apoyo a la toma de decisiones, o incluso para fomentar la capacidad de diagnóstico en entornos de escasos recursos con el fin de proteger la salud de las personas y reducir la inequidad.

Si bien la OMS es partidaria entusiasta del uso adecuado de tecnologías, incluidos los grandes modelos lingüísticos, en apoyo del personal de salud, los pacientes, la investigación y la ciencia, ha manifestado su inquietud por si las precauciones que normalmente se tienen ante toda nueva tecnología, no se aplican sistemáticamente con los grandes modelos lingüísticos. Ello incluye la observancia generalizada de valores fundamentales como la transparencia, la inclusión, la colaboración pública, la supervisión de expertos y el rigor en las evaluaciones.

La adopción precipitada de sistemas no comprobados podría inducir a errores por el personal de salud, causar daños a los pacientes, erosionar la confianza en la IA y, por tanto, socavar (o retrasar) los posibles beneficios y usos a largo plazo de tales tecnologías en todo el mundo.

A continuación se indican algunas de las inquietudes que un examen riguroso, necesario para que las tecnologías se utilicen de manera segura, eficaz y ética.

  • Los datos utilizados para entrenar la IA pueden estar sesgados, lo que generaría información engañosa o inexacta que podría plantear riesgos para la salud, la equidad y la inclusividad.
  • Los grandes modelos lingüísticos generan respuestas que pueden parecen autorizadas y  plausibles para el usuario final; pero cabe la posibilidad de que las respuestas sean totalmente incorrectas o que contengan errores graves, especialmente las vinculadas con la salud. 
  • Puede que los grandes modelos lingüísticos estén entrenados con datos para cuyo uso no se haya obtenido consentimiento previo, y que no protejan los datos confidenciales (en particular los datos de salud) que un usuario introduzca en una aplicación para generar una respuesta.
  • Puede que tales modelos se utilicen indebidamente para generar y difundir desinformación  muy convincente en forma de contenido textual o audiovisual que el público no puede distinguir fácilmente de contenidos de salud fidedignos. 
  • Si bien la OMS tiene el compromiso de aprovechar las nuevas tecnologías, como la IA y la salud digital, para mejorar la salud humana, recomienda a las instancias normativas que garanticen la seguridad y protección del paciente, a la par que las empresas tecnológicas se afanan por comercializar los grandes modelos lingüísticos.

La OMS propone tener en cuenta tales inquietudes y evaluar las pruebas que demuestren inequívocamente los beneficios de estas tecnologías antes de que pasen a utilizarse de forma generalizada en los servicios ordinarios de atención de salud y en la medicina, ya sea por particulares, proveedores de atención o administradores de sistemas de salud o instancias normativas.

La OMS reitera la importancia de aplicar los principios éticos y la gobernanza adecuada, enumerados en sus orientaciones sobre Ética y gobernanza de la inteligencia artificial en el ámbito de la salud (en inglés), que son fundamentales en la formulación, desarrollo y despliegue de la IA en el ámbito de la salud.

Los seis principios fundamentales establecidos por la OMS son: 1) proteger la autonomía; 2) promover el bienestar y la seguridad de las personas y el interés público; 3) garantizar la transparencia, la claridad y la inteligibilidad; 4) promover la responsabilidad y la rendición de cuentas; 5) garantizar la inclusividad y la equidad; 6) promover una IA con capacidad de respuesta y sostenible. 



Fuente: Organización Mundial de la Salud

miércoles, 31 de mayo de 2023

Inteligencia artificial y salud mental: cómo puede esta tecnología ayudar a resolver una epidemia global

Los problemas vinculados a la salud mental son cada vez más comunes en todo el mundo. Los sistemas de salud reciben millones de pacientes. Cómo puede utilizarse la IA en este contexto.


Hay una epidemia global que se ha estado gestando silenciosamente durante las últimas décadas. Esta epidemia hace referencia nada menos que al crecimiento exponencial de los problemas de salud mental en todo el mundo, que ahora está atrayendo una atención significativa debido a sus catastróficas consecuencias.

La Administración de Servicios de Salud Mental y Abuso de Sustancias (SAMHSA) del Departamento de Salud y Servicios Humanos de los Estados Unidos publicó un informe innovador en 2020, destacando los efectos devastadores de los trastornos mentales y por uso de sustancias (M/SUD). El análisis de SAMHSA encontró que "se espera que el gasto en tratamiento M/SUD de todas las fuentes públicas y privadas ascienda a un total de US$ 280.500 millones en 2020, lo que representa un aumento de US$ 171.700 millones en 2009". 

Más importante aún, los problemas de salud mental suponen una carga importante para los propios pacientes, crean desafíos incalculables para las familias y las estructuras de atención y, lamentablemente, provocan la pérdida de numerosas vidas debido a enfermedades irreconciliables. De hecho, ninguna cantidad de dinero o análisis económico puede cuantificar el costo físico y emocional que conllevan las enfermedades de salud mental.

A principios de este mes, el Cirujano General de EE.UU., Vivek Murthy, publicó un informe de asesoramiento titulado "Nuestra epidemia de soledad y aislamiento", destacando las importantes preocupaciones de salud pública causadas por problemas de salud mental. Aborda específicamente la soledad y la falta de conexión social entre las principales preocupaciones y analiza su viaje para reconocerlos como problemas.

“La soledad es mucho más que un mal sentimiento: daña la salud tanto individual como social. Se asocia con un mayor riesgo de enfermedad cardiovascular, demencia, accidente cerebrovascular, depresión, ansiedad y muerte prematura. El impacto en la mortalidad de estar desconectado socialmente es similar al causado por fumar hasta 15 cigarrillos al día e incluso mayor que el asociado con la obesidad y la inactividad física”, destaca Murthy. Y agrega: “Y las consecuencias dañinas de una sociedad que carece de conexión social se pueden sentir en nuestras escuelas, lugares de trabajo y organizaciones cívicas, donde el desempeño”.


El uso de inteligencia artificial en la salud mental

Afortunadamente, una mayor conciencia sobre la salud mental ha introducido una innovación e inversión significativas en nuevos remedios y modalidades de tratamiento. Uno de esos conceptos novedosos es el uso de la inteligencia artificial en el espacio de la salud mental.

Con el advenimiento de la IA generativa, la IA conversacional y el procesamiento del lenguaje natural, la idea de utilizar sistemas de inteligencia artificial para brindar compañía humana se ha convertido en algo común.

Google Cloud, que está a la vanguardia del desarrollo de soluciones escalables de IA, proporciona un análisis en profundidad de lo que es la IA conversacional: “La IA conversacional funciona mediante el uso de una combinación de procesamiento de lenguaje natural (NLP) y aprendizaje automático (ML). Los sistemas de IA conversacional están entrenados en grandes cantidades de datos, como texto y voz. Estos datos se utilizan para enseñar al sistema cómo comprender y procesar el lenguaje humano. Luego, el sistema utiliza este conocimiento para interactuar con los humanos de forma natural. Está aprendiendo constantemente de sus interacciones y mejorando la calidad de su respuesta con el tiempo”.

 Esto significa que con suficientes datos, capacitación e interacciones, está dentro del alcance de la realidad plausible que estos sistemas no solo puedan replicar el lenguaje humano, sino que eventualmente puedan utilizar miles de millones de puntos de datos y pautas basadas en evidencia para brindar potencialmente asesoramiento médico y terapia.

Sin duda, compañías como Google, Amazon y Microsoft están invirtiendo miles de millones de dólares en esta misma tecnología, al darse cuenta de que están a solo pasos de replicar el lenguaje y la conversación humanos. Una vez que estas empresas puedan perfeccionar esto, el potencial es ilimitado: todo, desde el servicio al cliente hasta el compañerismo y las relaciones humanas, puede convertirse en impulsado por la IA.

De hecho, ya hay sistemas de prueba que existen. Tomemos por ejemplo Pi, un sistema de inteligencia artificial personal desarrollado por la empresa Inflection AI. “Pi fue creado para brindar a las personas una nueva forma de expresarse, compartir sus curiosidades, explorar nuevas ideas y experimentar una IA personal confiable", destaca Mustafa Suleyman, CEO y cofundador de Inflection AI. Y explica: “Pi es un nuevo tipo de IA, que no solo es inteligente sino que también tiene un buen ecualizador. Pensamos en Pi como un compañero digital disponible siempre que desee aprender algo nuevo, cuando necesite una caja de resonancia para hablar sobre un momento difícil en su día, o simplemente pasar el tiempo con una contraparte curiosa y amable”. 

Junto a Suleyman, el otro cofundador de Inflection AI es Reid Hoffman, quien también cofundó la empresa de redes profesionales, LinkedIn. Inflection AI ha recaudado cientos de millones de dólares en fondos iniciales para respaldar su tecnología.

Sin embargo, esta increíble tecnología trae consigo muchas preocupaciones potenciales. Si bien la inteligencia artificial ciertamente tiene la capacidad de resolver posibles inequidades de acceso, brindar servicios de atención médica de manera conveniente e incluso brindar compañía a quienes más lo necesitan, debe desarrollarse con medidas de seguridad por numerosas razones.

Por un lado, en un ámbito tan sensible como la salud mental, la privacidad del paciente y la seguridad de los datos deben ser de suma importancia. El uso de la tecnología de inteligencia artificial en esta capacidad significa que también se recopilará una cantidad significativa de información confidencial del paciente. Los desarrolladores deben asegurarse de que estos datos nunca se vean comprometidos y que la privacidad del paciente sea siempre la máxima prioridad, especialmente en medio de un panorama de crecientes amenazas de ciberseguridad.

Además, quizás la preocupación más importante sea existencial: ¿hasta dónde debería llegar la humanidad con esto? Si bien los beneficios de la IA son ciertamente numerosos, los innovadores deben tener cuidado con las limitaciones de estos sistemas. En particular, los sistemas son tan buenos como los modelos y los conjuntos de datos de los que pueden aprender, lo que significa que, en las manos equivocadas, estos sistemas podrían proporcionar recomendaciones incorrectas o peligrosas a las poblaciones vulnerables. Por lo tanto, las corporaciones deben hacer cumplir prácticas estrictas en torno al desarrollo responsable .

Finalmente, como comentario social general, combatir los problemas de salud mental y una epidemia de soledad mediante el uso de sistemas de inteligencia artificial sienta un peligroso precedente. Ningún sistema puede (todavía) replicar las complejidades de la naturaleza humana, la interacción, la emoción y el sentimiento. Los líderes, reguladores e innovadores de la atención de la salud deben recordar este principio subyacente y deben priorizar medidas viables y sostenibles para resolver la crisis de salud mental, como capacitar a más profesionales de la salud mental y aumentar el acceso de los pacientes a la atención.

En última instancia, cualquiera que sea la solución, el momento de actuar es ahora, antes de que esta epidemia se vuelva demasiado catastrófica para manejar.



Fuente: Forbes Argentina

martes, 30 de mayo de 2023

Inteligencia artificial en salud: ¿La diligencia media del algoritmo?

Cuando me puse a ordenar las ideas para escribir este artículo hice un rápido y superficial googleo de 3 palabras: “Inteligencia” “Artificial” y “Salud”. En la primera página de mi buscador apareció:

- Modelo de Inteligencia artificial capaz de predecir Alzheimer 5 años antes de su diagnóstico.

- Inteligencia artificial para el diagnóstico no invasivo de insuficiencia cardíaca.

- Inteligencia artificial podría predecir enfermedades óseas en bebé.

- Inteligencia artificial basada en electrocardiogramas es capaz de predecir supervivencia de pacientes tras cirugía cardíaca.

- Inteligencia artificial logra mejorar terapias de salud mental.

Es muy difícil imaginar el presente y el futuro de la salud disociado de la inteligencia artificial. Su real, actual y potencial impacto positivo en la calidad y capacidad de atención de salud es innegable.

Ahora, como ha ocurrido a lo largo de los años, todo cambio que tiene un impacto tan avasallador en nuestras vidas nos obliga a revisar y repensar muchas cosas. Desde el punto de vista legal, la dimensión de la responsabilidad es un tema ineludible.

En los primeros años de facultad de Derecho, aprendí que el médico no se obliga frente al paciente a un resultado determinado. Se obliga a hacer lo posible para lograr el resultado. Su obligación es de medios. Si el médico actúa con una determinada “diligencia media” cumple con su obligación, aunque no llegue al resultado querido.

¿Qué pasa si se equivoca un algoritmo? ¿Se puede equivocar un algoritmo? ¿Quién es responsable del perjuicio que se le genere al paciente? ¿El profesional de la salud que en realidad no tiene injerencia en el desarrollo del algoritmo? ¿El algoritmo tiene personalidad? ¿El algoritmo tiene patrimonio? ¿Puede ser responsable? ¿Será responsable el fabricante o el tester?

Incluso, cuando encontremos un argumento razonable para designar a alguien como responsable. ¿Cuál es su estándar de conducta? ¿Su obligación es de medios o de resultado? Si fuera de medios ¿Cuál es la diligencia que debería cumplir? ¿Es el mismo estándar con el que se mide la diligencia de un humano a la de un algoritmo?

Por otra parte, la realidad que nos avasalla nos lleva a otros cuestionamientos: ¿Será considerado mala praxis no utilizar inteligencia artificial en determinadas situaciones? ¿Estará fuera de la diligencia media?

No pretendo en este artículo dar respuesta a cada una de las preguntas planteadas, y muchas más que me surgen al pensar este tema. Sí voy a referirme a algunos puntos importantes que entiendo son relevantes y evaluar si nuestras normas actuales son suficientes para regular este tipo de situaciones, o si por el contrario hay que pensar en la construcción de nuevos institutos jurídicos.


1. La inteligencia artificial es muy útil, pero también puede causar daño.

La Organización Mundial de la Salud (“OMS”) expresó que: “La inteligencia artificial (IA) se refiere a la capacidad de algoritmos codificados en medios tecnológicos de aprender de los datos con el fin de realizar tareas automatizadas sin necesidad de que una persona programe explícitamente cada paso del proceso. La OMS reconoce que la IA es muy prometedora para la práctica de la salud pública y la medicina. La OMS también reconoce que, a fin de aprovechar plenamente los beneficios de la IA, es preciso abordar los problemas éticos que conlleva para los sistemas de atención de la salud, los profesionales sanitarios y los beneficiarios de los servicios médicos y de salud pública. Muchas de las preocupaciones éticas descritas en este informe son anteriores a la llegada de la IA, aunque la propia IA presenta una serie de nuevas inquietudes. El hecho de que la IA pueda favorecer los intereses de los pacientes y las comunidades dependerá de un empeño colectivo en diseñar e implementar leyes y políticas éticamente defendibles y tecnologías de IA cuyo diseño tenga en cuenta los principios éticos. También se presentan posibles consecuencias negativas graves si quienes financien, diseñen, regulen o utilicen las tecnologías de IA en el ámbito de la salud no otorgan prioridad a esos principios y a las obligaciones en materia de derechos humanos. Por lo tanto, las oportunidades y los desafíos de la IA están inextricablemente vinculados.” [1] (Los resaltados me pertenecen)

El algoritmo (por el momento) no es una persona reconocida legalmente. Sin embargo, es susceptible de causar daño, tal como lo plantea la OMS.

Uno de los ejemplos más repetidos de errores algorítmicos está vinculados a la calidad y cantidad de los datos. Los datos son manipulados y proporcionados por humanos. Los sesgos negativos, insuficiencia de información o mala calidad que contengan los datos son susceptibles de contagiar al algoritmo y llevarlo a adoptar decisiones equivocadas.


2. ¿El algoritmo sustituye al médico?

Por el momento, hay un consenso general en cuanto a que no hay una sustitución del prestador de salud. La inteligencia artificial es una herramienta, un insumo más que utiliza el profesional para tomar una decisión, pero no lo libera de las responsabilidades que implica su decisión.

Esta situación genera un compromiso muy importante para los prestadores de servicios de salud. No sólo tienen que conocer su profesión y estar actualizados. Sino que también tienen que conocer el funcionamiento de las herramientas de inteligencia artificial, su margen de error, eventuales sesgos, etc.

Tan conscientes deben ser, que deben poder explicarlo e informarlo al paciente cuando brinde su consentimiento informado para la atención médica.

Por otra parte, también genera un compromiso por parte de los fabricantes de crear productos transparentes y explicables, que faciliten su utilización y análisis.

Es fundamental que existan estándares de transparencia y explicabilidad que garantice determinado estándar de calidad de productos que se introduzcan al proceso de atención sanitaria.

A nivel de Unión Europea se establece una clasificación de las herramientas de inteligencia artificial, estableciendo un estándar mayor de seguridad a las que sean consideradas de alto riesgo.


3. ¿La responsabilidad objetiva del fabricante contempla todas las hipótesis?

En general, los ordenamientos jurídicos de diferentes países cuentan con un régimen de responsabilidad de fabricantes de productos. Se plantea una responsabilidad objetiva por los perjuicios que puedan causar al consumidor los productos que introduzcan en el mercado.

Nos preguntamos si en el caso de eventual mala praxis en el que se involucre una herramienta de inteligencia artificial, puede ser resuelta aplicando la responsabilidad del fabricante.

A nuestro entender, esta normativa no es suficiente para contemplar todas las hipótesis. Son muchas las variables que pueden involucrar un “error” del producto. Un ejemplo claro puede ocurrir en caso que la mala praxis se genere por un sesgo de la información utilizada para el entrenamiento en la inteligencia artificial, cuestión que no tiene vinculación alguna con el desarrollo del producto.


4. ¿Hay otro estándar de diligencia media?

Las normas que regulan la responsabilidad de profesionales de salud disponen un estándar de “diligencia media.” De acuerdo con lo que venimos viendo, esa diligencia ya no es la del pasado. El impacto de la inteligencia artificial es tan revolucionario, que no parece descabellado afirmar que parte de esa diligencia comprende (o irá incorporando poco a poco) la necesidad de utilizar y entender el funcionamiento de la inteligencia artificial. Adaptarse a otro modelo de ejercicio de la profesión.

Entonces, es importante preguntarse, ¿Cuál va a ser la vara que va a medir la diligencia media? ¿Quién lo va a determinar? ¿Cuál es el límite entre la responsabilidad del prestador de salud y de la herramienta?


5. Consideraciones finales

Con el presente artículo no pretendo abarcar todos los aspectos del impacto legal de la inteligencia artificial en la eventual responsabilidad de los prestadores de alud. Sí pretendo llamar la atención en determinadas preguntas, que nos obliguen a repensar la regulación.

A mi modo de ver la revolución tecnológica nos obliga a pensar nuevos institutos legales que contemplen esta nueva realidad. También nos desafía y rompe algunos de los cimientos de nuestra construcción como profesionales. ¿Puede una herramienta tener personalidad jurídica y patrimonio propio? ¿Es viable la generación de estándares generales en el desarrollo de inteligencia artificial?¿Quién va a controlar que se cumplan? ¿Sera necesario pensar para determinados desarrollos la necesidad de crear sistemas de seguros obligatorios, como ocurre ya en otras actividades con riesgo, como los accidentes de trabajo y accidentes de tránsito?

Seguramente se les ocurran muchas más. De lo que no hay duda es que hay que pensarlo ya.



Fuente: Abogados.com.ar

lunes, 29 de mayo de 2023

Beneficios y desafíos: cómo impacta la inteligencia artificial en la gestión hospitalaria

No propone reemplazar a profesionales sanitarios, sino gestionar mejor los espacios, identificar oportunidades de ahorro en compra de insumos y a la vez generar datos. La experiencia en Argentina.



La aplicación de la Inteligencia Artificial (IA) en el campo de la medicina es aceptada y reconocida para complementar las tareas de los profesionales de la salud. Un ejemplo conocido es el robot Da Vinci, sistema empleado en el quirófano para optimizar el rango de acción de la mano humana. También la IA se emplea para acelerar el diagnóstico de ciertos tumores, en la fertilización asistida y la cardiología, entre otros campos. Pero también avanza la IA y la analítica de datos en materia de gestión hospitalaria, lo que permite automatizar los procesos; emplear modelos predictivos en materia de ingresos de pacientes o programación de cirugías; identificar oportunidades de ahorro, por ejemplo en la compra de insumos médicos y además reducir el estrés del personal, ya que en tiempos de burnout, estas herramientas pueden servir para liberar a los profesionales de las tareas administrativas y repetitivas, para así pueden concentrar sus energías en el paciente.

Pero para incorporarla, además de recursos se necesita contar con una cultura de la digitalización integral, ya que si se digitalizan tareas por separado, pueden pronto quedar obsoletas. Este y otros desafíos – como el uso del ChatGPT en salud– fueron los temas centrales del Summit AI40Ps, evento híbrido organizado por el Hospital Alemán y Wúru, del que participó IntraMed.

El encuentro se centró en la idea de que la IA no propone reemplazar a los médicos, sino ayudar con la organización para que en efecto, los humanos puedan “enfocarse en las tareas más complejas y ofrecer una atención cada vez más humana a los pacientes”, según indicaron los organizadores en un comunicado.

El primer expositor fue el doctor Rudolph Baron Buxhoeveden, cirujano del Hospital Alemán  quien compartió la eficacia de la IA en la gestión sus diez quirófanos, en los cuales se digitaliza desde la agenda (programación de la cirugía) hasta la facturación.

“Cuando los procesos analógicos se digitalizan, generan datos que pueden usarse para mejorar la experiencia, pero hoy en materia de gestión en salud solo el 3% de los datos que se generan,  se usan. Por eso hoy tenemos el desafío de pasar del Big Data al Smart Data”, indicó el médico para luego agregar que cuando se habla de inteligencia artificial en el sector salud, “en realidad se habla de inteligencia aumentada, por eso, a la hora de elegir herramientas, se debe optar por sistemas fáciles, inteligentes e integrales (para que puedan sumarse a las tecnologías previas disponibles en el hospital”.

En su experiencia, la IA ayudó a convencer a los médicos a la hora de agendar cirugías para optimizar los tiempos. A la vez, también al reemplazar la farmacia del quirófano por una suerte de dispensario digital que abre las ventanas de lo que pueda necesitarse, ayudó a reducir el desperdicio de insumos y a registrar lo que efectivamente se usa (porque identifica lo que no vuelve). También las pantallas táctiles tienen potencial para registrar información para avanzar hacia la Smart Data.

“Cabe aclarar que la IA es una herramienta más, pero no viene a reemplazar al personal sanitario, sino más bien para cubrir un déficit. La Organización Mundial de la Salud (OMS) calcula que para 2030 van a faltar 10 millones de profesionales sanitarios”, argumentó Buxhoeveden.

La frase va en concordancia con datos de la Cepal (Comisión Económica para América Latina y El Caribe), que señalan que en el continente, la segmentación de los sistemas de salud, la atención y organización fragmentada, con problemas de coordinación, genera desigualdades en el acceso, calidad y financiamiento de la salud. Tal vez por ello la incorporación de la IA forma parte de los ocho principios para la transformación digital del sector salud que la Organización Panamericana de la Salud destinó a los países de la Región de las Américas. Así como también, la interoperabilidad de los sistemas de información y salud digital y la seguridad de la información.


Fuente: Intramed