Los chatbots, como el ChatGPT, pueden usarse para buscar datos en historias clínicas y tomar decisiones para dar acceso a camas, ensayos clínicos, y tratamientos, entre otras opciones. Cuáles son los riesgos.
El uso de la inteligencia artificial en la salud y la medicina fue ganando seguidores durante los últimos quince años. En la actualidad, se usan aplicaciones para saber cuántos pasos se hacen por día, practicar meditación o acceder a sesiones de terapia cognitivo-conductual, entre otros aspectos.
Sin embargo, ahora la disponibilidad de chatbots sofisticados, que son impulsados por programas como ChatGPT, abre la puerta a que la inteligencia artificial se convierta en una fuente primaria a la hora de dar diagnósticos médicos e indicar tratamientos. Esta realidad despierta dos preguntas esenciales: ¿se podría alterar la relación entre médicos y pacientes? y, sobre todo, ¿esto puede implicar riesgos para la atención médica?
El Chat GPT es un modelo lingüístico que se ha entrenado con volúmenes masivos de textos de Internet. Intenta imitar el texto humano y puede desempeñar diversas funciones en la investigación sanitaria y de la salud. Recientemente, se desarrolló Stability AI, una plataforma que también genera contenido a través de textos con el objetivo de pelear “mano a mano” con la herramienta de OpenAI.
Con la nueva tecnología, los modelos lingüísticos empiezan a mostrar su capacidad para asumir tareas que antes solo estaban reservadas a profesionales. Esto ha generado conversaciones y hasta debates entre los médicos sobre cómo la tecnología puede ayudarles a atender a los pacientes.
Los profesionales de la medicina esperan que los modelos puedan usar información de las historias clínicas digitales o dar a los pacientes resúmenes de notas técnicas extensas. Sin embargo, también existe el temor de que puedan engañar a los médicos o brindar respuestas inexactas que conduzcan a un diagnóstico o plan de tratamiento incorrectos.
Robert Pearl, profesor de la Facultad de Medicina de la Universidad de Stanford, fue director general de Kaiser Permanente, un grupo médico de Estados Unidos con más de 12 millones de pacientes. Según sostuvo, lo médicos deberían utilizar ChatGPT en sus consultas. “Será más importante para los médicos de lo que lo fue el estetoscopio en el pasado”, señaló a la revista Wired.
Las empresas que desarrollan tecnología de inteligencia artificial han convertido los exámenes de las facultades de medicina en una referencia en la competencia por construir sistemas más capaces.
El año pasado, Microsoft Research presentó BioGPT, un modelo de lenguaje que obtuvo altas puntuaciones en una serie de tareas médicas. Además, un documento de OpenAI del Hospital General de Massachusetts y AnsibleHealth afirmaba que ChatGPT puede alcanzar o superar el 60% de aprobados en el examen de licencia médica de Estados Unidos.
Semanas más tarde, los investigadores de Google y DeepMind presentaron Med-PaLM, que logró un 67 por ciento de precisión en la misma prueba, aunque también escribieron que, aunque alentadores, sus resultados “siguen siendo inferiores a los clínicos”.
Microsoft y uno de los mayores proveedores de software sanitario del mundo, Epic Systems, han anunciado planes para utilizar el GPT-4 de OpenAI, en el que se basa ChatGPT, para buscar tendencias en los historias clínicas electrónicas.
Consultada por la revista Wired, Heather Mattie, profesora de salud pública de la Universidad de Harvard que estudia el impacto de la IA en la atención sanitaria, confesó que quedó impresionada la primera vez que utilizó ChatGPT. Y pidió un resumen de cómo se ha utilizado el modelado de las conexiones sociales para estudiar el VIH, un tema que ella investiga.
Pero la experta de Harvard también señaló limitaciones. Puede ser una herramienta útil para tareas como resumir un texto. Aunque hay que considerar que el bot puede no acertar al cien por cien y que puede generar resultados sesgados.
A la doctora Mattie le preocupa, especialmente, el trato que ChatGPT da a las herramientas de diagnóstico de enfermedades cardiovasculares y de puntuación de lesiones en cuidados intensivos, que tienen un historial de sesgos raciales y de género. También advirtió que ChatGPT en un entorno clínico a veces inventa hechos y no deja en claro de dónde y qué fecha tiene la información que utiliza.
Los usuarios también deberían tener cuidado con el hecho de que los bots del estilo de ChatGPT puedan presentar información fabricada, advierten los expertos. Esto puede conducir a errores graves si una persona no comprueba los hechos en las respuestas de un algoritmo. Siendo que el texto generado por la inteligencia artificial puede influir en los humanos de forma sutil.
Un estudio publicado en enero, que no ha sido revisado por pares, planteaban preguntas éticas a ChatGPT y concluyó que el chatbot es un consejero moral incoherente. Pero que puede influir en la toma de decisiones humanas incluso cuando las personas saben que el consejo procede de un software de inteligencia artificial.
Trabajar como médico es mucho más que decidir en base a conocimientos médicos enciclopédicos. Por eso, algunos expertos en bioética están preocupados por la posibilidad de que los médicos pidan consejo al bot cuando se enfrenten a una decisión ética difícil.
Por ejemplo, se podría usar para elegir qué pacientes pueden acceder a diálisis renal o a camas de cuidados intensivos, cuáles podrían ser participantes en ensayos clínicos o decidir si se hace una cirugía en caso de que un paciente tenga pocas probabilidades de supervivencia o recuperación.
Jamie Webb, bioeticista del Centro de Futuros Tecnomorales de la Universidad de Edimburgo, en el Reino Unido, y un equipo de psicólogos morales estudiaron qué haría falta para crear un “asesor moral” basado en inteligencia artificial para su uso en medicina. Se inspiraron en investigaciones anteriores que sugerían la idea.
Webb y sus coautores llegaron a la conclusión de que sería difícil que estos sistemas equilibraran de forma fiable distintos principios éticos. Identificaron el riesgo de que los médicos y otros profesionales pudieran sufrir una “descalificación moral” si dependieran excesivamente de un robot en lugar de pensar ellos mismos las decisiones difíciles.
Webb señaló que a los médicos ya se les ha dicho que la inteligencia artificial que procesa el lenguaje revolucionará su trabajo, pero se han llevado una decepción. Después de ganar Jeopardy en 2010 y 2011, la división Watson de IBM se dedicó a la oncología e hizo afirmaciones sobre la eficacia de la IA en la lucha contra el cáncer.Pero esa solución no tuvo tanto éxito en entornos clínicos como sugería la publicidad, y la empresa IBM cerró el proyecto en 2020.
En tanto, Keymanthri Moodley, del Centro de Ética Médica y Ley de la Universidad Stellenbosch, en Sudáfrica, y Stuart Rennie, profesor de la Universidad de Carolina del Norte, en Chapel Hill (Estados Unidos) escribieron un artículo en The Conversation en el que advirtieron que el uso de ChatGPT conlleva el riesgo de cometer violaciones de la privacidad.
El éxito y la eficacia de la IA dependen del aprendizaje automático. Esto requiere que los datos se retroalimenten constantemente en las redes neuronales de los chatbots. Si se introduce en ChatGPT información identificable del paciente, esos datos pasan a formar parte de la información que el chatbot utilizará en el futuro.
De este modo, advirtieron, puede ser vulnerable a su divulgación a terceros, siendo que la confidencialidad de la información del paciente es la base de la confianza en la relación médico-paciente.
Fuente: Infobae
No hay comentarios.:
Publicar un comentario
Los comentarios con contenido inapropiado no serán publicados. Si lo que Usted quiere es realizar una consulta, le pedimos por favor lo haga a través del link de Contacto que aparece en este blog. Muchas gracias