¿Puede la IA mejorar la atención sanitaria?
15 de enero de 2024Un sistema de inteligencia artificial (IA) entrenado para realizar entrevistas médicas ha igualado o incluso superado el rendimiento de algunos profesionales sanitarios al conversar con pacientes en una simulación, destaca una nota publicada por la revista Nature. El sistema también ha sido capaz de enumerar posibles diagnósticos basándose en el historial médico de los pacientes participantes.
Este chatbot, basado en un modelo de lenguaje de gran tamaño (LLM, por sus siglas en inglés) desarrollado por la empresa estadounidense Google, fue más preciso que los médicos de atención primaria certificados en el diagnóstico de afecciones respiratorias y cardiovasculares, entre otras patologías.
Así, en comparación con los médicos habituales, la IA consiguió adquirir una cantidad similar de información durante las entrevistas médicas y obtuvo mejores resultados en empatía, destacan en Nature.
Resultados sorprendentes
El sistema de IA igualó o superó la precisión diagnóstica de los médicos en las seis especialidades médicas tratadas durante la investigación. "El robot superó a los médicos especialistas en 24 de los 26 criterios en los valores de calidad de la conversación, como cortesía, explicación de la enfermedad y el tratamiento, sinceridad y expresión de interés y compromiso", destaca el estudio.
"Esto no significa en absoluto que un modelo lingüístico sea mejor que los médicos a la hora de elaborar el historial clínico", afirma Alan Karthikesalingam, científico de investigación clínica de Google Health en Londres y coautor de este estudio. "Sino más bien que los médicos de atención primaria del estudio probablemente no estaban acostumbrados a interactuar con los pacientes a través de un chat basado en texto, lo que podría haber afectado a su rendimiento.
Primer paso hacia un diagnóstico más preciso
Denominado Articulate Medical Intelligence Explorer (AMIE), este chatbot de Google es aún puramente experimental ya que no se ha probado con personas que padecen problemas de salud reales, sino con participantes entrenados para representar a individuos con problemas médicos.
"Queremos que los resultados se interpreten con cautela y humildad", afirma Karthikesalingam.
"Que sepamos, es la primera vez que un sistema de IA conversacional se diseña de forma óptima para el diálogo diagnóstico y la elaboración del historial clínico", sostiene.
"Democratización" de la sanidad
Los autores del estudio recalcan que con el tiempo, este chatbot podría desempeñar un papel en la "democratización de la atención sanitaria". No obstante, aunque podría ser una herramienta útil, no debería sustituirse a las interacciones físicas con médicos, afirma Adam Rodman, médico internista de la Facultad de Medicina de Harvard en Boston (Massachusetts, Estados Unidos).
"La medicina es mucho más que recopilar información: se trata de relaciones humanas", sostiene Rodman en declaraciones recogidas por Nature.
Conversaciones médicas
Uno de los retos a los que se enfrentaron los desarrolladores fue la escasez de conversaciones con médicos reales disponibles y que pudieran ser utilizadas como datos para la herramienta, afirma Vivek Natarajan, científico investigador de IA en Google Health en Mountain View, California, y coautor del estudio. Para resolver este problema, se ideó una forma de que el chatbot se entrenara con sus propias "conversaciones".
Se usaron historiales médicos electrónicos y conversaciones médicas transcritas, así como interpretaciones del papel de una persona con una dolencia concreta y el de un médico "empático" para intentar comprender el historial de la persona e idear un diagnósito, o hasta el de un crítico que evalúa la interacción del médico con la persona tratada.
Los investigadores reclutaron a 20 personas que habían sido entrenadas para hacerse pasar por pacientes y les hicieron realizar consultas en línea de forma textual, tanto con el chatbot AMIE como con 20 médicos colegiados, pero sin decirles si hablaban con un humano o con un robot. Los participantes simularon 149 escenarios clínicos y luego se les pidió que evaluaran su experiencia.
¿Imparcialidad?
Los investigadores detallan que los próximos pasos consistirán en realizar estudios más detallados para evaluar posibles sesgos y garantizar que el sistema sea equitativo en diferentes poblaciones. El equipo de Google también está empezando a estudiar los requisitos éticos para probar el sistema con humanos que tengan problemas médicos reales.
Daniel Ting, científico clínico especializado en IA de la Facultad de Medicina Duke-NUS de Singapur, está de acuerdo en que es esencial examinar el sistema en busca de sesgos. El objetivo es asegurarse de que el algoritmo no penaliza a grupos raciales que no están bien representados en los conjuntos de datos previos.
La privacidad de los usuarios también es un aspecto importante a tener en cuenta, afirma Ting. "En el caso de muchas de estas grandes plataformas comerciales de modelos lingüísticos, todavía no estamos seguros de dónde se almacenan los datos y cómo se analizan", afirma en declaraciones recogidas por Nature.
aa (Nature, Cornell University)