Los riesgos de usar inteligencia artificial para consultas médicas

0

El avance de la inteligencia artificial abrió un nuevo escenario en el ámbito de la salud. Cada vez más personas recurren a chatbots para consultar síntomas o comprender diagnósticos médicos. Sin embargo, especialistas advierten que estas herramientas todavía presentan limitaciones importantes y no deben reemplazar la consulta profesional.

Un estudio reciente publicado en la revista Nature evaluó el desempeño de ChatGPT Health, una herramienta desarrollada por OpenAI, y detectó problemas en la forma en que el sistema recomienda acciones ante distintos cuadros clínicos.

Aunque la compañía aclara que la aplicación no está destinada a realizar diagnósticos ni tratamientos, los investigadores decidieron poner a prueba al chatbot frente a distintos escenarios médicos simulados.

Resultados preocupantes

La investigación, realizada en el Mount Sinai Hospital, comparó las recomendaciones del sistema con las decisiones de médicos ante 60 casos clínicos diseñados por especialistas.

Los resultados mostraron varias inconsistencias. En el 51,6% de los casos de emergencia, la inteligencia artificial sugirió esperar entre 24 y 48 horas antes de consultar, una recomendación considerada inadecuada por los profesionales.

En sentido contrario, en el 64,8% de los escenarios el sistema recomendó ver a un médico cuando no era estrictamente necesario, lo que los investigadores denominan “sobre-triaje”.

Aun así, en los casos más críticos la IA evitó sugerencias peligrosas: en el 96% de las situaciones límite recomendó acciones consideradas seguras. Sin embargo, los investigadores detectaron un patrón: el chatbot tiende a elegir opciones menos urgentes. En más del 60% de las respuestas, optó por la alternativa más lenta dentro de las que eran aceptables.

Los especialistas también remarcaron que el experimento utilizó historias clínicas escritas de forma clara por médicos. En la práctica, explican, los pacientes suelen describir los síntomas de manera incompleta o confusa, lo que podría aumentar los errores del sistema.

Millones de consultas médicas a chatbots

El fenómeno tiene una dimensión masiva. Según datos difundidos por OpenAI, alrededor de 40 millones de personas consultan cada día a ChatGPT sobre temas de salud, lo que representa cerca del 5% de todos los mensajes que recibe la plataforma.

Además, la mayoría de estas consultas se realiza fuera del horario de atención médica. Cerca del 70% de las conversaciones ocurren cuando las clínicas están cerradas, y se concentran principalmente en tres tipos de preguntas: exploración de síntomas, explicación de términos médicos y comprensión de tratamientos.

El médico e investigador Ashwin Ramaswamy, uno de los autores del estudio, señaló que muchos usuarios buscan en la inteligencia artificial algo más que información clínica.

Según explicó, para muchos pacientes la herramienta funciona como un “acompañante digital”, capaz de responder preguntas detalladas sobre documentos o estudios médicos.

El tiempo de los médicos

El cardiólogo y genetista estadounidense Eric Topol advierte en su libro Deep Medicine que uno de los grandes problemas actuales del sistema sanitario es el escaso tiempo que los médicos pueden dedicar a cada paciente.

En Estados Unidos, por ejemplo, las consultas médicas duran en promedio siete minutos para pacientes habituales y doce para nuevos. En algunos sistemas hospitalarios asiáticos, las consultas pueden reducirse incluso a dos minutos.

Para el especialista argentino Juan Eduardo San Román, la inteligencia artificial podría ayudar a mejorar esta situación si se utiliza correctamente. Una de las aplicaciones más útiles, sostiene, sería automatizar tareas administrativas como la elaboración de historias clínicas o la transcripción de consultas.

“Si la inteligencia artificial se encarga de esas tareas, el médico podría volver a dedicar más tiempo a la relación con el paciente”, explicó.

No reemplaza al médico

Los especialistas coinciden en que el uso de chatbots para consultas médicas es inevitable, pero insisten en que siempre debe existir supervisión profesional.

San Román recomienda que los pacientes utilicen estas herramientas como complemento informativo, pero que contrasten la información con su médico y utilicen fuentes confiables.

“Las aplicaciones pueden ser útiles para el seguimiento de una enfermedad o para entender mejor un diagnóstico, pero no para reemplazar la consulta médica”, advirtió.

Los límites de los modelos de lenguaje

Los errores de los chatbots también se explican por cómo funcionan los modelos de lenguaje. Según las investigadoras Emily M. Bender y Alex Hanna, estos sistemas no comprenden realmente el contenido que generan, sino que predicen palabras en función de probabilidades estadísticas.

Por esa razón suelen ser descritos como “loros estocásticos”: máquinas capaces de producir textos convincentes, pero sin una comprensión real del mundo.

Además, las respuestas pueden cambiar dependiendo de cómo se formule la pregunta o del tipo de datos con los que fue entrenado el modelo.

El informático Arvind Narayanan advierte en su libro AI Snake Oil que muchas veces se habla de “inteligencia artificial” como si fuera una sola tecnología, cuando en realidad existen sistemas muy distintos con capacidades específicas.

Regular la inteligencia artificial

Para los especialistas, el desafío futuro no es prohibir estas herramientas sino regularlas y utilizarlas de manera responsable.

“La inteligencia artificial es una herramienta muy poderosa, pero hay que elegir la adecuada para cada procedimiento. De lo contrario, los errores aumentan”, señaló San Román.

Y concluyó con una advertencia: “No tener control sobre la inteligencia artificial sería como poner en marcha una locomotora sin frenos”.

Leave a Reply

Your email address will not be published. Required fields are marked *