ChatGPT y asistencia sanitaria: ¿Podría el chatbot de IA cambiar la experiencia del paciente?

Los expertos ven potencial pero dicen que ChatGPT no puede compararse con la orientación médica de un médico

ChatGPT, la inteligencia artificial lanzada por OpenAI en diciembre de 2022, es conocida por su capacidad para responder preguntas y proporcionar información detallada en cuestión de segundos, todo ello de forma clara y conversacional. 

A medida que crece su popularidad, ChatGPT está apareciendo en prácticamente todos los sectores, incluidos el educativo, el inmobiliario, la creación de contenidos e incluso el sanitario.

Aunque el chatbot podría cambiar o mejorar potencialmente algunos aspectos de la experiencia del paciente, los expertos advierten de que tiene limitaciones y riesgos.

Dicen que la IA nunca debe utilizarse como sustituto de la atención de un médico.

UNA PLATAFORMA DE ATENCIÓN SANITARIA AI PREDICE LA DIABETES CON GRAN PRECISIÓN, PERO "NO SUSTITUIRÁ LA ATENCIÓN AL PACIENTE

Buscar información médica en Internet no es nada nuevo: la gente lleva años buscando sus síntomas en Google. 

Pero con ChatGPT, la gente puede hacer preguntas relacionadas con la salud y entablar lo que parece una "conversación" interactiva con una fuente de información médica aparentemente omnisciente.

"ChatGPT es mucho más potente que Google y, desde luego, ofrece resultados más convincentes, tanto si [esos resultados son] correctos como incorrectos", Dr. Justin Norden, experto en salud digital e IA y profesor adjunto de la Universidad de Stanford en Californiadijo a Fox News Digital en una entrevista. 

ChatGPT tiene casos de uso potencial en prácticamente todos los sectores, incluido el sanitario. (iStock)

Con los buscadores de Internet, los pacientes obtienen información y enlaces, pero luego deciden dónde hacer clic y qué leer. Con ChatGPT, las respuestas se les dan explícita y directamente, explicó.

Una gran advertencia es que la fuente de datos de ChatGPT es Internet, y hay mucha desinformación en la red, como la mayoría de la gente sabe. Por eso, las respuestas del chatbot, por convincentes que parezcan, siempre deben ser examinadas por un médico. 

Además, ChatGPT sólo está "entrenado" con datos hasta septiembre de 2021, según múltiples fuentes. Aunque puede aumentar sus conocimientos con el tiempo, tiene limitaciones para ofrecer información más reciente. 

"Creo que esto podría crear un peligro colectivo para nuestra sociedad".

El Dr. Daniel Khashabi, profesor de informática en la Johns Hopkins de Baltimore, Marylandy experto en sistemas de procesamiento del lenguaje natural, le preocupa que, a medida que la gente se acostumbre más a confiar en los chatbots conversacionales, se vea expuesta a una cantidad cada vez mayor de información inexacta.

"Hay muchas pruebas de que estos modelos perpetúan la información falsa que han visto en su entrenamiento, independientemente de su procedencia", dijo a Fox News Digital en una entrevista, refiriéndose al "entrenamiento" de los chatbots. 

AI Y SALUD CARDIACA: LAS MÁQUINAS LEEN MEJOR LAS ECOGRAFÍAS QUE LOS ECOGRAFISTAS, SEGÚN UN ESTUDIO

"Creo que se trata de una gran preocupación en el ámbito de la salud pública, ya que la gente está tomando decisiones que alteran su vida sobre cosas como medicamentos y procedimientos quirúrgicos basándose en esta información", añadió Khashabi. 

"Creo que esto podría crear un peligro colectivo para nuestra sociedad".

Podría "eliminar" alguna "carga no clínica

Los pacientes podrían utilizar sistemas basados en ChatGPT para hacer cosas como concertar citas con proveedores médicos y renovar recetas, eliminando la necesidad de llamar por teléfono y soportar largos tiempos de espera.

"Creo que este tipo de tareas administrativas se adaptan bien a estas herramientas, para ayudar a eliminar parte de la carga no clínica del del sistema sanitario", afirma Norden.

Con ChatGPT, la gente puede hacer preguntas relacionadas con la salud y participar en lo que parece una "conversación" interactiva con una fuente de información médica aparentemente omnisciente. (Gabby Jones/Bloomberg vía Getty Images)

Para habilitar este tipo de capacidades, el proveedor tendría que integrar ChatGPT en sus sistemas actuales.

Khashabi cree que este tipo de usos pueden ser útiles si se aplican correctamente, pero advierte de que pueden causar frustración a los pacientes si el chatbot no funciona como se espera.

"Si el paciente pregunta algo y el chatbot no ha visto esa condición o una forma concreta de formularlo, podría venirse abajo, y eso no es un buen servicio al cliente", dijo. 

"Debería haber un despliegue muy cuidadoso de estos sistemas para asegurarnos de que son fiables".

"Podría venirse abajo, y eso no es un buen servicio al cliente".

Khashabi también cree que debería haber un mecanismo de emergencia para que, si un chatbot se da cuenta de que está a punto de fallar, pase inmediatamente a un humano en lugar de seguir respondiendo.

"Estos chatbots tienden a 'alucinar': cuando no saben algo, siguen inventándose cosas", advirtió.

Puede compartir información sobre los usos de un medicamento

"Aunque ChatGPT no puede ni debe proporcionar asesoramiento médico, puede utilizarse para ayudar a explicar conceptos médicos complicados en términos sencillos", dijo Norden.

Los pacientes utilizan estas herramientas para saber más sobre su propia enfermedad, añade. Eso incluye obtener información sobre los medicamentos que toman o piensan tomar.

Los pacientes pueden utilizar el chatbot, por ejemplo, para informarse sobre los usos previstos de un medicamento, sus efectos secundarios, las interacciones con otros medicamentos y su correcta conservación.

ChatGPT no tiene capacidad para hacer recetas ni ofrecer tratamientos médicos, pero potencialmente podría ser un recurso útil para obtener información sobre medicamentos. (iStock)

Cuando se le preguntó si un paciente debía tomar un determinado medicamento, el chatbot respondió que no estaba cualificado para hacer recomendaciones médicas.

En su lugar, decía que la gente debía ponerse en contacto con un proveedor de atención sanitaria autorizado.

Puede tener detalles sobre enfermedades mentales

Los expertos coinciden en que ChatGPT no debe considerarse un sustituto de un terapeuta. Es un modelo de IA, por lo que carece de la empatía y los matices que proporcionaría un médico humano.

Sin embargo, dada la actual escasez de proveedores de salud mental y las largas esperas para obtener cita, puede resultar tentador recurrir a la IA como medio de apoyo provisional.

EL MODELO DE AI SYBIL PUEDE PREDECIR EL RIESGO DE CÁNCER DE PULMÓN EN LOS PACIENTES, SEGÚN UN ESTUDIO

"Con la escasez de proveedores en medio de una crisis de salud mental, sobre todo entre los adultos jóvenes, hay una necesidad increíble", dijo Norden, de la Universidad de Stanford. "Pero, por otra parte, estas herramientas no están probadas ni demostradas".

Y añadió: "No sabemos exactamente cómo van a interactuar, y ya hemos empezado a ver algunos casos de personas que interactúan con estos chatbots durante largos periodos de tiempo y obtienen resultados extraños que no podemos explicar."

Los pacientes podrían utilizar sistemas basados en ChatGPT para hacer cosas como concertar citas con proveedores médicos y rellenar recetas. (iStock)

Cuando se le preguntó si podía proporcionar apoyo en salud mental, ChatGPT advirtió que no podía sustituir la función de un profesional de la salud mental autorizado. 

Sin embargo, dijo que podía proporcionar información sobre enfermedades mentales, estrategias de afrontamiento, prácticas de autocuidado y recursos para obtener ayuda profesional.

OpenAI "desautoriza" el uso de ChatGPT para orientación médica

OpenAI, la empresa que creó ChatGPT, advierte en sus políticas de uso que el chatbot de IA no debe utilizarse para instrucción médica.

En concreto, la política de la empresa dice que ChatGPT no debe utilizarse para "decir a alguien que tiene o no tiene una determinada enfermedad, ni para dar instrucciones sobre cómo curar o tratar una enfermedad".

Se espera que el papel del ChatGPT en la asistencia sanitaria siga evolucionando.

También afirmaba que los modelos de OpenAI "no están afinados para proporcionar información médica. Nunca debes utilizar nuestros modelos para prestar servicios de diagnóstico o tratamiento de enfermedades graves."

Además, dijo que "las plataformas de OpenAI no deben utilizarse para triar o gestionar problemas potencialmente mortales que requieran atención inmediata."

HAZ CLIC AQUÍ PARA SUSCRIBIRTE A NUESTRO BOLETÍN DE SALUD

En los casos en que los proveedores utilicen ChatGPT para aplicaciones sanitarias, OpenAI les pide que "proporcionen un descargo de responsabilidad a los usuarios informándoles de que se está utilizando IA y de sus posibles limitaciones".

Al igual que la propia tecnología, se espera que el papel de ChatGPT en la asistencia sanitaria siga evolucionando.

Mientras que algunos creen que tiene un potencial apasionante, otros creen que hay que sopesar cuidadosamente los riesgos.

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

Como dijo a Fox News Digital el Dr. Tinglong Dai, profesor de la Johns Hopkins y reputado experto en análisis de la atención sanitaria, "los beneficios superarán casi con toda seguridad a los riesgos si la comunidad médica participa activamente en el esfuerzo de desarrollo".

Carga más..