ChatGPT para profesionales sanitarios: ¿Puede el chatbot de IA facilitar el trabajo de los profesionales?

El ChatGPT de OpenAI podría ayudar a agilizar las tareas médicas, pero los expertos dicen que sigue habiendo riesgos importantes

Además de escribir artículos, canciones y código en cuestión de segundos, ChatGPT podría llegar a la consulta de tu médico, si no lo ha hecho ya.

El sitio basado en inteligencia artificial lanzado por OpenAI en diciembre de 2022, es un modelo de procesamiento del lenguaje natural (PLN) que se basa en la información de la web para producir respuestas en un formato claro y conversacional.

Aunque no pretende ser una fuente de asesoramiento médico personalizado, los pacientes pueden utilizar ChatGPT para obtener información sobre enfermedades, medicamentos y otros temas de salud. 

CHATGPT Y ATENCIÓN SANITARIA: ¿PODRÍA EL CHATBOT AI CAMBIAR LA EXPERIENCIA DEL PACIENTE?

Algunos expertos creen incluso que la tecnología podría ayudar a los médicos a proporcionar una atención al paciente más eficaz y completa.

El Dr. Tinglong Dai, profesor de gestión de operaciones en la Escuela de Negocios Johns Hopkins Carey de Baltimore, Marylandy experto en inteligencia artificial, afirmó que los grandes modelos lingüísticos (LLM) como ChatGPT han "subido el listón" en la IA médica.

Algunos expertos creen que el chatbot de inteligencia artificial ChatGPT podría ayudar a los médicos a proporcionar una atención al paciente más eficaz y completa. (iStock)

"La IA que vemos hoy en día en los hospitales se ha creado y entrenado a propósito a partir de datos de estados de enfermedad específicos: a menudo no puede adaptarse a nuevos escenarios y nuevas situaciones, y no puede utilizar bases de conocimientos médicos ni realizar tareas básicas de razonamiento", dijo a Fox News Digital en un correo electrónico.

"Los LLM nos dan la esperanza de que la IA general es posible en el mundo de la sanidad".

Apoyo a las decisiones clínicas

Un uso potencial de ChatGPT es proporcionar apoyo en la toma de decisiones clínicas a médicos y profesionales sanitarios, ayudándoles a seleccionar las opciones de tratamiento adecuadas para los pacientes.

En un estudio preliminar del Centro Médico de la Universidad de Vanderbilt, los investigadores analizaron la calidad de 36 sugerencias generadas por IA y 29 sugerencias generadas por humanos en relación con decisiones clínicas.

De las 20 respuestas con mayor puntuación, nueve procedían de ChatGPT.

"Se comprobó que las sugerencias generadas por la IA ofrecían perspectivas únicas y se evaluaron como muy comprensibles y relevantes, con una utilidad moderada, una aceptación baja, un sesgo, una inversión y una redundancia", escribieron los investigadores en las conclusiones del estudio. 

Dai señaló que los médicos pueden introducir historiales médicos de diversas fuentes y formatos -incluidas imágenes, vídeos, grabaciones de audio, correos electrónicos y PDF- en grandes modelos lingüísticos como ChatGPT para obtener segundas opiniones.

UNA PLATAFORMA DE ATENCIÓN SANITARIA AI PREDICE LA DIABETES CON GRAN PRECISIÓN, PERO "NO SUSTITUIRÁ LA ATENCIÓN AL PACIENTE

"También significa que los proveedores pueden crear portales de mensajería para pacientes más eficientes y eficaces que comprendan lo que necesitan los pacientes y los dirijan a las partes más apropiadas o les respondan con respuestas automatizadas", añadió.

El Dr. Justin Norden, experto en salud digital e IA y profesor adjunto de la Universidad de Stanford en Californiadijo que ha oído a médicos veteranos decir que ChatGPT es probablemente "tan bueno o mejor" que la mayoría de los internos durante su primer año fuera de la facultad de medicina.

Un uso potencial de ChatGPT es proporcionar apoyo en la toma de decisiones clínicas a médicos y profesionales sanitarios, ayudándoles a seleccionar las opciones de tratamiento adecuadas para los pacientes. (iStock)

"Estamos viendo planes médicos generados en segundos", dijo a Fox News Digital en una entrevista. 

"Estas herramientas pueden utilizarse para extraer información relevante para un proveedor, para actuar como una especie de 'copiloto' que ayude a alguien a pensar en otras cosas que podría considerar".

Educación sanitaria

Norden está especialmente entusiasmado con el uso potencial de ChatGPT para la educación sanitaria en un entorno clínico.

"Creo que una de las cosas asombrosas de estas herramientas es que puedes tomar un conjunto de información y transformar su aspecto para muchos públicos, idiomas y niveles de comprensión lectora diferentes", dijo.

"Actualmente, el ChatGPT tiene un riesgo muy alto de ser 'inaceptablemente erróneo' con demasiada frecuencia".

Por ejemplo, ChatGPT podría permitir a los médicos explicar completamente conceptos médicos y tratamientos complejos a cada paciente de forma digerible y fácil de entender, dijo Norden.

"Por ejemplo, después de someterse a un procedimiento, el paciente podría chatear con ese conjunto de información y hacer preguntas de seguimiento", dijo Norden. 

Tareas administrativas

Según Norden, lo más fácil de utilizar ChatGPT en la atención sanitaria es agilizar las tareas administrativas, que suponen un "enorme componente de tiempo" para los proveedores médicos.

En concreto, dijo que algunos proveedores recurren al chatbot para agilizar las notas médicas y la documentación.

"En el ámbito clínico, la gente ya está empezando a experimentar con modelos de GPT para ayudar a escribir notas, redactar resúmenes de pacientes, evaluar las puntuaciones de gravedad de los pacientes y encontrar información clínica rápidamente", dijo.

Algunos expertos creen que los modelos lingüísticos de IA, como ChatGPT, podrían ayudar a racionalizar las instrucciones de alta de los pacientes. (iStock)

"Además, en el aspecto administrativo, se está utilizando para la autorización previa, la facturación y codificación, y la analítica", añadió Norden.

Dos empresas de tecnología médica que han avanzado mucho en estas aplicaciones son Doximity y Nuance, señaló Norden.

Doximity, una red médica profesional para médicos con sede en San Francisco, lanzó su plataforma DocsGPT para ayudar a los médicos a redactar cartas de necesidad médica, recursos de denegación y otros documentos médicos.

INTELIGENCIA ARTIFICIAL EN SANIDAD: UN NUEVO PRODUCTO ACTÚA COMO "COPILOTO DE LOS MÉDICOS

Nuance, una empresa de Microsoft con sede en Massachusetts que crea soluciones sanitarias basadas en IA, está poniendo a prueba su programa de toma de notas con GPT4. 

El plan es empezar con un subconjunto más pequeño de usuarios beta y extender gradualmente el sistema a sus más de 500.000 usuarios, dijo Norden.

Aunque cree que este tipo de herramientas aún necesitan "guardarraíles" normativos, ve un gran potencial para este tipo de uso, tanto dentro como fuera de la sanidad.

"Si tengo una gran base de datos o una pila de documentos, puedo hacer una pregunta natural y empezar a sacar fragmentos de información relevantes: los grandes modelos lingüísticos han demostrado que son muy buenos en eso", dijo.

Altas de pacientes

El proceso de alta hospitalaria implica muchos pasos, como evaluar el estado médico del paciente, identificar los cuidados de seguimiento, prescribir y explicar los medicamentos, establecer restricciones en el estilo de vida y otras cosas, según Johns Hopkins.

Los modelos lingüísticos de IA como ChatGPT podrían ayudar potencialmente a racionalizar las instrucciones de alta de los pacientes, cree Norden. 

IA VS. CÁNCER: UN CIENTÍFICO DEL MONTE SINAÍ AFIRMA QUE EL AVANCE TECNOLÓGICO TIENE UN "IMPACTO DRÁSTICO" EN EL DIAGNÓSTICO Y EL TRATAMIENTO

"Esto es increíblemente importante, sobre todo para alguien que lleva un tiempo en el hospital", dijo a Fox News Digital. 

Los pacientes "pueden tener muchos medicamentos nuevoscosas que tienen que hacer y seguir, y a menudo se quedan con [unos] trozos de papel impreso y ya está".

Y añadió: "Dar a alguien mucha más información en un lenguaje que entienda, en un formato con el que pueda seguir interactuando, creo que es realmente poderoso".

La privacidad y la precisión se citan como grandes riesgos 

Aunque el ChatGPT podría agilizar las tareas rutinarias de atención sanitaria y aumentar el acceso de los proveedores a grandes cantidades de datos médicos, no está exento de riesgos, según los expertos.

El Dr. Tim O'Connell, vicepresidente de informática médica del departamento de radiología de la Universidad de Columbia Británicadijo que existe un grave riesgo para la privacidad cuando los usuarios copian y pegan las notas clínicas de los pacientes en un servicio basado en la nube como ChatGPT. 

"Queremos que el software de IA médica sea digno de confianza".

"A diferencia de ChatGPT, la mayoría de las soluciones de PNL clínico se despliegan en una instalación segura para que los datos sensibles no se compartan con nadie ajeno a la organización", dijo a Fox News Digital. 

"Tanto Canadá como Italia han anunciado que están investigando a OpenAI [empresa matriz de ChatGPT] para ver si están recopilando o utilizando información personal de forma inadecuada".

Además, O'Connell dijo que el riesgo de que ChatGPT genere información falsa podría ser peligroso. 

Los profesionales sanitarios suelen clasificar los errores como "aceptablemente erróneos" o "inaceptablemente erróneos", dijo.

Aunque el ChatGPT podría agilizar las tareas rutinarias de la atención sanitaria y aumentar el acceso de los proveedores a grandes cantidades de datos médicos, no está exento de riesgos, dicen los expertos. (Gabby Jones/Bloomberg vía Getty Images)

"Un ejemplo de 'aceptablemente incorrecto' sería que un sistema no reconociera una palabra porque un profesional sanitario utilizó un acrónimo ambiguo", explicó. 

"Una situación 'inaceptablemente errónea' sería aquella en la que un sistema comete un error que cualquier humano -incluso uno que no sea un profesional formado- no cometería".

"Es difícil ver cómo un motor de generación de lenguaje puede ofrecer tales garantías".

Esto podría significar inventarse enfermedades que el paciente nunca tuvo, o hacer que un chatbot se vuelva agresivo con un paciente o le dé malos consejos que puedan perjudicarle, dijo O'Connell, que también es consejero delegado de Emtelligent, una empresade tecnología médica con sede en Vancouver (Columbia Británica) que ha creado un motor de PNL para texto médico.

HAZ CLIC AQUÍ PARA SUSCRIBIRTE A NUESTRO BOLETÍN DE SALUD

"Actualmente, ChatGPT tiene un riesgo muy alto de ser 'inaceptablemente erróneo' con demasiada frecuencia", añadió. "El hecho de que ChatGPT pueda inventar hechos que parezcan verosímiles ha sido señalado por muchos como uno de los mayores problemas del uso de esta tecnología en la asistencia sanitaria".

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

"Queremos que el software de IA médica sea digno de confianza y proporcione respuestas explicables o cuya veracidad pueda verificar el usuario, y produzca resultados fieles a los hechos sin ningún sesgo", prosiguió. 

"Por el momento, ChatGPT no sale bien parado en estas medidas, y es difícil ver cómo un motor de generación de lenguaje puede ofrecer tales garantías".

Carga más..