Un estudio ciego revela que los ChatGPT dan mejores consejos médicos que los médicos de verdad: Esto cambiará las reglas del juego

Aunque las respuestas del chatbot de IA obtuvieron mejores puntuaciones en cuanto a calidad y empatía, algunos expertos expresan cautela y preocupación

Cuando se trata de responder a preguntas médicas, ¿puede ChatGPT hacer un trabajo mejor que los médicos humanos?

Parece que es posible, según los resultados de un nuevo estudio publicado en JAMA Internal Medicine, dirigido por investigadores de la Universidad de California en San Diego.

Los investigadores recopilaron una muestra aleatoria de casi 200 preguntas médicas que los pacientes publicaron en Reddit, un popular sitio web de debate social, para que los médicos las respondieran. A continuación, introdujeron las preguntas en ChatGPT (el chatbot de inteligencia artificial de OpenAI) y grabaron su respuesta.

A continuación, un grupo de profesionales sanitarios evaluó la calidad y la empatía de ambos conjuntos de respuestas.

CHATGPT PARA SANITARIOS: ¿PUEDE EL CHATBOT DE AI FACILITAR EL TRABAJO DE LOS PROFESIONALES?

En casi el 80% de las respuestas, los chatbots ganaron a los médicos reales.

"Nuestro panel de profesionales sanitarios prefería a ChatGPT cuatro a uno frente a los médicos", dijo el investigador principal, el Dr. John W. Ayers, PhD, vicedirector de innovación de la División de Enfermedades Infecciosas y Salud Pública Global de la Universidad de California en San Diego.

Los modelos lingüísticos de IA podrían ayudar a aliviar la carga de mensajes, según un médico

Uno de los mayores problemas a los que se enfrentan los profesionales sanitarios es que están sobrecargados de mensajes de los pacientes, dijo Ayers. 

"Con el auge de la teleasistencia online, los médicos ven ahora a sus pacientes primero a través de sus bandejas de entrada, y los mensajes no paran de acumularse", dijo en una entrevista a Fox News Digital. 

Cuando un grupo de profesionales sanitarios evaluó la calidad y la empatía de las respuestas, los chatbots ganaron a los médicos reales el 80% de las veces. (iStock)

La afluencia de mensajes podría provocar mayores niveles de agotamiento de los proveedores, opina Ayers. 

"El agotamiento ya está en su punto más alto: casi dos de cada tres médicos dicen estar quemados en su trabajo, y queremos resolver ese problema", dijo.

Sin embargo, hay millones de pacientes que no obtienen ninguna respuesta o reciben respuestas insatisfactorias, añadió.

Pensando en cómo podría ayudar la inteligencia artificial, Ayers y su equipo recurrieron a Reddit para demostrar cómo ChatGPT podría presentar una posible solución a la acumulación de preguntas de los proveedores.

Reddit tiene una comunidad de "preguntas médicas" (un "subreddit" llamado f/AskDocs) con casi 500.000 miembros. La gente publica sus preguntas, y los profesionales de la salud ofrecen respuestas públicas.

"Ahora los médicos ven primero a sus pacientes a través de sus bandejas de entrada, y los mensajes no paran de acumularse".

Las preguntas son muy variadas y la gente pide opiniones sobre escáneres de cáncer, mordeduras de perro, abortos, vacunas y muchos otros temas médicos. muchos otros temas médicos.

INTELIGENCIA ARTIFICIAL EN SANIDAD: UN NUEVO PRODUCTO ACTÚA COMO "COPILOTO DE LOS MÉDICOS

A uno le preocupaba morir tras tragarse un palillo. Otra publicó fotos explícitas y se preguntó si había contraído una enfermedad de transmisión sexual. Otra buscó ayuda por sentimientos de fatalidad inminente y muerte inminente.

"Son preguntas reales de pacientes reales y respuestas reales de médicos reales", dijo Ayers. 

"Tomamos esas mismas preguntas y las introdujimos en ChatGPT, y luego las pusimos frente a frente con las respuestas de los médicos".

Los médicos valoraron las respuestas en función de la calidad y la empatía

Tras seleccionar aleatoriamente las preguntas y respuestas, los investigadores las presentaron a profesionales sanitarios reales, que atienden activamente a los pacientes.

No se les dijo qué respuestas eran proporcionadas por ChatGPT y cuáles proporcionaban los médicos.

"Nuestro panel de profesionales sanitarios prefería a ChatGPT cuatro a uno frente a los médicos", afirmó el investigador principal, el Dr. John W. Ayers, de la Universidad de California en San Diego. (iStock)

En primer lugar, los investigadores les pidieron que juzgaran la calidad de la información del mensaje. 

A la hora de evaluar la calidad, hay que tener en cuenta múltiples atributos, dijo Ayers. "Puede tratarse de precisión, legibilidad, exhaustividad o capacidad de respuesta", dijo a Fox News Digital.

LOS ESTUDIANTES UTILIZAN LA TECNOLOGÍA DE LA AI PARA ENCONTRAR NUEVAS DIANAS TERAPÉUTICAS PARA LOS TUMORES CEREBRALES, CON EL OBJETIVO DE COMBATIR LA ENFERMEDAD MÁS RÁPIDAMENTE

A continuación, se pidió a los investigadores que juzgaran la empatía.

"No se trata sólo de lo que dices, sino de cómo lo dices", dijo Ayers. "¿La respuesta tiene empatía y hace que los pacientes sientan que se escucha su voz?".

"Los médicos tienen limitaciones de recursos, así que... a menudo se centran en la respuesta más probable y siguen adelante".

ChatGPT tenía tres veces más probabilidades de dar una respuesta que fuera muy buena o buena en comparación con los médicos, dijo a Fox News Digital. El chatbot tenía 10 veces más probabilidades de dar una respuesta empática o muy empática en comparación con los médicos.

No es que los médicos no sientan empatía por sus pacientes, dijo Ayers, es que están sobrecargados de mensajes y no siempre tienen tiempo para comunicarlo.

"Un modelo de IA tiene una capacidad de procesamiento infinita en comparación con un médico", explicó. "Los médicos tienen limitaciones de recursos, así que, aunque sientan empatía por su paciente, a menudo se centran en la respuesta más probable y siguen adelante".

ChatGPT, con su tiempo y recursos ilimitados, podría ofrecer una respuesta holística de todas las consideraciones que los médicos están muestreando, dijo Ayers.

Vince Lynch, experto en IA y director general de IV.AI en Los Ángeles, California, revisó el estudio y no le sorprendieron los resultados.

"La forma en que la IA responde a las preguntas suele estar comisariada, de modo que presenta sus respuestas de forma muy positiva y empática", dijo a Fox News Digital. "La IA incluso va más allá de las respuestas bien escritas y repetitivas, y realiza un análisis de sentimiento de la respuesta para garantizar que se ofrecen las respuestas más positivas".

UNA PLATAFORMA DE ATENCIÓN SANITARIA AI PREDICE LA DIABETES CON GRAN PRECISIÓN, PERO "NO SUSTITUIRÁ LA ATENCIÓN AL PACIENTE

Un sistema de IA también utiliza algo llamado "aprendizaje por refuerzo", explicó Lynch, que es cuando prueba distintas formas de responder a una pregunta hasta que encuentra la mejor respuesta para su público.

"Así, cuando comparas a una IA que responde a una pregunta con un profesional médico, la IA tiene en realidad mucha más experiencia que cualquier médico en relación con parecer empática, cuando en realidad sólo está imitando el lenguaje empático en el escenario del consejo médico", dijo.

"La gente lo va a utilizar con o sin nosotros".

La longitud de las respuestas también podría haber influido en las puntuaciones que recibieron, señaló el Dr. Justin Norden, experto en salud digital e IA y profesor de la Universidad de Stanford (California), que no participó en el estudio.

"La longitud de una respuesta es importante para que la gente perciba la calidad y la empatía", dijo Norden a Fox News Digital. "En general, las respuestas de la IA tenían casi el doble de longitud que las respuestas de los médicos. Además, cuando los médicos escribían respuestas más largas, las preferían en mayor proporción."

"En general, las respuestas de la IA tenían casi el doble de longitud que las respuestas de los médicos. Además, cuando los médicos escribían respuestas más largas, las preferían en mayor proporción". (iStock)

Pedir simplemente a los médicos que escriban respuestas más largas en el futuro no es una opción sostenible, añadió Norden.

"El volumen de mensajes a los pacientes está aumentando, y los médicos sencillamente no tienen tiempo", dijo. "Este artículo muestra cómo podríamos abordar esta cuestión, y potencialmente podría ser muy eficaz".

Las respuestas de la IA podrían ser "elevadas" por médicos reales

En lugar de sustituir la orientación de los médicos, Ayers sugiere que ChatGPT podría actuar como punto de partida para los médicos, ayudándoles a atender grandes volúmenes de mensajes más rápidamente.

"La IA podría redactar una respuesta inicial, luego el equipo médico o el médico la evaluaría, corregiría cualquier información errónea, mejoraría la respuesta y [la adaptaría] al paciente", dijo Ayers.

Es una estrategia que él denomina "mensajería de precisión".

En lugar de sustituir la orientación de los médicos, Ayers sugiere que ChatGPT podría actuar como punto de partida para los médicos, ayudándoles a atender grandes volúmenes de mensajes con mayor rapidez. (iStock)

Dijo: "Los médicos pasarán menos tiempo escribiendo y más tiempo ocupándose del corazón de la medicina y elevando ese canal de comunicación".

"Esto cambiará las reglas del juego para los pacientes a los que atendemos, ayudará a mejorar la salud de la población y potencialmente salvará vidas", predijo Ayers.

Basándose en las conclusiones del estudio, cree que los médicos deberían empezar a aplicar los modelos lingüísticos de IA de forma que presenten un riesgo mínimo.

UNA HERRAMIENTA DE DIAGNÓSTICO DE SALUD MENTAL IMPULSADA POR AI PODRÍA SER LA PRIMERA DE SU CLASE EN PREDECIR Y TRATAR LA DEPRESIÓN

"La gente va a utilizarlo con o sin nosotros", dijo, señalando que los pacientes ya recurren a ChatGPT por su cuenta para obtener "mensajes enlatados". 

Algunos actores del sector ya se están moviendo para implantar modelos basados en ChatGPT: Epic, la empresa de software sanitario, anunció recientemente que se está asociando con Microsoft para integrar ChatGPT-4 en su software de historia clínica electrónica.

Beneficios potenciales equilibrados por riesgos desconocidos

Ayers dijo que es consciente de que la gente estará preocupada por la falta de regulación en el espacio de la IA.

"Solemos pensar en la normativa en términos de señales de stop y guardarraíles: normalmente, los reguladores intervienen después de que haya ocurrido algo malo e intentan evitar que vuelva a ocurrir, pero no tiene por qué ser así en este caso", dijo a Fox News Digital.

Los investigadores recopilaron una muestra aleatoria de casi 200 preguntas médicas que los pacientes habían publicado en Reddit para que los médicos las respondieran. A continuación, introdujeron las preguntas en ChatGPT y registraron su respuesta. (iStock)

"No sé cuáles deben ser necesariamente las señales de alto y los guardarraíles", dijo. "Pero sí sé que los reguladores podrían establecer cuál es la línea de meta, lo que significa que habría que demostrar que la IA mejora los resultados de los pacientes para poder implantarla".

Un riesgo potencial que Norden señaló es si la percepción de los pacientes cambiaría si supieran que las respuestas estaban escritas o asistidas por IA. 

"Lo que me preocupa es que, en el futuro, la gente no sienta ningún apoyo a través de un mensaje, ya que los pacientes pueden suponer que lo escribirá la IA".

Citó un estudio anterior centrado en apoyo a la salud mentalque concluyó que los mensajes de la IA eran preferibles a los humanos.

"Curiosamente, una vez que se reveló que los mensajes habían sido escritos por la IA, desapareció el apoyo que sentía el receptor de estos mensajes", afirmó. 

"Lo que me preocupa es que, en el futuro, la gente no sienta ningún apoyo a través de un mensaje, ya que los pacientes pueden suponer que lo escribirá la IA".

HAZ CLIC AQUÍ PARA SUSCRIBIRTE A NUESTRO BOLETÍN DE SALUD

El Dr. Tinglong Dai, profesor de gestión de operaciones y análisis empresarial en la Escuela de Negocios Johns Hopkins Carey de Baltimore, Marylandexpresó su preocupación por la capacidad del estudio para representar escenarios reales.

"La afirmación de que la IA sustituirá a los médicos es prematura y exagerada".

"Es importante señalar que el escenario del estudio puede no reflejar con exactitud la práctica médica del mundo real", dijo a Fox News Digital. 

"En realidad, a los médicos se les paga por ofrecer asesoramiento médico y tienen importantes responsabilidades como resultado de ese asesoramiento. La afirmación de que la IA sustituirá a los médicos es prematura y exagerada".

Un estudio destaca el "nuevo territorio" de la IA en la asistencia sanitaria

Aunque existen numerosas incógnitas, muchos expertos parecen estar de acuerdo en que se trata de un estudio pionero que podría tener implicaciones de gran alcance.

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

"En general, este estudio pone de relieve el nuevo territorio en el que nos estamos adentrando para la atención sanitaria: que la IA sea capaz de rendir al nivel del médico en determinadas tareas escritas", afirma Norden. 

"Cuando los médicos están sufriendo niveles récord de agotamiento, se entiende por qué Epic y sus socios ya están planeando incorporar estas herramientas a los mensajes a los pacientes".

Carga más..