Este sitio web fue traducido automáticamente. Para obtener más información, por favor haz clic aquí.

El uso de la IA generativa puede no ser útil para reducir el agotamiento en la asistencia sanitaria, según sugiere una nueva investigación.

Investigaciones anteriores indicaron que el aumento del tiempo dedicado a utilizar los sistemas de historiales médicos electrónicos (HCE) y a ocuparse de las responsabilidades administrativas ha supuesto una carga para los médicos.

Por eso, algunos habían anunciado la inteligencia artificial como una posible solución; sin embargo, recientes investigaciones de sistemas sanitarios estadounidenses descubrieron que los grandes modelos lingüísticos (LLM ) no simplificaban las responsabilidades cotidianas de los médicos.

¿QUÉ ES LA INTELIGENCIA ARTIFICIAL (AI)?

Por ejemplo, un estudio observacional realizado en 2023 en el Hospital Brigham and Women's de Boston, Massachusetts, examinó el impacto del uso de la IA para la mensajería electrónica de los pacientes.

Los investigadores pidieron a un gran modelo lingüístico que respondiera a preguntas simuladas de pacientes de cáncer, y luego compararon su resultado con las respuestas de seis oncólogos radioterapeutas certificados.

A continuación, los profesionales médicos editaron las respuestas generadas por la IA en respuestas "clínicamente aceptables" para enviarlas a los pacientes.

médico estresado junto a imagen de IA

Nuevos estudios sugieren que la IA generativa podría no ayudar al agotamiento entre los médicos, como se pensaba anteriormente. (iStock)

El estudio, publicado en The Lancet Digital Health, descubrió que los borradores del LLM suponían "un riesgo de daños graves en 11 de 156 respuestas a la encuesta, y de muerte en una respuesta a la encuesta".

"La mayoría de las respuestas perjudiciales se debieron a determinar o transmitir incorrectamente la gravedad del escenario y la acción recomendada", escribieron los investigadores.

PRIMERA CIRUGÍA ABDOMINAL CON REALIDAD AUMENTADA REALIZADA EN CHILE: 'UNA REVOLUCIÓN'

Los investigadores llegaron a la conclusión de que los resultados asistidos por LLM (los editados por médicos) mostraban un "escenario óptimo para ambos mundos": reducían la carga de trabajo de los médicos al tiempo que garantizaban que los pacientes obtuvieran información precisa.

"Estos primeros resultados (...) indican la necesidad de evaluar a fondo los LLM en los contextos clínicos previstos, reflejando la tarea precisa y el nivel de supervisión humana", concluye el estudio.

doctora introduce datos del paciente

Los investigadores llegaron a la conclusión de que los resultados asistidos por LLM mostraban un "escenario óptimo para ambos mundos", ya que reducían la carga de trabajo de los médicos al tiempo que garantizaban la coherencia de las respuestas y mejoraban la educación de los pacientes. (iStock)

Códigos de facturación médica 

Otro estudio del Sistema Sanitario Mount Sinai de Nueva York evaluó en cuatro tipos distintos de grandes modelos lingüísticos en cuanto a rendimiento y patrones de error al consultar códigos de facturación médica.

GOOGLE BARD PASA A GÉMINIS: LO QUE HAY QUE SABER SOBRE LA ACTUALIZACIÓN DE LA AI

La investigación, publicada en la revista NEJM AI, descubrió que todos los LLM probados obtuvieron malos resultados en la consulta de códigos médicos, "generando a menudo códigos que transmitían información imprecisa o inventada". 

El estudio concluyó: "Los LLM no son apropiados para su uso en tareas de codificación médica sin investigación adicional". El estudio fue financiado por la Fundación de Investigación AGA y los Institutos Nacionales de Salud (NIH).

ilustración de médico de alta tecnología

Un estudio reveló que todos los LLM evaluados obtuvieron malos resultados en la consulta de códigos médicos, y que es necesario seguir investigando esta cuestión. (iStock)

Los investigadores observaron que, aunque estos modelos pueden "aproximarse al significado de muchos códigos", también "muestran una inaceptable falta de precisión y una gran propensión a falsear los códigos." 

"Esto tiene importantes implicaciones para la facturación, la toma de decisiones clínicas, la mejora de la calidad, la investigación y la política sanitaria", escribieron los investigadores.

Mensajes a los pacientes y tiempo de los médicos

Un tercer estudio publicado en la Red JAMA, de la Facultad de Medicina de la Universidad de California en San Diego, evaluó las respuestas redactadas por IA a los mensajes de los pacientes y el tiempo que los médicos dedicaban a editarlas.

UN ESTUDIO REVELA QUE CHATGPT DIFUNDE INEXACTITUDES AL RESPONDER A PREGUNTAS SOBRE MEDICACIÓN

Se suponía que los borradores generativos de IA reducirían el tiempo que el médico dedica a estas tareas, pero los resultados demostraron lo contrario.

"Las respuestas elaboradas por IA generativa se asociaron con un tiempo de lectura significativamente mayor, ningún cambio en el tiempo de respuesta, una longitud de respuesta significativamente mayor y [sólo] algunos beneficios percibidos", según el estudio.

Los investigadores sugirieron que se necesitan"pruebas empíricas rigurosas" para seguir evaluando el rendimiento de la IA y las experiencias de los pacientes.

médico estresado rodeado de herramientas y tecnología

En el estudio de la UC San Diego, se descubrió que la IA generativa provocaba "un aumento del tiempo de lectura, ningún cambio en el tiempo de respuesta [y] un aumento significativo de la longitud de la respuesta" en los mensajes de los pacientes. (iStock)

Reflexiones de un médico sobre la IA

El Dr. David Atashroo, director médico de Qventus, una solución de gestión quirúrgica basada en IA de Mountain View (California), reaccionó a los resultados de la investigación en una entrevista con Fox News Digital. (No participó en la investigación).

"Vemos un inmenso potencial para que la IA se encargue de tareas de menor riesgo, pero altamente automatizables, que tradicionalmente recaen en los esenciales pero a menudo ignorados 'papeles de pegamento' de la atención sanitaria, como programadores, asistentes médicos, gestores de casos y navegadores de atención", dijo.

"Es crucial establecer expectativas realistas sobre el rendimiento [de la IA]".

"Estos profesionales son cruciales para mantener unidos procesos que están directamente ligados a los resultados clínicos, y sin embargo dedican una parte sustancial de su tiempo a tareas administrativas como analizar faxes, resumir notas y conseguir la documentación necesaria."

HAZ CLIC AQUÍ PARA SUSCRIBIRTE A NUESTRO BOLETÍN DE SALUD

Al automatizar estas tareas, Atashroo sugirió que la IA generativa podría ayudar a mejorar la eficiencia y la eficacia de la atención clínica.

"Al considerar el despliegue de la IA generativa, es crucial establecer expectativas realistas sobre su rendimiento", dijo. 

"La norma no puede ser siempre la perfección, ya que ni siquiera los humanos que actualmente realizan estas tareas son infalibles".

personas y médicos paseando por un hospital

"La norma no puede ser siempre la perfección, ya que ni siquiera los humanos que actualmente realizan estas tareas son infalibles", afirmó un experto en IA. (iStock)

En algunos casos, sugirió, la IA podría servir de "red de seguridad" para detectar cualquier descuido de los miembros del equipo.

A veces, las tareas pueden quedar sin abordar "simplemente porque no hay tiempo suficiente para hacerlo", señaló Atashroo.

"La IA generativa puede ayudar a gestionar los casos de forma más coherente de lo que permite nuestra capacidad actual".

"Al considerar el despliegue de la IA generativa, es crucial establecer expectativas realistas sobre su rendimiento".

La seguridad y la eficacia son "primordiales" en las aplicaciones de la IA, señaló también el médico.

"Esto significa no sólo desarrollar modelos con rigurosos controles de calidad, sino también incorporar evaluaciones periódicas realizadas por expertos humanos para validar su rendimiento", dijo. 

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

"Esta verificación de doble capa garantiza que nuestras soluciones de IA sean responsables y fiables antes de su ampliación".

Atashroo también señaló que "la transparencia en el desarrollo y la aplicación de las tecnologías de IA es esencial para generar confianza entre los socios hospitalarios y los pacientes."

Para más artículos sobre Salud, visita www.foxnews.com/health.