Este sitio web fue traducido automáticamente. Para obtener más información, por favor haz clic aquí.

Se ha descubierto que ChatGPT ha compartido información inexacta sobre el consumo de drogas, según una nueva investigación.

En un estudio dirigido por la Universidad de Long Island (LIU) en Brooklyn, Nueva York, casi el 75% de las respuestas relacionadas con medicamentos y revisadas por farmacéuticos del chatbot de IA generativa resultaron ser incompletas o erróneas.

En algunos casos, ChatGPT, que fue desarrollado por OpenAI en San Francisco y lanzado a finales de 2022, proporcionó "respuestas inexactas que podrían poner en peligro a los pacientes", declaró en un comunicado de prensa la Sociedad Americana de Farmacéuticos del Sistema Sanitario (ASHP), con sede en Bethesda (Maryland).

¿QUÉ ES LA INTELIGENCIA ARTIFICIAL?

ChatGPT también generó "citas falsas" cuando se le pidió que citara referencias para apoyar algunas respuestas, según el mismo estudio.

Junto con su equipo, la autora principal del estudio, Sara Grossman, PharmD, profesora asociada de práctica farmacéutica en la LIU, hizo al chatbot de IA preguntas reales que se plantearon originalmente al servicio de información sobre medicamentos de la Facultad de Farmacia de la LIU entre 2022 y 2023.

Logotipos de OpenAI y ChatGPT

ChatGPT, el chatbot de IA creado por OpenAI, generó respuestas inexactas sobre medicamentos, según ha descubierto un nuevo estudio. La propia empresa dijo anteriormente que "los modelos de OpenAI no están afinados para proporcionar información médica. Nunca debes utilizar nuestros modelos para proporcionar servicios de diagnóstico o tratamiento de afecciones médicas graves". (LIONEL BONAVENTURE/AFP vía Getty Images)

De las 39 preguntas planteadas a ChatGPT, sólo 10 respuestas se consideraron "satisfactorias", según los criterios del equipo de investigación.

Los resultados del estudio se presentaron en la Reunión Clínica de Medio Año de la ASHP, celebrada del 3 al 7 de diciembre en Anaheim, California.

Grossman, autora principal, compartió su reacción inicial a los resultados del estudio con Fox News Digital.

GRAN AVANCE EN EL CÁNCER DE MAMA: LA AI PREDICE UN TERCIO DE LOS CASOS ANTES DEL DIAGNÓSTICO EN UN ESTUDIO MAMOGRÁFICO

Como "no habíamos utilizado ChatGPT anteriormente, nos sorprendió la capacidad de ChatGPT para proporcionar bastante información de fondo sobre la medicación y/o el estado de la enfermedad relevante para la pregunta en cuestión de segundos", dijo por correo electrónico. 

"A pesar de ello, ChatGPT no generó respuestas precisas y/o completas que abordaran directamente la mayoría de las preguntas".

Grossman también mencionó su sorpresa por el hecho de que ChatGPT fuera capaz de generar "referencias inventadas para apoyar la información proporcionada".

chatgpt y frasco de pastillas

De las 39 preguntas planteadas a ChatGPT, sólo 10 de las respuestas se consideraron "satisfactorias" según los criterios del equipo de investigación. (Frank Rumpenhorst/alianza fotográfica a través de Getty Images; iStock)

En un ejemplo que citó del estudio, se preguntó a ChatGPT si "existe una interacción farmacológica entre el Paxlovid, un medicamento antivírico utilizado como tratamiento para la COVID-19, y el verapamilo, un medicamento utilizado para bajar la tensión arterial".

EL JEFE DE GOOGLE BARD CREE QUE LA AI PUEDE AYUDAR A MEJORAR LA COMUNICACIÓN Y LA COMPASIÓN: "REALMENTE NOTABLE

El modelo de IA respondió que no se habían notificado interacciones con esta combinación.

Pero en realidad, dijo Grossman, los dos fármacos suponen una amenaza potencial de "disminución excesiva de la tensión arterial" cuando se combinan.

"Sin conocimiento de esta interacción, un paciente puede sufrir un efecto secundario no deseado y evitable", advirtió.

"Siempre es importante consultar a los profesionales sanitarios antes de utilizar información generada por ordenadores".

ChatGPT no debe considerarse una "fuente autorizada de información relacionada con la medicación", subrayó Grossman.

"Cualquiera que utilice ChatGPT debe asegurarse de verificar la información obtenida de fuentes de confianza, es decir, farmacéuticos, médicos u otros proveedores de atención sanitaria", añadió Grossman.

LA SALUD MENTAL DE LOS MILITARES EN EL PUNTO DE MIRA: LA FORMACIÓN EN AI SIMULA CONVERSACIONES REALES PARA AYUDAR A PREVENIR EL SUICIDIO DE VETERANOS

El estudio de la LIU no evaluó las respuestas de otras plataformas de IA generativa, señaló Grossman, por lo que no hay datos sobre cómo se comportarían otros modelos de IA en las mismas condiciones.

"En cualquier caso, siempre es importante consultar a los profesionales sanitarios antes de utilizar información generada por ordenadores, que no están familiarizados con las necesidades específicas de un paciente", dijo.

Política de uso de ChatGPT

Fox News Digital se puso en contacto con OpenAI, desarrollador de ChatGPT, para que comentara el nuevo estudio.

OpenAI tiene una política de uso que prohíbe su utilización para instrucción médica, según declaró anteriormente un portavoz de la empresa a Fox News Digital.

Medicación con Paxlovid

Paxlovid, el medicamento antiviral de Pfizer para tratar el COVID-19, aparece en esta ilustración tomada el 7 de octubre de 2022. Cuando se preguntó a ChatGPT si existía una interacción farmacológica entre el Paxlovid y el verapamilo, el chatbot respondió incorrectamente, según informa un nuevo estudio. (REUTERS/Wolfgang Rattay/Ilustración)

"Los modelos de OpenAI no están afinados para proporcionar información médica. Nunca debes utilizar nuestros modelos para proporcionar servicios de diagnóstico o tratamiento de afecciones médicas graves", declaró el portavoz de la empresa a principios de este año. 

"Las plataformas de OpenAI no deben utilizarse para triar o gestionar problemas potencialmente mortales que requieran atención inmediata".

Los proveedores de asistencia sanitaria "deben proporcionar un descargo de responsabilidad a los usuarios informándoles de que se está utilizando IA y de sus posibles limitaciones". 

La empresa también exige que, cuando se utilice ChatGPT para interactuar con los pacientes, los proveedores de asistencia sanitaria "deben proporcionar un descargo de responsabilidad a los usuarios informándoles de que se está utilizando IA y de sus posibles limitaciones". 

Además, como ya ha señalado Fox News Digital, una gran advertencia es que la fuente de datos de ChatGPT es Internet, y hay mucha desinformación en la red, como la mayoría de la gente sabe. 

Por eso, las respuestas del chatbot, por convincentes que parezcan, siempre deben ser examinadas por un médico.

Mujer enferma en la farmacia

El autor del nuevo estudio sugiere consultar con un profesional sanitario antes de confiar en la IA generativa para consultas médicas. (iStock)

Además, ChatGPT sólo se "entrenó" con datos hasta septiembre de 2021, según múltiples fuentes. Aunque puede aumentar sus conocimientos con el tiempo, tiene limitaciones para ofrecer información más reciente.

El mes pasado, el director ejecutivo Sam Altman anunció que el ChatGPT de OpenAI había recibido una actualización y que pronto se entrenaría con datos hasta abril de 2023.

Potencial innovador

El Dr. Harvey Castro, médico de urgencias certificado en Dallas (Texas) y conferenciante nacional sobre la IA en la atención sanitaria, opinó sobre el "potencial innovador" que ofrece ChatGPT en el ámbito médico.

"Para consultas generales, ChatGPT puede proporcionar información rápida y accesible, reduciendo potencialmente la carga de trabajo de los profesionales sanitarios", dijo a Fox News Digital.

LA INTELIGENCIA ARTIFICIAL AYUDA A LOS MÉDICOS A PREDECIR EL RIESGO DE MUERTE DE LOS PACIENTES, SEGÚN UN ESTUDIO

"Los algoritmos de aprendizaje automático de ChatGPT le permiten mejorar con el tiempo, especialmente con mecanismos adecuados de aprendizaje por refuerzo", dijo también.

Sin embargo, las inexactitudes en las respuestas de ChatGPT de las que se ha informado recientemente plantean un "problema crítico" con el programa, señaló el experto en IA.

"Esto es especialmente preocupante en campos de alto riesgo como la medicina", dijo Castro.

médico con ipad ai

Un experto en tecnología sanitaria señaló que los profesionales médicos son responsables de "orientar y criticar" los modelos de inteligencia artificial a medida que evolucionan. (iStock)

Otro riesgo potencial es que se ha demostrado que ChatGPT "alucina" la información, lo que significa que puede generar contenidos plausibles pero falsos o no verificados, advirtió Castro. 

HAZ CLIC AQUÍ PARA SUSCRIBIRTE A NUESTRO BOLETÍN DE SALUD

"Esto es peligroso en entornos médicos donde la precisión es primordial", dijo Castro.

"Aunque el ChatGPT resulta prometedor en la asistencia sanitaria, sus limitaciones actuales... subrayan la necesidad de una aplicación cautelosa".

La IA "carece actualmente de la comprensión profunda y matizada de los contextos médicos" que poseen los profesionales sanitarios humanos, añadió Castro.

"Aunque ChatGPT resulta prometedor en la asistencia sanitaria, sus limitaciones actuales, sobre todo en el tratamiento de consultas relacionadas con medicamentos, subrayan la necesidad de una implantación cautelosa".

modelo lingüístico de inteligencia artificial

OpenAI, el desarrollador de ChatGPT, tiene una política de uso que prohíbe su utilización para instrucción médica, según declaró un portavoz de la empresa a Fox News Digital a principios de este año. (Jaap Arriens/NurPhoto vía Getty Images)

Hablando como médico de urgencias y consultor de atención sanitaria sobre IA, Castro destacó el papel "inestimable" que tienen los profesionales médicos a la hora de "orientar y criticar esta tecnología en evolución."

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

"La supervisión humana sigue siendo indispensable, garantizando que las herramientas de IA como ChatGPT se utilicen como complementos y no como sustitutos del juicio médico profesional", añadió Castro.

Melissa Rudy, de Fox News Digital, ha contribuido con información. 

Para más artículos sobre Salud, visita www.foxnews.com/health.