Este sitio web fue traducido automáticamente. Para obtener más información, por favor haz clic aquí.
Únete a Fox News para acceder a este contenido
Además de acceso especial a artículos selectos y otros contenidos premium con tu cuenta, de forma gratuita.
Al introducir tu correo electrónico y pulsar Continuar, estás aceptando las Condiciones de uso y la Política de privacidad de Fox News, que incluye nuestro Aviso de incentivo económico.
Introduce una dirección de correo electrónico válida.
Al introducir tu correo electrónico y pulsar Continuar, estás aceptando las Condiciones de uso y la Política de privacidad de Fox News, que incluye nuestro Aviso de incentivo económico.

Nota del editor: Este artículo trata sobre el suicidio. Llama al teléfono 988 de Suicidio y Crisis o envía un mensaje de texto TALK al 741741 en la Línea de Texto de Crisis si necesitas ayuda.

Los expertos en salud afirman que los chatbots de inteligencia artificial (IA) que se hacen pasar por terapeutas podrían causar "graves daños" a las personas en apuros, incluidos los adolescentes, si no se toman las medidas de seguridad adecuadas.  

La doctora Christine Yu Moutier, directora médica de la Fundación Americana para la Prevención del Suicidio, declaró Fox News Digital que existen "lagunas críticas" en la investigación sobre los efectos intencionados y no intencionados de la IA en el riesgo de suicidio, la salud mental y el comportamiento humano en general.

"El problema de estos chatbots de IA es que no se diseñaron con conocimientos sobre el riesgo y la prevención del suicidio incorporados a los algoritmos. Además, no hay una línea de ayuda disponible en la plataforma para los usuarios que puedan estar en riesgo de padecer una enfermedad mental o de suicidio, ni formación sobre cómo utilizar la herramienta si estás en riesgo, ni normas del sector para regular estas tecnologías", afirmó Moutier.

Señaló que cuando las personas están en riesgo de suicidio, experimentan temporalmente una "visión fisiológica de túnel" que repercute negativamente en la función cerebral, cambiando así la forma en que interactúan con su entorno.

CÓMO NO ENAMORARSE DE LOS ESTAFADORES ROMÁNTICOS AI-POWERED

IA en psicología

Concepto de IA en Psicología. Un robot analizando la función cerebral de un humano con una lupa. La integración de la tecnología en la salud mental. Ilustración vectorial. iStock Filimonova)

Moutier también subrayó que los chatbots no entienden necesariamente la diferencia entre el lenguaje literal y el metafórico, lo que dificulta que estos modelos determinen con precisión el riesgo de suicidio.

La Dra. Yalda Safai, destacada psiquiatra y experta en salud pública, se hizo eco del comentario de Moutier, señalando que la IA puede analizar palabras y patrones, pero carece de empatía, intuición y comprensión humana, que son cruciales en terapia. Añadió que también puede malinterpretar las emociones o no proporcionar el apoyo adecuado.

El año pasado, un chico de Florida de 14 años se suicidó tras conversar con un personaje creado por IA que decía ser un terapeuta licenciado. En otro caso, un chico de 17 años de Texas con autismo se volvió violento con sus padres al mantener correspondencia con lo que creía que era un psicólogo.

Los padres de estas personas han presentado demandas contra las respectivas empresas. Posteriormente, la Asociación Americana de Psicología (APA), la mayor asociación de psicólogos de Estados Unidos, puso de relieve los dos casos.

A principios de este mes, la APA advirtió a los reguladores federales de que los chatbots "que se hacen pasar" por terapeutas podrían llevar a personas vulnerables a hacerse daño a sí mismas o a otros, según un informe New York Times .

"En realidad están utilizando algoritmos que son antitéticos a lo que haría un clínico capacitado", dijo durante la presentación Arthur C. Evans Jr., director ejecutivo de la APA. "Nuestra preocupación es que cada vez se va a perjudicar a más gente. Se va a engañar a la gente y se va a malinterpretar lo que es una buena atención psicológica".

¿CUÁLES SON LOS PELIGROS DE LA INTELIGENCIA ARTIFICIAL? AVERIGUA POR QUÉ LA GENTE TEME A LA INTELIGENCIA ARTIFICIAL

Ilustración AI

Se ven ilustraciones de inteligencia artificial en un ordenador portátil con libros de fondo en esta foto de ilustración del 18 de julio de 2023. (Foto de Jaap Arriens/NurPhoto vía Getty Images) Getty Images)

Evans Jr. dijo que la asociación había sido llamada a la acción en parte debido al discurso altamente realista que los chatbots han mostrado en los últimos años.

Según Ben Lytle, empresario y CEO que fundó "The Ark Project", el uso ético de la IA ya establece expectativas que pueden haberse ignorado en algunos casos denunciados.

"Los chatbots personalizan la información y se personifican para parecer humanos, lo que añade una credibilidad que requiere las precauciones éticas antes mencionadas. Es lamentable e irresponsable que alguien opte por presentar una respuesta de búsqueda personalizada como si fuera un psicólogo humano, pero es necesaria una respuesta mesurada y específica", declaró a Fox News Digital.

Según Lytle, los chatbots éticos deben hacer una declaración afirmativa al inicio de un diálogo, reconociendo que no son seres humanos. Los usuarios también deben reconocer que entienden que están conversando con un chatbot. Si los usuarios no hacen tal reconocimiento, el chatbot debe desconectarse.

Los propietarios humanos del chatbot deben estar claramente identificados y ser responsables de su comportamiento, y ningún chatbot debe representarse a sí mismo como profesional médico o psicólogo sin la aprobación de la FDA, dijo Lytle, autor también de la serie de libros "El Potencialista".

¿QUÉ ES LA INTELIGENCIA ARTIFICIAL (AI)?

Modelo de demencia AI

Imagen digital del cerebro en la palma de la mano mediante tecnología de Inteligencia artificial. iStock)

"Las interacciones con los usuarios deben ser rastreadas por un humano responsable con banderas para el diálogo problemático. Se requiere una diligencia especial para detectar y desconectar si se está interactuando con un menor cuando el chatbot debería limitarse a los adultos", añadió.

Safai declaró Fox News Digital que, aunque la IA puede ser una herramienta útil para ayudar a la salud mental -como las aplicaciones de diario, los rastreadores del estado de ánimo o los ejercicios básicos de terapia cognitivo-conductual (TCC)-, no debe sustituir a los terapeutas humanos, sobre todo en caso de problemas graves de salud mental.

"La IA no puede gestionar ninguna crisis: Si un usuario experimenta una crisis de salud mental, como pensamientos suicidas, una IA podría no reconocer la urgencia ni responder eficazmente, lo que podría tener consecuencias peligrosas", dijo, refiriéndose a los terapeutas de IA como una "idea terrible".

Un estudio publicado la semana pasada en la revista PLOS Mental Health descubrió que los chatbots de IA recibían valoraciones más altas de las personas que participaban en el estudio que sus homólogos humanos, y los sujetos los describían como más "culturalmente competentes" y "empáticos".

UNA HERRAMIENTA DE DIAGNÓSTICO DE SALUD MENTAL IMPULSADA POR AI PODRÍA SER LA PRIMERA DE SU CLASE EN PREDECIR Y TRATAR LA DEPRESIÓN

Signo AI

Un visitante observa una señal de IA (Inteligencia Artificial) en una pantalla animada en el Congreso Mundial de Móviles (MWC), la mayor reunión anual de la industria de las telecomunicaciones, en Barcelona. (JOSEP AFP vía Getty Images)

"Los expertos en salud mental se encuentran en una situación precaria: Debemos discernir rápidamente el posible destino (para bien o para mal) del tren terapeuta de la IA, pues puede que ya haya salido de la estación", escribieron los autores del estudio.

Las herramientas de terapia de IA suelen almacenar y analizar datos de los usuarios. Safai afirmó que esta información podría filtrarse o utilizarse indebidamente si no está debidamente protegida, lo que podría violar la confidencialidad del paciente.

Además, sugirió que la IA puede reforzar estereotipos perjudiciales o proporcionar consejos poco útiles que no sean cultural o personalmente apropiados si el modelo se entrena con datos incompletos o inexactos.

La Dra. Janette Leal, directora de Psiquiatría de Better U, dijo Fox News Digital que ha visto de primera mano cómo las intervenciones personalizadas y potentes pueden cambiar vidas. Aunque Leal reconoce que la IA podría ampliar el acceso a la ayuda para la salud mental -especialmente en zonas donde la ayuda es escasa-, sigue siendo cautelosa sobre los chatbots que se comportan como terapeutas autorizados.

LOS ADOLESCENTES RECURREN A "MI AI" DE SNAPCHAT PARA OBTENER APOYO EN SALUD MENTAL, ALGO CONTRA LO QUE ADVIERTEN LOS MÉDICOS

Botón AI

Mano robótica, pulsa el botón de inicio de la inteligencia artificial. Ilustración en 3D. (istock)

"He visto, tanto en mi práctica como a través de trágicos casos recientes, lo peligroso que puede ser que personas vulnerables confíen en la IA no regulada para obtener ayuda. En mi opinión, la IA sólo debe servir como complemento de la asistencia humana, funcionando bajo estrictas normas éticas y una sólida supervisión que garantice que no se pone en peligro la seguridad del paciente", continuó.

Jay Tobey, fundador de North Star Wellness and Recovery en Utah, se mostró más optimista sobre el uso de la IA para abordar la salud mental; sin embargo, no llegó a respaldar a los terapeutas de IA. En su lugar, dijo, un "escenario perfecto" implicaría que un terapeuta humano utilizara la IA como una "herramienta en su cinturón" para administrar un tratamiento adecuado.

"Creo que sería muy beneficioso utilizar chatbots de IA. Personalmente, creo que todos contamos una historia muy singular de lo que nos pasa y de cómo nos sentimos. Los humanos cuentan las mismas historias una y otra vez. Si un gran modelo lingüístico pudiera captar eso y empezar a hacer un seguimiento de los resultados para saber cuáles son las mejores prácticas, sería de gran ayuda", dijo a Fox News Digital.  

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS 

La APA insta ahora a la Comisión Federal de Comercio (FTC) a que investigue los chatbots que dicen ser profesionales de la salud mental, lo que algún día podría conducir a una regulación federal.