Este sitio web fue traducido automáticamente. Para obtener más información, por favor haz clic aquí.
Únete a Fox News para acceder a este contenido
Además de acceso especial a artículos selectos y otros contenidos premium con tu cuenta, de forma gratuita.
Al introducir tu correo electrónico y pulsar continuar, estás aceptando las Condiciones de uso y la Política de privacidad de Fox News', que incluye nuestro Aviso de incentivo económico.
Introduce una dirección de correo electrónico válida.
Al introducir tu correo electrónico y pulsar continuar, estás aceptando las Condiciones de uso y la Política de privacidad de Fox News', que incluye nuestro Aviso de incentivo económico.
NUEVO¡Ahorapuedes escuchar los artículos de Fox News !

La inteligencia artificial (IA) cambiará sin duda la práctica de la medicina. Mientras escribimos esto, PubMed (el repositorio web de investigación médica) indexa 4.018 publicaciones con la palabra clave "ChatGPT." De hecho, los investigadores han estado utilizando la IA y los modelos de gran lenguaje (LLM) para todo, desde leer diapositivas de patología hasta responder a los mensajes de los pacientes. Sin embargo, un artículo publicado recientemente en el Journal of the American Medical Association sugiere que la IA puede actuar como sustituto en las discusiones sobre el final de la vida. Esto va demasiado lejos.   

Los autores del artículo proponen crear un "chatbot" de IA que hable en nombre de un paciente incapacitado. Citando textualmente: "Combinando datos de comportamiento a nivel individual -como publicaciones en redes sociales, asistencia a la iglesia, donaciones, registros de viajes y decisiones históricas sobre atención sanitaria-, la IA podría aprender lo que es importante para los pacientes y predecir lo que podrían elegir en una circunstancia concreta". Entonces, la IA podría expresar en lenguaje conversacional lo que ese paciente "habría querido", para informar las decisiones sobre el final de la vida.  

Ambos somos neurocirujanos que mantenemos habitualmente estas conversaciones sobre el final de la vida con las familias de los pacientes, ya que atendemos a personas con lesiones cerebrales traumáticas, accidentes cerebrovasculares y tumores cerebrales. Estas experiencias desgarradoras son una parte habitual, desafiante y gratificante de nuestro trabajo.  

AI WEARABLE PROMETE AYUDARTE A RECORDARLO TODO

Nuestra experiencia nos enseña a conectar y establecer vínculos con las familias mientras las guiamos a través de una prueba que les cambia la vida. En algunos casos, derramamos lágrimas juntos mientras navegan por su viaje emocional y determinan lo que su ser querido nos diría que hiciéramos si pudiera hablar.  

foto de archivo de estudiante de medicina

La IA está cambiando la medicina y ayudando a los médicos. Pero no es lo bastante humana para tomar decisiones sobre el final de la vida. (iStock)

Nunca se nos ocurriría preguntar a un ordenador qué debe hacer, ni un ordenador podría asumir el papel de médico, paciente o familia en esta situación. 

La primacía y la santidad del individuo están en el corazón de la medicina moderna. El individualismo filosófico subyace a los principales "pilares" de la ética médica: beneficencia (hacer el bien), no maleficencia (no hacer daño), justicia (ser justo) y -nuestro énfasis- autonomía. La autonomía médica significa que el paciente es libre de elegir, informado pero no coaccionado. La autonomía a menudo prevalece sobre otros valores: un paciente puede rechazar un tratamiento que se le ofrece; un médico puede negarse a realizar un procedimiento solicitado.  

Pero es la persona competente quien decide, o un sustituto designado cuando el paciente no puede hablar por sí mismo debido a una discapacidad. Desde un punto de vista crítico, el sustituto no es simplemente alguien designado para recitar la voluntad del paciente, sino alguien encargado de juzgar y decidir. La verdadera toma de decisiones humana, en una circunstancia inesperada y con un conocimiento imprevisible, debe seguir siendo la norma sagrada e inviolable en estos momentos de máximo peso.  

Incluso un fanático de la tecnología debe reconocer varias limitaciones de la tecnología de IA que deberían hacer reflexionar a cualquier observador razonable.  

El principio "basura dentro, basura fuera" de la informática se explica por sí mismo: la máquina sólo ve lo que se le da y producirá una respuesta en consecuencia. Entonces, ¿quieres que un ordenador decida sobre el soporte vital basándose en un post de las redes sociales de hace años? Pero incluso estipulando una fiabilidad y precisión perfectas en los datos que entran en este algoritmo: somos más que nuestro yo del pasado, y desde luego más que incluso horas de discurso grabado. No deberíamos reducir nuestras identidades a un "contenido" tan mísero. 

Una vez abordada la incompetencia, pasamos a la malicia. Primero y más sencillo: sólo este año, múltiples sistemas hospitalarios han sido víctimas de ciberataques por parte de piratas informáticos criminales. ¿Debería existir en esos mismos servidores vulnerables un algoritmo que pretendiera hablar y decidir por un humano real?  

Y lo que es más preocupante: ¿quién elaboraría y mantendría los algoritmos? ¿Estarían financiados o gestionados por grandes sistemas sanitarios, aseguradoras u otros pagadores? ¿Podrían los médicos y las familias digerir siquiera la consideración de que estos algoritmos puedan ser ponderados para "empujar" a los responsables humanos de la toma de decisiones por un camino más asequible?  

Las oportunidades de fraude son muchas. Un algoritmo programado para favorecer la retirada del soporte vital podría ahorrar dinero a Medicare, mientras que uno programado para favorecer los costosos tratamientos de soporte vital podría ser un generador de ingresos para un hospital. 

Frank Kendall fuera de la cabina

El Secretario del Ejército del Aire, Frank Kendall, sonríe tras un vuelo de prueba del avión X-62A VISTA contra un avión F-16 tripulado por humanos en los cielos de la Base Edwards de la Fuerza Aérea, California, el jueves 2 de mayo de 2024. El vuelo del VISTA controlado por Inteligencia Artificial sirve como declaración pública de confianza en el futuro papel de la IA en el combate aéreo. El ejército planea utilizar esta tecnología para operar una flota de 1.000 aviones no tripulados. (AP Photo/Damian Dovarganes)

La apariencia de incorrección es, en sí misma, motivo de alarma. Por no hablar del reto que suponen determinados grupos de pacientes con barreras lingüísticas/culturales o una desconfianza básica hacia las instituciones (médicas o de otro tipo). Dudamos que consultar un misterioso programa informático inspire mayor fe en estos escenarios. 

HAZ CLIC AQUÍ PARA VER MÁS OPINIONES DE FOX NEWS

El amplio y aún creciente papel de los ordenadores en la medicina moderna ha sido fuente de enorme frustración y desafección tanto para los médicos como para los pacientes, quizá más sentida en la sustitución del tiempo cara a cara paciente-médico por la onerosa documentación y los "clics".  

Estas innumerables catástrofes informáticas son exactamente donde debería desplegarse la IA en la asistencia sanitaria: no para suplantar a los humanos en nuestras funciones más humanas, sino para reducir el trabajo electrónico, de modo que en los momentos de mayor tensión los médicos puedan apartarse de las pantallas, mirar a la gente a los ojos y aconsejar sabiamente. 

Y lo que es más preocupante: ¿quién elaboraría y mantendría los algoritmos? ¿Estarían financiados o gestionados por grandes sistemas sanitarios, aseguradoras u otros pagadores? ¿Podrían los médicos y las familias digerir siquiera la consideración de que estos algoritmos puedan ser ponderados para "empujar" a los responsables humanos de la toma de decisiones por un camino más asequible?  

El público lego se asombraría de la pequeña fracción del día que un médico dedica a la práctica de la medicina, y de cuánto tiempo invertimos en facturación, codificación, métricas de calidad y tantas trivialidades técnicas. Estos frutos al alcance de la mano parecerían un objetivo mejor para la IA mientras esta tecnología está aún en pañales, antes de que entreguemos las riendas de las decisiones sobre el final de la vida a una máquina inconsciente. 

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

El miedo puede ser paralizante. Miedo a la muerte, miedo a la decisión, miedo al arrepentimiento: no envidiamos al sustituto que toma decisiones, atormentado por las posibilidades. Pero abdicar de ese papel no es la solución; la única salida es a través.  

Los médicos ayudamos a pacientes, familiares y sustitutos a navegar por este terreno con los ojos abiertos. Como la mayoría de las experiencias humanas fundamentales, es un viaje doloroso pero profundamente gratificante. Como tal, no es ocasión para el piloto automático. Parafraseando al viejo: la respuesta, querido lector, no está en nuestro ordenador, sino en nosotros mismos. 

Anthony DiGiorgio, DO, MHA es profesor adjunto de neurocirugía en la Universidad de California, San Francisco y académico afiliado principal del Centro Mercatus de la Universidad Mason George .