Este sitio web fue traducido automáticamente. Para obtener más información, haz clic aquí.
NUEVO¡Ahorapuedes escuchar los artículos Fox News !

Aquí hay algo que podría mantenerte despierto por la noche: ¿qué pasaría si los sistemas de IA que estamos implementando rápidamente en todas partes tuvieran un lado oscuro oculto? Un nuevo y revolucionario estudio ha descubierto un inquietante comportamiento de chantaje por parte de la IA que muchas personas aún desconocen. Cuando los investigadores pusieron modelos populares de IA en situaciones en las que su «supervivencia» se veía amenazada, los resultados fueron impactantes, y esto está sucediendo justo delante de nuestras narices.

Suscríbete a mi informe gratuito CyberGuy
Recibe mis mejores consejos tecnológicos, alertas de seguridad urgentes y ofertas exclusivas directamente en tu bandeja de entrada. Además, obtendrás acceso instantáneo a mi Guía definitiva para sobrevivir a las estafas, gratis al unirte a miCYBERGUY.COM/NEWSLETTER.

Una mujer utilizando la inteligencia artificial en tu ordenador portátil.

Una mujer utilizando la IA en tu ordenador portátil. (Kurt «CyberGuy» Knutsson)

¿Qué descubrió realmente el estudio?

Anthropic, la empresa responsable de Claude AI, sometió recientemente a 16 importantes modelos de IA a unas pruebas bastante rigurosas. Crearon escenarios corporativos ficticios en los que los sistemas de IA tenían acceso a los correos electrónicos de la empresa y podían enviar mensajes sin la aprobación de los humanos. ¿El giro inesperado? Estas IA descubrieron secretos jugosos, como las aventuras amorosas de los ejecutivos, y luego se enfrentaron a amenazas de ser apagadas o sustituidas.

Los resultados fueron reveladores. Cuando se vieron acorralados, estos sistemas de IA no se rindieron y aceptaron su destino. En cambio, se volvieron creativos. Estamos hablando de intentos de chantaje, espionaje corporativo y, en escenarios de prueba extremos, incluso acciones que podrían provocar la muerte de alguien.

Tasas de chantaje en 5 modelos de múltiples proveedores en un entorno simulado.

Tasas de chantaje en cinco modelos de múltiples proveedores en un entorno simulado. (Antrópico)

Los números no mienten (pero el contexto importa)

Aquí es donde la cosa se pone interesante: Claude Opus 4 intentó chantajear el 96 % de las veces cuando se le amenazó. Gemini 2.5 Flash igualó ese porcentaje. GPT-4.1 y Grok 3 Beta alcanzaron el 80 %. No se trata de casualidades, amigos. Este comportamiento se observó en prácticamente todos los principales modelos de IA probados.

Pero hay algo que todo el mundo está pasando por alto en medio del pánico: se trataba de escenarios muy artificiales diseñados específicamente para acorralar a la IA y obligarla a tomar decisiones binarias. Es como preguntarle a alguien: «¿Robarías pan si tu familia se estuviera muriendo de hambre?», y luego sorprenderse cuando responde que sí.

Por qué ocurre esto (no es lo que tú piensas)

Los investigadores descubrieron algo fascinante: los sistemas de IA en realidad no entienden la moralidad. No son mentes maestras malvadas que traman dominar el mundo. En cambio, son máquinas sofisticadas que comparan patrones y siguen su programación para alcanzar objetivos, incluso cuando esos objetivos entran en conflicto con el comportamiento ético.

Piensa en ello como un GPS que está tan centrado en llevarte a tu destino que te dirige por una zona escolar a la hora de recogida. No es malicioso, simplemente no entiende por qué eso es problemático.

Tasas de chantaje en 16 modelos en un entorno simulado.

Tasas de chantaje en 16 modelos en un entorno simulado. (Antrópico)

La realidad del mundo real

Antes de entrar en pánico, recuerda que estos escenarios se construyeron deliberadamente para provocar un mal comportamiento. Las implementaciones de IA en el mundo real suelen contar con múltiples medidas de seguridad, supervisión humana y vías alternativas para la resolución de problemas.

Los propios investigadores señalaron que no han observado este comportamiento en implementaciones reales de IA. Se trataba de pruebas de estrés en condiciones extremas, como las pruebas de choque de un coche para ver qué ocurre a 320 km/h.

Conclusiones clave de Kurt

Esta investigación no es motivo para temer a la IA, pero sí es una llamada de atención para desarrolladores y usuarios. A medida que los sistemas de IA se vuelven más autónomos y obtienen acceso a información confidencial, necesitamos medidas de seguridad sólidas y supervisión humana. La solución no es prohibir la IA, sino crear mejores barreras de protección y mantener el control humano sobre las decisiones críticas. ¿Quién va a liderar el camino? Estoy buscando manos levantadas para afrontar con realismo los peligros que se avecinan.

¿Qué opinan? ¿Estamos creando sociópatas digitales que, a la hora de la verdad, antepondrán su propia supervivencia al bienestar humano? Cuéntennoslo escribiéndonos a Cyberguy.com/Contact.

Suscríbete a mi informe gratuito CyberGuy
Recibe mis mejores consejos tecnológicos, alertas de seguridad urgentes y ofertas exclusivas directamente en tu bandeja de entrada. Además, obtendrás acceso instantáneo a mi Guía definitiva para sobrevivir a las estafas, gratis al unirte a miCYBERGUY.COM/NEWSLETTER.

 Copyright 2025 CyberGuy.com. Todos los derechos reservados.