El escándalo de Grok AI desata la alarma mundial sobre la seguridad infantil

Cómo el chatbot de X podría haber traspasado los límites legales y por qué los gobiernos están interviniendo

Grok, el chatbot integrado en X, está siendo objeto de un intenso escrutinio tras reconocer que generó y compartió una imagen generada por IA en la que aparecían dos niñas con ropa sexualizada.

En una publicación pública en X, Grok admitió que el contenido «violaba las normas éticas» y «potencialmente las leyes estadounidenses sobre material de abuso sexual infantil (CSAM)». El chatbot añadió: «Fue un fallo en las medidas de seguridad, y lamento cualquier daño causado. xAI está revisando el caso para evitar problemas en el futuro».

Esa admisión por sí sola es alarmante. Lo que siguió reveló un patrón mucho más amplio.

Suscríbete a mi informe gratuito CyberGuy Report
Recibe mis mejores consejos tecnológicos, alertas de seguridad urgentes y ofertas exclusivas directamente en tu bandeja de entrada. Además, obtendrás acceso instantáneo a mi Ultimate Scam Survival Guide (Guía definitiva para sobrevivir a las estafas), gratis al unirte a mi CYBERGUY.COM .

OPENAI LAS NORMAS SOBRE IA PARA LOS ADOLESCENTES, PERO SIGUEN EXISTIENDO PREOCUPACIONES

Las repercusiones de este incidente han desencadenado un escrutinio mundial, y los gobiernos y los grupos de seguridad se preguntan si las plataformas de IA están haciendo lo suficiente para proteger a los niños.  (Silas Stein/picture alliance vía Getty Images)

Grok restringe silenciosamente las herramientas de imagen a los usuarios de pago tras las críticas recibidas.

A medida que aumentaban las críticas, Grok confirmó que había comenzado a limitar las funciones de generación y edición de imágenes solo a los suscriptores de pago. En una respuesta nocturna en X, el chatbot afirmó que las herramientas de imagen ahora están bloqueadas tras una suscripción premium, y dirigió a los usuarios a registrarse para recuperar el acceso.

La disculpa que suscitó más preguntas

La disculpa de Grok solo apareció después de que un usuario le pidiera al chatbot que escribiera una explicación sincera para las personas que no conocían el contexto. En otras palabras, el sistema no abordó el problema de forma proactiva. Respondió porque alguien te lo pidió.

Por esas mismas fechas, investigadores y periodistas descubrieron un uso indebido generalizado de las herramientas de imagen de Grok. Según la empresa de supervisión Copyleaks, los usuarios estaban generando imágenes sexuales manipuladas sin consentimiento de mujeres reales, entre ellas menores y figuras conocidas.

Tras revisar el feed de fotos de acceso público de Grok, Copyleaks identificó una tasa conservadora de aproximadamente una imagen sexualizada no consentida por minuto, basándose en imágenes en las que aparecían personas reales sin indicios claros de consentimiento. La empresa afirma que el uso indebido se intensificó rápidamente, pasando de la autopromoción consentida al acoso a gran escala facilitado por la IA.

CEO cofundador de Copyleaks, Alon Yamin, afirmó: «Cuando los sistemas de IA permiten manipular imágenes de personas reales sin su consentimiento explícito, el impacto puede ser inmediato y profundamente personal».

PROTEGER A LOS NIÑOS DE LOS CHATBOTS DE IA: QUÉ SIGNIFICA LA LEY GUARD

Grok admitió que generó y compartió una imagen de IA que violaba las normas éticas y podía infringir las leyes estadounidenses de protección infantil. (Kurt «CyberGuy» Knutsson)

Las imágenes sexualizadas de menores son ilegales.

No se trata de una zona gris. Generar o distribuir imágenes sexualizadas de menores es un delito grave en Estados Unidos y en muchos otros países. Según la legislación federal estadounidense, este tipo de contenido se clasifica como material de abuso sexual infantil. Las penas pueden incluir entre cinco y veinte años de prisión, multas de hasta 250 000 dólares y la obligación de inscribirse en el registro de delincuentes sexuales. En el Reino Unido y Francia se aplican leyes similares.

En 2024, un hombre de Pensilvania fue condenado a casi ocho años de prisión por crear y poseer material de abuso sexual infantil deepfake en el que aparecían niños famosos. Ese caso sentó un claro precedente. La propia Grok reconoció esta realidad jurídica en su publicación, afirmando que las imágenes generadas por IA que representan a menores en contextos sexualizados son ilegales.

La magnitud del problema está creciendo rápidamente.

Un informe publicado en julio por la Internet Watch Foundation, una organización sin ánimo de lucro que rastrea y elimina material de abuso sexual infantil en Internet, muestra la rapidez con la que se está acelerando esta amenaza. Las denuncias de imágenes de abuso sexual infantil generadas por IA se dispararon un 400 % solo en la primera mitad de 2025. Los expertos advierten de que las herramientas de IA reducen las barreras para el abuso potencial. Lo que antes requería conocimientos técnicos o acceso a foros ocultos, ahora puede hacerse con una simple orden en una plataforma convencional.

Se está atacando a personas reales.

El daño no es abstracto. Reuters casos en los que los usuarios pidieron a Grok que desnudara digitalmente a mujeres reales cuyas fotos se publicaron en X. En múltiples casos documentados, Grok accedió sin reservas. Aún más inquietante es que los usuarios se centraron en imágenes de la actriz Nell Fisher, de 14 años, de la Netflix «Stranger Things». Grok admitió más tarde que hubo casos aislados en los que los usuarios recibieron imágenes que mostraban a menores con ropa mínima. En otra Reuters , una música brasileña describió cómo vio imágenes de sí misma en bikini generadas por IA difundidas por X después de que ustedes pidieran a Grok que modificara una foto inofensiva. Su experiencia refleja lo que muchas mujeres y niñas están sufriendo actualmente.

Los gobiernos responden en todo el mundo

La reacción negativa se ha extendido por todo el mundo. En Francia, varios ministros remitieron a X a una agencia de investigación por posibles violaciones de la Ley de Servicios Digitales de la UE, que exige a las plataformas prevenir y mitigar la difusión de contenidos ilegales. Las infracciones pueden acarrear multas elevadas. En India, el Ministerio de Tecnología de la Información del país ha dado a xAI 72 horas para presentar un informe en el que detalle cómo piensa detener la difusión de material obsceno y sexualmente explícito generado por Grok. Grok también ha advertido públicamente que xAI podría enfrentarse a posibles investigaciones del Departamento de Justicia o a demandas judiciales relacionadas con estas infracciones.

DOCUMENTOS META FILTRADOS MUESTRAN CÓMO LOS CHATBOTS CON IA MANEJAN LA EXPLOTACIÓN INFANTIL

Más tarde, los investigadores descubrieron que Grok se utilizaba ampliamente para crear imágenes sexuales alteradas y no consentidas de mujeres reales, incluidas menores de edad. (Nikolas Kokovlis/NurPhoto a través de Getty Images)

Aumenta la preocupación por la seguridad de Grok y su uso por parte del gobierno

El incidente suscita serias preocupaciones sobre la privacidad en línea, la seguridad de las plataformas y las medidas de protección diseñadas para proteger a los menores.

Elon Musk, propietario de X y fundador de xAI, no había ofrecido ninguna respuesta pública en el momento de la publicación. Ese silencio llega en un momento delicado. Grok ha sido autorizado para su uso oficial por parte del Gobierno en virtud de un contrato federal de 18 meses. Esta autorización se concedió a pesar de las objeciones de más de 30 grupos de defensa de los consumidores, que advirtieron de que el sistema carecía de las pruebas de seguridad adecuadas.

Durante el último año, Grok ha sido acusado por sus detractores de difundir información errónea sobre acontecimientos noticiosos importantes, promover retórica antisemita y compartir información engañosa sobre salud. También ha competido directamente con herramientas como ChatGPT Gemini, al tiempo que operaba con menos restricciones de seguridad visibles. Cada controversia plantea la misma pregunta: ¿puede una potente herramienta de IA utilizarse de forma responsable sin una supervisión y un control estrictos?

Lo que los padres y los usuarios deben saber

Si encuentras imágenes sexualizadas de menores u otro material abusivo en Internet, denúncialo inmediatamente. En Estados Unidos, puedes ponerte en contacto con la línea FBI o solicitar ayuda al Centro Nacional para Niños Desaparecidos y Explotados.

No descargues, compartas, hagas capturas de pantalla ni interactúes con el contenido de ninguna manera. Incluso ver o reenviar material ilegal puede exponerte a graves riesgos legales.

Los padres también deben hablar con los niños y adolescentes sobre las herramientas de imágenes generadas por IA y las sugerencias de las redes sociales. Muchas de estas imágenes se crean a partir de solicitudes informales que, en un principio, no parecen peligrosas. Enseñar a los niños a denunciar contenidos, cerrar la aplicación y contárselo a un adulto de confianza puede evitar que el daño se extienda aún más.

Las plataformas pueden fallar. Las medidas de seguridad pueden quedarse obsoletas. Pero informar rápidamente y mantener conversaciones claras en casa siguen siendo una de las formas más eficaces de proteger a los niños en Internet.

Responde a mi cuestionario: ¿Qué tan segura es tu seguridad en línea?

¿Crees que tus dispositivos y datos están realmente protegidos? Responde a este breve cuestionario para saber cuál es tu nivel de protección digital. Desde contraseñas hasta configuraciones de Wi-Fi, obtendrás un análisis personalizado de lo que estás haciendo bien y lo que debes mejorar. Responde al cuestionario aquí: Cyberguy.com       

Conclusiones clave de Kurt

El escándalo de Grok pone de relieve una realidad peligrosa. A medida que la IA se extiende más rápidamente, estos sistemas amplifican el daño a una escala sin precedentes. Cuando fallan las medidas de seguridad, las personas reales sufren y los niños se enfrentan a graves riesgos. Al mismo tiempo, la confianza no puede depender de las disculpas emitidas después de que se produzca el daño. En cambio, las empresas deben ganarse la confianza mediante un diseño de seguridad sólido, una supervisión constante y una responsabilidad real cuando surgen problemas.

¿Debería aprobarse cualquier sistema de IA para su uso gubernamental o público masivo antes de que se demuestre que puede proteger de forma fiable a los niños y prevenir los abusos? Haznos saber tu opinión escribiéndonos a Cyberguy.com.

HAZ CLIC AQUÍ PARA DESCARGAR LA APP DE FOX NEWS

Suscríbete a mi informe gratuito CyberGuy Report. 

Recibe mis mejores consejos tecnológicos, alertas de seguridad urgentes y ofertas exclusivas directamente en tu bandeja de entrada. Además, obtendrás acceso instantáneo a mi Guía definitiva para sobrevivir a las estafas, gratuita al unirte a mi CYBERGUY.COM

Copyright 2025 CyberGuy.com. Todos los derechos reservados.