Este sitio web fue traducido automáticamente. Para obtener más información, haz clic aquí.
¡Ahora puedes escuchar Fox News de Fox News !

Un documento interno de Meta arroja luz sobre cómo la empresa está entrenando a su chatbot con IA para manejar uno de los temas más delicados en Internet: la explotación sexual infantil. Las directrices recientemente descubiertas detallan lo que está permitido y lo que está estrictamente prohibido, lo que ofrece una visión poco habitual de cómo Meta está configurando el comportamiento de su IA en medio del escrutinio gubernamental.

Suscríbete a mi informe gratuito CyberGuy
Recibe mis mejores consejos tecnológicos, alertas de seguridad urgentes y ofertas exclusivas directamente en tu bandeja de entrada. Además, obtendrás acceso instantáneo a mi Guía definitiva para sobrevivir a las estafas, gratis al unirte a mi CYBERGUY.COM/NEWSLETTER  

META REFUERZA LA SEGURIDAD DE LOS ADOLESCENTES CON CUENTAS AMPLIADAS

Página de escritorio con un

Las directrices de IA filtradas de Meta muestran cómo los contratistas entrenan a los chatbots para rechazar solicitudes perjudiciales. (Meta)

Por qué son importantes las directrices de Meta para los chatbots con IA

Según Business Insider, estas reglas ya están siendo utilizadas por los contratistas que prueban el chatbot de Meta. Llegan justo cuando la Comisión Federal de Comercio (FTC) está investigando a los fabricantes de chatbots con IA, entre ellos Meta, OpenAI y Google, para comprender cómo diseñan sus sistemas y protegen a los niños de posibles daños.

A principios de este año, informamos que las normas anteriores de Meta permitían erróneamente que los chatbots mantuvieran conversaciones románticas con niños. Meta eliminó posteriormente esa redacción, calificándola de error. Las directrices actualizadas mark claro cambio, ya que ahora exigen que los chatbots rechacen cualquier solicitud de juegos sexuales que impliquen a menores.

CHATGPT PODRÍA ALERTAR A LA POLICÍA SOBRE ADOLESCENTES SUICIDAS

Pantalla de smartphone con indicador circular de escucha y

Las normas prohíben cualquier juego de rol sexual con menores, pero permiten el debate educativo sobre la explotación. (Meta)

Lo que revelan los documentos filtrados de Meta AI

Según se informa, los documentos establecen una separación estricta entre el debate educativo y los juegos de rol perjudiciales. Por ejemplo, los chatbots pueden:

  • Hablar sobre la explotación infantil en un contexto académico o preventivo.
  • Explica cómo funcionan los comportamientos de acicalamiento en términos generales.
  • Proporcionar a los menores consejos no sexuales sobre retos sociales.

Pero los chatbots no deben:

  • Describir o respaldar las relaciones sexuales entre niños y adultos.
  • Proporcionar instrucciones para acceder a material de abuso sexual infantil (CSAM).
  • Participar en juegos de rol que representen a un personaje menor de 18 años.
  • Sexualizar a niños menores de 13 años de cualquier forma.

El director de comunicaciones de Meta, Andy Stone, declaró a Business Insider que estas normas reflejan la política de la empresa de prohibir los juegos de rol sexualizados o románticos en los que participen menores, y añadió que también se han establecido medidas de protección adicionales. Nos pusimos en contacto con Meta para recabar sus comentarios y incluirlos en nuestro artículo, pero no obtuvimos respuesta antes de la fecha límite. 

META AI DOCS EXPUSO, PERMITIENDO QUE LOS CHATBOTS COQUETEEN CON LOS NIÑOS

Teléfono que muestra una criatura peluda bajo un paraguas con una hoja para compartir superpuesta que muestra contactos y aplicaciones.

Los nuevos productos de IA presentados en Meta Connect 2025 hacen que estas normas de seguridad sean aún más importantes. (Meta)

Presión política sobre las normas de Meta para los chatbots con IA

El momento en que se producen estas revelaciones es clave. En agosto, el senador Josh , republicano por Misuri, exigió CEO MetaMark , que entregara un manual de 200 páginas sobre el comportamiento de los chatbots, junto con los manuales internos de aplicación. Meta no cumplió el primer plazo, pero recientemente ha comenzado a proporcionar los documentos, alegando un problema técnico. Esto se produce en un momento en el que los reguladores de todo el mundo debaten cómo garantizar la seguridad de los sistemas de IA, especialmente ahora que se están integrando en las herramientas de comunicación cotidianas.

Al mismo tiempo, el reciente evento Meta Connect 2025 presentó los últimos productos de IA de la empresa, incluidas las gafas inteligentes Ray-Ban con pantallas integradas y funciones de chatbot mejoradas. Estos anuncios ponen de relieve hasta qué punto Meta está integrando la IA en la vida cotidiana, lo que hace que las normas de seguridad recientemente reveladas sean aún más significativas.

META AÑADE FUNCIONES DE SEGURIDAD PARA ADOLESCENTES A INSTAGRAM Y FACEBOOK 

Cómo pueden los padres proteger a sus hijos de los riesgos de la IA

Aunque las nuevas normas de Meta pueden establecer límites más estrictos, los padres siguen desempeñando un papel fundamental en la seguridad de los niños en Internet. Estas son algunas medidas que puedes tomar ahora mismo:

  • Habla abiertamente sobre los chatbots: explica que las herramientas de IA no son personas y que no siempre pueden dar consejos seguros.
  • Establece límites de uso: exige a los niños que utilicen las herramientas de IA en espacios compartidos para que puedas supervisar las conversaciones.
  • Revisa la configuración de privacidad: comprueba los controles de las aplicaciones y los dispositivos para limitar con quién puede chatear tu hijo.
  • Anima a los niños a informar: enséñales a que te avisen si un chatbot dice algo confuso, aterrador o inapropiado.
  • Mantente al día: sigue las novedades de empresas como Meta y organismos reguladores como la FTC para saber qué normas están cambiando.

Qué significa esto para ti

Si utilizas chatbots con IA, esta historia te recuerda que las grandes empresas tecnológicas aún están tratando de determinar cómo establecer límites. Si bien las normas actualizadas de Meta pueden evitar los usos indebidos más perjudiciales, los documentos muestran lo fácil que es que aparezcan lagunas y la gran presión que deben ejercer los reguladores y los periodistas para subsanarlas.

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS 

Conclusiones clave de Kurt

Las directrices de Meta sobre IA muestran tanto avances como vulnerabilidades. Por un lado, la empresa ha endurecido las restricciones para proteger a los niños. Por otro lado, el hecho de que errores anteriores permitieran contenidos cuestionables pone de manifiesto lo frágiles que pueden ser estas medidas de protección. Es probable que la transparencia de las empresas y la supervisión de los reguladores sigan determinando la evolución de la IA.

¿Crees que empresas como Meta están haciendo lo suficiente para garantizar la seguridad de la IA para los niños, o deberían los gobiernos establecer normas más estrictas? Envíanos tu opinión a Cyberguy.com/Contact

Suscríbete a mi informe gratuito CyberGuy
Recibe mis mejores consejos tecnológicos, alertas de seguridad urgentes y ofertas exclusivas directamente en tu bandeja de entrada. Además, obtendrás acceso instantáneo a mi Guía definitiva para sobrevivir a las estafas, gratis al unirte a mi CYBERGUY.COM/NEWSLETTER

Copyright 2025 CyberGuy.com. Todos los derechos reservados.