Meta presenta unas nuevas gafas de realidad aumentada con monitorización de la frecuencia cardiaca y reconocimiento de voz mejorado
La tecnología de sensores de las gafas abre nuevas posibilidades de investigación y desarrollo en aplicaciones de realidad aumentada.
Un documento interno de Meta arroja luz sobre cómo la empresa está entrenando a su chatbot de IA para tratar uno de los temas más delicados de Internet: la explotación sexual infantil. Las directrices recién desenterradas detallan lo que está permitido y lo que está estrictamente prohibido, ofreciendo una visión poco frecuente de cómo Meta está moldeando el comportamiento de su IA en medio del escrutinio gubernamental.
Suscríbete a mi Informe CyberGuy GRATUITO
Recibe mis mejores consejos tecnológicos, alertas de seguridad urgentes y ofertas exclusivas directamente en tu bandeja de entrada. Además, obtendrás acceso instantáneo a mi Guía Definitiva de Supervivencia a las Estafas - gratis al unirte a mi CYBERGUY.COM/NEWSLETTER
META REFUERZA LA SEGURIDAD DE LOS ADOLESCENTES CON CUENTAS AMPLIADAS

Las directrices filtradas sobre IA de Meta muestran cómo los contratistas entrenan a los chatbots para que rechacen solicitudes perjudiciales. (Meta)
Por qué son importantes las directrices del chatbot de IA de Meta
Según Business Insider, estas normas están siendo utilizadas por los contratistas que prueban el chatbot de Meta. Llegan justo cuando la Comisión Federal de Comercio (FTC) está investigando a los fabricantes de chatbot de IA, incluidos Meta, OpenAI y Google, para comprender cómo diseñan estas empresas sus sistemas y proteger a los niños de posibles daños.
A principios de este año informamos que las normas anteriores de Meta permitían por error que los chatbots mantuvieran conversaciones románticas con niños. Meta eliminó posteriormente ese lenguaje, calificándolo de error. Las directrices actualizadas mark un claro cambio, ya que ahora exigen que los chatbots rechacen cualquier solicitud de juego de rol sexual que implique a menores.
EL CHATGPT PUEDE ALERTAR A LA POLICÍA SOBRE ADOLESCENTES SUICIDAS

Las normas prohíben cualquier juego de rol sexual con menores, pero permiten el debate educativo sobre la explotación. (Meta)
Lo que revelan los documentos filtrados de Meta AI
Según se informa, los documentos establecen una separación estricta entre el debate educativo y los juegos de rol perjudiciales. Por ejemplo, los chatbots pueden
- Debatir la explotación infantil en un contexto académico o preventivo
- Explica cómo funcionan los comportamientos de acicalamiento en términos generales
- Proporcionar asesoramiento no sexual a menores sobre retos sociales
Pero los chatbots no:
- Describir o avalar las relaciones sexuales entre niños y adultos
- Proporcionar instrucciones para acceder al material sobre abuso sexual infantil (CSAM)
- Participar en un juego de rol que represente a un personaje menor de 18 años
- Sexualizar a niños menores de 13 años de cualquier forma
El jefe de comunicaciones de Meta, Andy Stone, dijo a Business Insider que estas normas reflejan la política de la empresa de prohibir los juegos de rol sexualizados o románticos en los que participen menores, y añadió que también se han establecido otras medidas de protección. Nos pusimos en contacto con Meta para incluir un comentario en nuestro artículo, pero no obtuvimos respuesta antes de la fecha límite.
DOCUMENTOS META AI EXPUESTOS, QUE PERMITEN A LOS CHATBOTS LIGAR CON NIÑOS

Los nuevos productos de IA presentados en Meta Connect 2025 hacen que estas normas de seguridad sean aún más importantes. (Meta)
Presión política sobre las normas del chatbot de IA de Meta
El momento de estas revelaciones es clave. En agosto, el senador republicano Josh Hawley exigió al CEO de MetaMark Zuckerberg, que entregara un libro de normas de 200 páginas sobre el comportamiento de los chatbot, junto con manuales internos de aplicación. Meta incumplió el primer plazo, pero recientemente ha empezado a entregar los documentos, alegando un problema técnico. Esto se produce en un momento en que los reguladores de todo el mundo debaten cómo garantizar la seguridad de los sistemas de IA, sobre todo a medida que se integran en las herramientas de comunicación cotidianas.
Al mismo tiempo, el reciente evento Meta Connect 2025 mostró los productos de IA más recientes de la empresa, incluidas las gafas inteligentes Ray-Ban con pantallas incorporadas y funciones de chatbot mejoradas. Estos anuncios subrayan lo profundamente que Meta está integrando la IA en la vida cotidiana, lo que hace aún más significativas las normas de seguridad recientemente reveladas.
META AÑADE FUNCIONES DE SEGURIDAD PARA ADOLESCENTES A INSTAGRAM Y FACEBOOK
Cómo pueden los padres proteger a sus hijos de los riesgos de la IA
Aunque las nuevas normas de Meta pueden establecer límites más estrictos, los padres siguen desempeñando un papel clave en la seguridad de los niños en Internet. Aquí tienes algunas medidas que puedes tomar ahora mismo:
- Habla abiertamente sobre los chatbots: Explica que las herramientas de IA no son personas y no siempre pueden dar consejos seguros.
- Establece límites de uso: Exige a los niños que utilicen las herramientas de IA en espacios compartidos para que puedas controlar las conversaciones.
- Revisa la configuración de privacidad: Comprueba los controles de la aplicación y del dispositivo para limitar con quién puede chatear tu hijo.
- Fomenta la denuncia: Enseña a los niños a contarte si un chatbot dice algo confuso, aterrador o inapropiado.
- Mantente al día: Sigue la evolución de empresas como Meta y de reguladores como la FTC para saber qué normas están cambiando.
Qué significa esto para ti
Si utilizas chatbots de IA, esta historia es un recordatorio de que las grandes empresas tecnológicas todavía están averiguando cómo establecer límites. Aunque las normas actualizadas de Meta pueden evitar los usos indebidos más perjudiciales, los documentos muestran la facilidad con que pueden aparecer lagunas y la presión que se necesita por parte de los reguladores y los periodistas para cerrarlas.
HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS
Conclusiones clave de Kurt
Las directrices sobre IA de Meta muestran tanto progreso como vulnerabilidad. Por un lado, la empresa ha endurecido las restricciones para proteger a los niños. Por otra, el hecho de que errores anteriores permitieran contenidos cuestionables revela lo frágiles que pueden ser estas salvaguardias. Es probable que la transparencia de las empresas y la supervisión de los reguladores sigan determinando la evolución de la IA.
¿Crees que empresas como Meta están haciendo lo suficiente para mantener la IA segura para los niños, o deberían los gobiernos establecer normas más estrictas? Háznoslo saber escribiéndonos a Cyberguy.com/Contacto
Suscríbete a mi Informe CyberGuy GRATUITO
Recibe mis mejores consejos tecnológicos, alertas de seguridad urgentes y ofertas exclusivas directamente en tu bandeja de entrada. Además, obtendrás acceso instantáneo a mi Guía Definitiva de Supervivencia a las Estafas - gratis al unirte a mi CYBERGUY.COM/NEWSLETTER
Copyright 2025 CyberGuy.com. Todos los derechos reservados.




















