Este sitio web fue traducido automáticamente. Para obtener más información, haz clic aquí.
¡Ahora puedes escuchar Fox News de Fox News !

Si alguna vez te has preguntado cómo las plataformas pueden gestionar a millones de usuarios a la vez, aquí es donde la cosa se pone seria. Roblox tiene más de 144 millones de usuarios diarios. Esa magnitud supone un reto enorme. El contenido nocivo no siempre se manifiesta de forma evidente. A veces, es la combinación de varios factores lo que genera el problema. Ahora, la empresa está implementando un nuevo sistema diseñado precisamente para detectar eso. Pero antes, conviene entender qué es realmente Roblox.

Suscríbete a mi informe GRATUITO «CyberGuy Report» en
. Recibe mis mejores consejos tecnológicos, alertas de seguridad urgentes y ofertas exclusivas directamente en tu bandeja de entrada. Además, tendrás acceso inmediato a mi «Guía definitiva para sobrevivir a las estafas», totalmente gratis al unirte a mi boletín de CYBERGUY.COM boletín  

UN INMIGRANTE ILEGAL MEXICANO HABRÍA UTILIZADO LA MONEDA DE ROBLOX PARA SOLICITAR CONTENIDO EXPLÍCITO A NIÑOS MENORES DE 10 AÑOS
 

Un niño está sentado en el sofá jugando a Roblox en un smartphone.

Roblox lanza un nuevo sistema de IA que analiza escenas completas en tiempo real para detectar contenido perjudicial en toda su plataforma. (BrentBloomberg Getty Images)

¿Qué es Roblox?

Roblox es una plataforma en línea donde la gente puede crear, compartir y jugar a juegos creados por otros usuarios. En lugar de ser un solo juego, es un enorme ecosistema de experiencias generadas por los usuarios que van desde simples carreras de obstáculos hasta complejos mundos virtuales.

Lo que diferencia a Roblox es el grado de control que tienen los usuarios. Los jugadores no se limitan a consumir contenido, sino que lo crean constantemente en tiempo real a través de avatares, texto y entornos interactivos. Esa creación constante es precisamente lo que hace que la moderación sea más compleja.

Una forma más inteligente de detectar contenido perjudicial

La mayoría de las herramientas de moderación se centran en un solo elemento cada vez: un mensaje, una imagen, un avatar. Ese enfoque puede hacer que se pierda la visión global. En una entrevista exclusiva con CyberGuy, Matt , director de seguridad de Roblox, explicó claramente este cambio:

«Ya moderamos todos los elementos de un mundo virtual, pero la forma en que se combinan e interactúan ha sido durante mucho tiempo un reto. Nuestro nuevo sistema de moderación multimodal en tiempo real analiza toda una escena simultáneamente desde el punto de vista del usuario —incluidos los objetos 3D, los avatares y el texto— y captura todos estos elementos juntos en un momento concreto para evaluar si la combinación de tipos de contenido incumple nuestras normas».

A esto se le llama moderación multimodal. En lugar de analizar cada contenido por separado, lo analiza todo en conjunto y en tiempo real.

¿Por qué los sistemas más antiguos no detectaban el problema?

Este es el problema al que se han enfrentado las plataformas durante años. Algo puede parecer inofensivo por sí solo, pero, cuando se combina con otros elementos, puede resultar perjudicial o infringir las normas.

Kaufman lo explica así: «Los sistemas tradicionales de moderación basados en IA, que analizan un elemento cada vez, pueden carecer de contexto y pasar por alto combinaciones que podrían resultar problemáticas de formas en las que los elementos por separado no lo son. Este modelo entiende la relación entre los distintos elementos y cómo se combinan entre sí para detectar infracciones sutiles que los filtros estándar podrían pasar por alto».

Ese contexto que falta es precisamente lo que los malintencionados han estado aprovechando.

Lo que realmente detecta esta nueva IA

Este sistema se centra en situaciones que antes se pasaban por alto. Piensa en juegos en los que los usuarios pueden dibujar libremente o personalizar avatares. Un dibujo por sí solo puede parecer inofensivo. Un avatar por sí solo puede parecer inofensivo. Pero juntos, podrían dar lugar a algo inapropiado.

Kaufman explica cómo funciona el sistema: «El sistema puede detectar combinaciones de elementos que puedan infringir nuestras normas comunitarias. Por ejemplo, algunos juegos permiten dibujar libremente. Este sistema de moderación multimodal en tiempo real analizaría el dibujo, el avatar y el entorno 3D en su conjunto y los evaluaría de forma integral, con el fin de detectar y cerrar los servidores con contenido que incumpla las normas». 

En este momento, la implementación ya se está centrando en los avatares problemáticos y los dibujos inapropiados.

LOUISIANA DEMANDA A LA PLATAFORMA DE JUEGOS EN LÍNEA ROBLOX POR PERMITIR PRESUNTAMENTE LA ACTIVIDAD DE DEPREDADORES INFANTILES
 

Un niño juega a Roblox en un portátil.

Los responsables de Roblox afirman que el nuevo sistema tiene como objetivo proteger de forma proactiva a los niños sin afectar a la experiencia de juego de los usuarios que cumplen las normas. (Riccardo Milani/HansAFP Getty Images)

La magnitud es mayor de lo que crees

No se trata de un pequeño ajuste. Es algo a gran escala. Roblox dice que ya está cerrando unos 5.000 servidores al día por incumplimientos.

Kaufman dice que eso refleja la realidad de la plataforma: «Con 144 millones de usuarios conectándose y creando en Roblox cada día, nuestros sistemas de seguridad deben ser tan ágiles y dinámicos como los propios creadores».

Además, añade una importante llamada a la realidad: «Ningún sistema es infalible frente a los malintencionados, así que nos comprometemos a hacer todo lo posible para adelantarnos a quienes intentan eludir los protocolos de seguridad, y estamos trabajando para ampliar este nuevo sistema multimodal con el fin de registrar y supervisar el 100 % del tiempo de juego».

¿Qué cambia para los usuarios habituales de Roblox?

Si tú o tus hijos usáis Roblox, es probable que este sistema funcione en segundo plano sin que os deis cuenta. Pero cambia la rapidez con la que se frena el comportamiento perjudicial.

«Cuando se producen comportamientos problemáticos de forma repetida en una misma partida, este nuevo sistema está diseñado para detectar automáticamente y cerrar esos servidores específicos en tiempo real, lo que reduce considerablemente el número de usuarios que podrían verse expuestos a ese comportamiento».

Eso último es importante. En lugar de cerrar todo el juego, solo se centra en el problema.

«Al centrarnos solo en el servidor que incumple las normas, en lugar de en toda la experiencia, podemos ayudar a evitar que las infracciones afecten a más usuarios, al tiempo que permitimos que los jugadores que actúan de buena fe sigan con sus sesiones sin interrupciones». 

Qué significa esto para los padres

Para los padres, esto supone un gran cambio hacia una seguridad proactiva. En lugar de esperar a que se denuncien los incidentes, el sistema actúa en tiempo real.

Kaufman explica: «Queremos que los padres sepan que no nos limitamos a reaccionar ante las denuncias, sino que estamos desarrollando de forma proactiva algunos de los sistemas de moderación basados en IA más sofisticados del mundo para ayudar a proteger a sus hijos en tiempo real».

Además, hay una importante medida de protección durante el juego: «Ahora podemos evaluar en tiempo real una combinación de textos problemáticos, dibujos en 3D o movimientos de avatares y cerrar ese servidor concreto de inmediato, a menudo antes incluso de que un niño llegue a verlo».

Aun así, Roblox insiste en que la tecnología por sí sola no basta. «Ningún sistema es perfecto, y animamos a los padres a que hablen con sus hijos sobre la seguridad en Internet».

Formas en que los padres pueden ayudar a mantener a los niños a salvo

Aunque cuentes con sistemas avanzados de moderación basados en IA, unos sencillos pasos pueden ayudarte a ir un paso por delante y garantizar la seguridad de tu hijo en Internet.

1) Habla con tu hijo sobre lo que hace en Internet

Pregúntales a qué juegos juegan y con quién interactúan para seguir estando al tanto.

2) Anima a que se comunique cualquier cosa que parezca rara

Recuérdale a tu hijo que te cuente si ve algún comportamiento que le parezca inapropiado o que le haga sentir incómodo.

3) Revisa con él la configuración de privacidad y seguridad

Revisa la configuración de la cuenta para limitar quién puede chatear o interactuar con tu hijo.

4) Establece límites claros para el juego

Acordad unas normas sobre el tiempo que pasan frente a la pantalla y qué tipo de actividades están permitidas.

CEO DE ROBLOX CEO A LAS CRÍTICAS SOBRE LA SEGURIDAD DE LOS NIÑOS: ESTABLECIENDO EL «ESTÁNDAR DE REFERENCIA» EN MATERIA DE SEGURIDAD
 

Se muestra el exterior de la sede de Roblox.

Roblox se centra en detectar infracciones sutiles analizando los avatares, los mensajes de texto y los entornos de forma conjunta, en lugar de hacerlo por separado. (Getty Images)


Cómo evita Roblox los falsos positivos

Una de las preocupaciones con cualquier sistema de IA es que se equivoque. Roblox dice que está trabajando activamente para mejorar la precisión con el tiempo.

«Tenemos un ciclo de evaluación continuo para medir los falsos positivos del sistema de moderación multimodal, y estamos entrenando el sistema con esa información para que pueda detectar ese tipo de casos en el futuro».

Los comentarios de los usuarios también son importantes. «Nuestros creadores y usuarios suelen ser los primeros en detectar las nuevas tendencias que surgen... Este tipo de denuncias es la forma más eficaz que tienen los usuarios de ayudar a proteger la comunidad».

La IA combinada con la supervisión humana sigue siendo importante

«Aunque haya automatización, los humanos siguen estando involucrados. Ya utilizamos una combinación de inteligencia artificial y un equipo de expertos en seguridad para revisar el contenido subido a la plataforma antes de que se muestre a los usuarios».

El nuevo sistema añade una capa más, no sustituye a la existente. «Este sistema de moderación multimodal en tiempo real es una capa adicional y evalúa de forma totalmente automática toda la escena».

¿Y qué hay de la privacidad y la equidad?

Cualquier sistema tan potente como este plantea dudas sobre la privacidad y la extralimitación. Roblox afirma que está restringiendo el uso de los datos: «Nuestros sistemas y procesos están diseñados para que los datos recopilados por motivos de seguridad se utilicen únicamente con fines de seguridad».

En cuanto a la equidad, la empresa destaca la formación continua y la transparencia: «Nos centramos en garantizar que nuestros sistemas de seguridad sean a la vez muy eficaces y justos».

Además, están dando más visibilidad a los creadores: «Hemos añadido un nuevo gráfico en el panel de control de los creadores que permite a los desarrolladores ver exactamente cuántos servidores de su juego se han cerrado».

A dónde va esto

Este sistema acaba de empezar. Uno de los objetivos futuros es detectar recreaciones de sucesos del mundo real que puedan sobrepasar los límites.

Kaufman explica por qué el contexto es importante en este caso: «Los filtros estándar pueden ver un edificio concreto o una línea de texto de forma aislada y no detectar una infracción. Sin embargo, la moderación multimodal en tiempo real es capaz de comprender la relación entre el entorno, la forma en que los avatares interactúan en él y el chat que lo acompaña».

Además, se está intentando ir más allá del simple cierre de servidores: «Estamos trabajando en formas de identificar a los usuarios malintencionados concretos para poder eliminarlos sin afectar a la experiencia de la gran mayoría de nuestros jugadores, que tienen buenas intenciones».

Conclusiones clave de Kurt

Esto supone un cambio importante en la forma en que las plataformas online abordan la seguridad. En lugar de reaccionar cuando algo sale mal, Roblox está intentando frenar los comportamientos nocivos antes de que la mayoría de los usuarios lleguen a verlos. Es una gran promesa, sobre todo a esta escala. Al mismo tiempo, pone de relieve una cuestión más profunda sobre el futuro de los espacios online. A medida que la IA se implique más en la moderación de los comportamientos, el equilibrio entre seguridad, equidad y libertad no hará más que complicarse.

Así que aquí va una pregunta que vale la pena plantearse: si ahora es la IA la que decide en tiempo real qué se sale de los límites, ¿cuánto control estamos dispuestos a cederle? Cuéntanoslo escribiéndonos a Cyberguy.com

HAZ CLIC AQUÍ PARA DESCARGAR LA APP DE FOX NEWS

Suscríbete a mi informe GRATUITO «CyberGuy Report» en
. Recibe mis mejores consejos tecnológicos, alertas de seguridad urgentes y ofertas exclusivas directamente en tu bandeja de entrada. Además, tendrás acceso inmediato a mi «Guía definitiva para sobrevivir a las estafas», totalmente gratis al unirte a mi boletín de CYBERGUY.COM boletín 

Copyright 2026 CyberGuy.com. Todos los derechos reservados.