
Roblox detectó más de mil casos de posible explotación infantil con inteligencia artificial.
Roblox, una de las plataformas de juegos online más populares del mundo, con más de 85 millones de usuarios activos diarios —casi un 40 % menores de 13 años—, está bajo la lupa por los riesgos que enfrentan los más chicos en sus espacios virtuales. Ante las crecientes denuncias de grooming y acceso a contenidos inapropiados, la empresa lanzó Roblox Sentinel, un sistema de inteligencia artificial pensado para detectar mensajes peligrosos en tiempo real.
Este nuevo sistema monitorea más de seis mil millones de mensajes diarios, capturando instantáneas del chat minuto a minuto para que la IA identifique patrones de conducta riesgosa. Cuando detecta señales de posible explotación infantil, intervienen moderadores humanos que, de ser necesario, elevan los casos a organismos como el Centro Nacional para Niños Desaparecidos y Explotados.
Según datos difundidos por la empresa, durante 2025 Sentinel permitió identificar al menos 1.200 casos sospechosos de abuso o acoso, que fueron derivados a las autoridades competentes. Como parte de su compromiso, Roblox liberó el código del sistema como software abierto, invitando a otras compañías del sector a usar esta tecnología para proteger a sus propios usuarios.
Además del Sentinel, Roblox viene sumando otras funciones de seguridad: revisión de contenido con IA en 25 idiomas, herramientas de verificación de edad para habilitar chats entre adolescentes, y mayor control parental sobre con quién y cuánto tiempo interactúan los chicos dentro de la app.
Sin embargo, un informe de la consultora Revealing Reality reveló que los esfuerzos aún son insuficientes. El estudio simuló cuentas de menores de entre 5 y 13 años, y encontró que todavía pueden ser contactados por adultos, ingresar a entornos con contenido sugerente y sortear los filtros de protección.
Incluso con los controles activados, los chicos acceden a conversaciones con contenido adulto, entornos gráficos sexualizados y hasta sufren intentos de manipulación emocional o pedidos de datos personales. Muchos padres relataron situaciones traumáticas como ansiedad, grooming y exposición a materiales perturbadores.
Desde Roblox afirman que están comprometidos con mejorar. Según Matt Kaufman, jefe de seguridad de la plataforma, en 2024 se realizaron más de 40 mejoras en los sistemas de protección. Aun así, reconoce que verificar la edad real de los menores sigue siendo uno de los mayores desafíos para toda la industria digital.
Para muchas familias argentinas y uruguayas, donde el uso de Roblox es cotidiano entre niños y niñas, la pregunta que queda flotando es simple pero urgente: ¿es seguro dejar que nuestros hijos jueguen solos en plataformas abiertas como esta?