
El 10 de septiembre de 2025 quedó marcado por un episodio que volvió a inquietar a padres y educadores: pocas horas después del asesinato del comentarista Charlie Kirk, en Roblox surgieron experiencias que recreaban lo sucedido. La compañía retiró rápidamente más de cien de esos “juegos”, pero el problema apuntó a lo mismo de siempre: qué ven —y a qué pueden acceder— los chicos en entornos donde el contenido lo crea la propia comunidad.
Las primeras reacciones no tardaron. Autoridades locales en Oklahoma anunciaron una investigación; a nivel federal, hubo llamados a revisar la presencia de la app en tiendas y a estudiar medidas regulatorias. Para muchos, la cuestión dejó de ser sólo técnica: se volvió un debate público sobre responsabilidad, supervisión y prevención.
Riesgos para los menores
No es un tema nuevo para Roblox. La plataforma, que reúne a decenas de millones de usuarios diarios —muchos de ellos niños—, ya había sido cuestionada por permitir experiencias con contenido inadmisible, por prácticas similares a las apuestas usando la moneda virtual Robux, y por casos en los que menores fueron contactados por adultos con intenciones peligrosas. Y aunque la compañía insiste en que cuenta con filtros, revisores y sistemas automáticos, los críticos señalan que en un universo tan grande siempre habrá fallas.
Para los padres la situación es angustiante: resulta difícil controlar todo lo que aparece en la pantalla y no siempre es obvio qué títulos son apropiados para cada edad. Por eso se repite una recomendación simple pero clave: acompañar el juego. Revisar la configuración de privacidad, usar controles parentales, conversar sobre qué se debe compartir online y mantener diálogo abierto con los hijos sobre lo que encuentran en la red.
La respuesta de Roblox

Desde la empresa, se apuntó a los esfuerzos recientes: combinan moderación humana con herramientas de inteligencia artificial, aplican filtros en chats y evitan el intercambio de imágenes en espacios no aptos, además de promover procesos de verificación de edad en determinadas experiencias. Son medidas útiles, pero no infalibles: la escala del servicio complica una supervisión perfecta y exige, según expertos, más transparencia y colaboración con autoridades y comunidades.
En la esfera legal, Roblox se apoya en protecciones que eximen a plataformas por el contenido generado por terceros, aunque tribunales de Estados Unidos han ido recortando esas inmunidades en casos ligados a apuestas y daños a menores. Esa tensión legal señala algo claro: la tecnología avanza rápido y la ley —y las políticas públicas— deben ponerse al día para proteger mejor a los más jóvenes.
Te puede interesar: CEO de Roblox: 175.000 firmas piden su renuncia
Al final, el episodio dejó una sensación ambivalente. Sí: la compañía reaccionó y retiró material problemático. Pero también quedó claro que no basta con eliminar lo visible; hace falta prevenir, educar y construir redes de cuidado donde familias, escuelas, plataformas y reguladores trabajen juntos. Mientras tanto, para muchos padres la pregunta sigue igual de presente: ¿estamos haciendo lo suficiente para que jugar en línea sea, ante todo, seguro?
FAQ
¿Qué ocurrió en Roblox tras el asesinato de Charlie Kirk?
Se publicaron simuladores del tiroteo, accesibles incluso para niños pequeños, que luego fueron eliminados.
¿Cuántas experiencias relacionadas eliminó Roblox?
La compañía eliminó más de 100 experiencias que recreaban el asesinato.
¿Qué acciones legales se están tomando?
El fiscal general de Oklahoma inició una investigación y legisladores federales evalúan medidas adicionales.
¿Qué riesgos enfrentan los menores en Roblox?
Acceso a contenido sexual, apuestas con Robux y riesgo de contacto con depredadores.
¿Cómo responde Roblox a estas acusaciones?
Con moderación humana y de IA, verificación de edad y adopción de estándares de clasificación internacional.
¿Está Roblox protegido por la ley?
Intenta ampararse en la Sección 230, aunque su aplicación está siendo cuestionada en casos de apuestas y abuso.