
Highlights
Exigencia legal sin precedentes: La eSafety Commissioner emitió avisos legalmente exigibles a cuatro plataformas de videojuegos para que detallen cómo previenen y responden a depredadores sexuales y propaganda extremista.
Multas millonarias: Las empresas que no cumplan se enfrentan a sanciones de hasta 49,5 millones de dólares australianos por infracción, en una medida que busca proteger a los menores en entornos de juego social.
Punto de primer contacto: Según la comisionada Julie Inman Grant, los sistemas de mensajería integrados en estas plataformas son utilizados por adultos depredadores para grooming, extorsión sexual y radicalización juvenil.
El gobierno australiano, a través de la eSafety Commissioner (Comisionada de Seguridad en Línea), ordenó a cuatro de las plataformas de videojuegos más populares del mundo —Steam, Fortnite, Minecraft y Roblox— que presenten informes de transparencia legalmente exigibles. Estos informes deben detallar las medidas que cada plataforma está implementando para “identificar, prevenir y responder” a problemas relacionados con depredadores sexuales y propaganda extremista, especialmente aquellos que afectan a niños y jóvenes.
La eSafety Commissioner, Julie Inman Grant, explicó en un comunicado oficial que los servicios de mensajería integrados en estas plataformas están siendo utilizados como “un punto de primer contacto” para que grupos extremistas y depredadores sexuales realicen actividades de “grooming (acoso sexual), extorsión sexual y radicalización juvenil”. El ciberacoso y el discurso de odio en línea también son motivo de preocupación.
“Las plataformas de juegos se encuentran entre los espacios en línea más utilizados por los niños australianos, funcionando no solo como lugares para jugar, sino también como lugares para socializar y comunicarse”, declaró Inman Grant. “Los adultos depredadores lo saben y se dirigen a los niños a través del grooming o insertan narrativas terroristas y violentas extremistas en el juego, lo que aumenta los riesgos de contacto ofensivo, radicalización y otros daños fuera de la plataforma”.
Ejemplos de contenido extremista en juegos populares

La comisionada citó ejemplos concretos de contenido problemático detectado en las plataformas. “Existen juegos inspirados en el Estado Islámico y recreaciones de tiroteos masivos en Roblox, así como grupos de extrema derecha que recrean imágenes fascistas en Minecraft. Fortnite ha sido utilizado para ‘gamificar’ los horribles eventos del campo de concentración de Jasenovac de la Segunda Guerra Mundial y los disturbios del 6 de enero en el Capitolio de Estados Unidos”, señaló. Además, afirmó que “Steam es supuestamente un centro para varias comunidades de extrema derecha”.
La medida se enmarca en las obligaciones mínimas establecidas por los Códigos y Estándares de Seguridad en Línea de Australia. El incumplimiento de estos requisitos puede dar lugar a multas de hasta 49,5 millones de dólares australianos (aproximadamente 35 millones de dólares estadounidenses) por infracción. La falta de respuesta a los avisos de transparencia también puede acarrear sanciones de 825.000 dólares australianos por día (unos 590.000 dólares estadounidenses).
Reacciones de las empresas
Cat McCormack, portavoz de Epic Games (desarrolladora de Fortnite), declaró a los medios que “las reglas de Epic prohíben el extremismo, la puesta en peligro de menores, las actividades peligrosas o ilegales y las amenazas de violencia en el mundo real. Las islas mencionadas en el informe violaban nuestras reglas y tomamos medidas en 2024”. Añadió que “los filtros de chat de texto de Epic eliminan el lenguaje ofensivo, incluido el discurso de odio, y nuestros sistemas informan automáticamente sobre interacciones potencialmente dañinas en el chat de texto con jugadores menores de 18 años para que podamos tomar medidas”. Fortnite también tiene protecciones integradas, como la desactivación del chat de voz y texto para menores de 16 años hasta que un padre o tutor dé su consentimiento.
Un portavoz de Roblox declaró que la plataforma “tiene políticas que prohíben estrictamente cualquier contenido o comportamiento que incite, condone, apoye, glorifique o promueva cualquier organización o individuo terrorista o extremista, y trabajamos incansablemente para hacerlas cumplir. Eliminamos rápidamente dicho contenido y tomamos medidas inmediatas a nivel de cuenta cuando lo encontramos”. Además, utilizan “tecnología de inteligencia artificial avanzada para revisar todas las imágenes, textos y elementos de avatar antes de su publicación, a fin de evitar que se publique iconografía extremista conocida”.
Un portavoz de Microsoft (propietaria de Minecraft) señaló que la compañía “se toma muy en serio la seguridad en línea, especialmente cuando se trata de niños. Continuamos evolucionando nuestro enfoque para hacer frente al panorama de amenazas y regulaciones en evolución, y estamos revisando el aviso de la oficina de la eSafety Commissioner en detalle”.
This Week in Videogames también contactó a Valve (propietaria de Steam) para obtener comentarios, pero no recibió respuesta al momento de la publicación.
Antecedentes y medidas complementarias
La eSafety Commissioner informó que su objetivo es “garantizar que todos los usuarios, especialmente los niños, puedan disfrutar de los beneficios que ofrecen estas plataformas sin experimentar daños evitables”. En febrero de 2026, la comisionada anunció que probaría activamente las nuevas medidas de protección implementadas en Roblox para “validar su efectividad”.
En diciembre de 2025, Australia introdujo una prohibición de redes sociales para menores de 16 años, que obligó a plataformas como Instagram, YouTube, TikTok, Reddit y Snapchat a implementar medidas de verificación de edad. Sin embargo, hasta el momento de esta publicación, las plataformas de juegos como Roblox, Steam y Discord no estaban sujetas a ese requisito específico.
La medida actual representa un endurecimiento significativo de la regulación sobre las plataformas de videojuegos, que hasta ahora habían gozado de una supervisión menos estricta que las redes sociales tradicionales. La eSafety Commissioner busca cerrar esa brecha y garantizar que los espacios de juego en línea también sean seguros para los menores.
Las cuatro plataformas tienen ahora un plazo legal para presentar sus informes de transparencia. Dependiendo de su contenido y de la evaluación de la comisionada, podrían enfrentarse a sanciones económicas o a la exigencia de implementar medidas correctivas adicionales. El gobierno australiano ha dejado claro que no tolerará que los espacios de juego en línea se conviertan en refugios para depredadores o propagandistas extremistas.
Fuente: This Week in Videogames, eSafety Commissioner de Australia, 22 de abril de 2026
