
Higlights
Discord lanza nuevas funciones para tutores dentro del Family Center.
Los padres podrán revisar actividad semanal sin acceder al contenido privado.
Los adolescentes mantienen control sobre sus reportes y filtros de seguridad.
Discord ha anunciado una nueva serie de funciones centradas en la seguridad adolescente dentro de su Family Center, un espacio lanzado en 2023 con el propósito de ofrecer a padres y tutores una visión más clara de la actividad de sus hijos en la plataforma. Esta actualización llega en un contexto delicado para la compañía, que actualmente enfrenta varias demandas relacionadas con casos de acoso y explotación sexual de menores tanto en Discord como en Roblox.
Según explicó la empresa en una publicación oficial, el objetivo de esta actualización es doble: dar a los padres herramientas más efectivas para comprender cómo usan Discord sus hijos, y al mismo tiempo mantener la privacidad y autonomía de los adolescentes en su entorno digital.
Nuevas funciones de seguimiento
Las nuevas funciones, que se implementarán progresivamente durante la próxima semana, ampliarán la información disponible para los tutores dentro del Family Center. A partir de ahora, podrán acceder a un resumen semanal con datos como:
- Compras realizadas dentro de la plataforma.
- Tiempo total invertido en llamadas de voz y video.
- Los cinco usuarios y servidores con los que el adolescente interactuó con mayor frecuencia.
Este tipo de datos busca ofrecer una visión general de la actividad, sin exponer el contenido de las conversaciones, respetando así la privacidad de los jóvenes.
Reportes compartidos y filtros de contenido

Otra de las novedades destacadas es la posibilidad de notificar a los tutores cuando un adolescente realiza un reporte sobre otro usuario o contenido inapropiado. En caso de que el menor opte por activar esta función, los tutores recibirán una notificación por correo electrónico informando que se ha enviado un reporte, aunque sin revelar detalles específicos sobre el caso.
Además, los padres podrán configurar filtros de mensajes directos (DM) para limitar quién puede contactar al adolescente y establecer si el contenido sensible será bloqueado automáticamente. Discord subraya que estas herramientas están diseñadas para fomentar la seguridad sin convertir la supervisión en vigilancia.
Una respuesta ante la presión legal
Esta actualización se produce mientras Discord intenta fortalecer su imagen como una plataforma segura para jóvenes, especialmente tras las recientes demandas en Estados Unidos que la acusan de negligencia en la moderación de casos de acoso y explotación. La compañía asegura que seguirá trabajando para mejorar sus políticas y colaborar con expertos en seguridad digital infantil.
