El Consejo de Supervisión independiente de Meta solicita la opinión pública sobre la posible recuperación o eliminación de videos que muestran abusos a menores, en medio de un intenso debate sobre derechos humanos y privacidad.

El Consejo de Supervisión de Meta, un organismo independiente compuesto por 22 expertos en derechos humanos y libertad de expresión de diferentes partes del mundo, ha abierto un proceso de consulta pública para decidir si ciertos videos que muestran abusos a menores deben ser restaurados o eliminados de la plataforma.

Esta iniciativa se produce en un contexto global donde la protección de la infancia en línea ha generado debates acalorados y cambios en las políticas de las principales redes sociales.

La decisión del Consejo surge tras la revisión de dos videos que muestran a docentes golpeando a niños en entornos escolares. Ambos contenidos fueron inicialmente eliminados por Meta por violar su política contra la explotación sexual, abuso y desnudez infantil. Sin embargo, en una medida controvertida, uno de estos videos fue posteriormente permitido en la plataforma, con advertencias y en un contexto informativo, argumentando que podría servir para crear conciencia sobre el problema.

Este tipo de contenido genera una tensión entre el derecho a informar y la protección de la dignidad y la privacidad de las víctimas. Meta ha argumentado que permitir la difusión de videos que muestran abuso infantil en ciertos contextos puede re-traumatizar a las víctimas, pero también ha señalado que la prohibición total puede dificultar la difusión de información crucial para la justicia y la denuncia.

Desde hace años, la protección de los derechos de los menores en internet se ha convertido en una prioridad para las autoridades y las plataformas digitales.

La Convención sobre los Derechos del Niño de la ONU, adoptada en 1989, señala la importancia de proteger a los menores contra todas las formas de explotación y abuso, incluyendo en el entorno digital.

Sin embargo, la implementación de estas normativas en espacios virtuales ha generado desafíos complejos, especialmente en la moderación de contenidos.

El Consejo de Supervisión ha abierto un período de comentarios públicos para que las partes interesadas expresen sus opiniones sobre diversos aspectos, como el impacto en las víctimas, las responsabilidades de las plataformas, la protección de los derechos humanos y los estándares para la denuncia responsable de contenidos.

La consulta estará abierta hasta las 23:59 hora del Pacífico (12:59 del mediodía en horario de la India) del 21 de mayo.

Las contribuciones pueden ser breves o extenderse hasta cinco páginas, e incluir enlaces a investigaciones o fuentes externas. Estas aportaciones serán fundamentales para que el Consejo tome una decisión informada sobre si se deben restaurar o eliminar estos contenidos en el futuro.

Además, las recomendaciones que surjan de este proceso podrían influir en las políticas de Meta y otras plataformas en relación con la protección infantil y la moderación de contenidos.

Este tema no es nuevo en la historia de las redes sociales. En 2019, Facebook, también propiedad de Meta, enfrentó críticas por su manejo de contenidos relacionados con violencia y explotación infantil. La presión internacional llevó a la creación de mecanismos más rigurosos para la detección y eliminación de este tipo de material. Sin embargo, la balanza entre la libertad de expresión y la protección de los derechos de los niños sigue siendo un desafío constante.

La comunidad internacional ha instado a las plataformas digitales a colaborar en la lucha contra la explotación infantil en línea, impulsando leyes y regulaciones más estrictas.

La Unión Europea, por ejemplo, ha propuesto legislación que obliga a las empresas a actuar con mayor rapidez ante contenidos ilegales, y ha establecido sanciones severas para quienes incumplen.

En definitiva, el proceso abierto por el Consejo de Supervisión de Meta refleja la complejidad de abordar un tema tan delicado en la era digital. La opinión pública y los expertos tienen la oportunidad de influir en una decisión que podría marcar un precedente en la protección de los derechos de los menores y en la responsabilidad social de las plataformas tecnológicas en todo el mundo.