Unsplash / Sanket Mishra

Cuando hablamos de menores y medios y plataformas de comunicación, y aquí podemos incluir tanto a los medios tradicionales como la radio y la televisión o incluso al cine, el teatro, las redes sociales, los sistemas de mensajería o las plataformas de compartición de vídeos, la tendencia general desde un punto de vista político y jurídico es adoptar una postura defensiva o de protección de los derechos e intereses de aquellos frente a posibles amenazas o daños que puedan derivarse de su uso o consumo.

Siendo esta aproximación correcta y necesaria, a menudo es la única, y por ello resulta insuficientemente comprensiva de la necesidad de una promoción y promoción adecuada de los derechos de niños, niñas y adolescentes en el marco de la esfera pública. Se trata pues no solamente de la protección del elenco de derechos que el derecho internacional y las legislaciones nacionales otorgan a los menores frente a posibles violaciones o ataques, sino también de garantizar una real promoción de los mismos a fin de que su ejercicio sea lo más amplio y efectivo posible. Es necesario ver y tratar a los menores como ciudadanos o como personas dotadas de dignidad humana en el sentido más amplio que el derecho otorga a dicha noción, sin perjuicio de entender y aceptar, obviamente, que determinados aspectos de este estatus jurídico pueden ser objeto de especial tratamiento por causas relacionadas con el grado de madurez y capacidad de actuar de forma autónoma. 

Es en todo caso imprescindible el abandono de una posición adultocéntrica en lo que se refiere a la discusión, definición y aplicación de normas y políticas públicas en este ámbito. Cualquier debate sobre el alcance y delimitación de los derechos de los menores en el ámbito de la comunicación requiere el adecuado reconocimiento y articulación de cauces adecuados que permitan su implicación directa y activa sin que basten por consiguiente medidas e instrumentos que puedan ser exclusivamente formulados desde el mundo adulto. Asimismo, es necesario evitar una visión exclusivamente estadocéntrica que impida a tutores y guardianes tomar decisiones y determinar junto a los menores a su cargo los servicios y actividades a su alcance, así como aspectos relevantes de su uso (tiempo, acompañamiento, etc.).

«El entorno digital aporta al menor oportunidades sin precedentes en el ámbito de la expresión de opiniones y puntos de vista, el acceso a comunidades diversas y la adquisición progresiva de habilidades y confianza en un entorno digital»

Con relación específicamente a las redes sociales y plataformas en línea, siendo innegables lo riesgos que, en ciertas condiciones, el acceso y uso de ciertos servicios digitales pueden generar en los menores en cuanto a su privacidad, seguridad y desarrollo físico y mental (como sucede obviamente con muchos otros aspectos de la vida cotidiana en las sociedades modernas), no se puede tampoco desconocer el papel ineludible que el contacto con dichos recursos juega en la adquisición de habilidades digitales, así como en el acceso a la educación y el conocimiento. El entorno digital aporta al menor oportunidades sin precedentes en el ámbito de la expresión de opiniones y puntos de vista, el acceso a comunidades diversas y la adquisición progresiva de habilidades y confianza en un entorno digital que serán claves para la plenitud de su ciudadanía adulta.

En el ámbito internacional, por ejemplo, la Convención de Naciones Unidas de los Derechos del Niño de 1989 contiene, aparte de deberes para los estados en materia de medidas de protección de la infancia y adolescencia, provisiones que afirman claramente los derechos a la libertad de expresión y de información de niños, niñas adolescentes, particularmente en lo que se refiere a la libre formación de sus ideas y opiniones, el uso y acceso de medios y herramientas de comunicación, así como la participación en asuntos públicos de su incumbencia. Es evidente que, en la actualidad, dichos derechos deben poder ser particularmente ejercidos en el entorno digital.

Este es un territorio en el que nuestros sistemas legales se enfrentan al reto cada vez más complejo de equilibrar adecuadamente los distintos derechos e intereses en juego. En este contexto cobra especial importancia, como es sabido, la nueva legislación en materia de servicios digitales en la Unión Europea (especialmente la conocida Ley de Servicios Digitales o Digital Services Act, DSA), en el marco de la cual, y a partir de un largo proceso de elaboración, se establecen una serie de obligaciones y deberes de diligencia debida para las plataformas y sus diversos servicios y aplicaciones, en función de factores tales como el tamaño, el tipo de servicio ofrecido, o precisamente, la edad de los usuarios.

La visión del derecho europeo

La DSA se encuentra en estos momentos en proceso de despliegue e implementación. Su artículo 28 establece por ejemplo que las plataformas accesibles a los menores establecerán medidas adecuadas y proporcionadas para garantizar un elevado nivel de privacidad, seguridad y protección, encomendando a la Comisión la posibilidad de desarrollar directrices específicas en la materia. Asimismo, de acuerdo con el artículo 34 y desde una perspectiva más general, las grandes plataformas tienen también la obligación de analizar y evaluar con diligencia cualquier riesgo «sistémico» que se derive del diseño o del funcionamiento de su servicio y los sistemas, incluyendo precisamente entre dichos riesgos cualquier efecto negativo sobre los derechos de los menores de conformidad con el derecho europeo. A ello se anuda la subsiguiente obligación de aplicar medidas de reducción de riesgos «razonables, proporcionadas y efectivas, adaptadas a los riesgos sistémicos específicos detectados», lo cual incluiría «la adopción de medidas específicas para proteger los derechos de los menores, incluidas herramientas de comprobación de la edad y de control parental, herramientas destinadas a ayudar a los menores a señalar abusos u obtener ayuda, según corresponda».

Al hilo de lo previsto en el mencionado artículo 28 de la DSA, la Comisión Europea ha lanzado una consulta pública acerca de una serie de directrices fruto de una amplia investigación, consultas y talleres con diversas partes interesadas, incluidos los menores, la industria y expertos de la sociedad civil y el mundo académico. El objetivo último de dichas directrices es contribuir a que las plataformas puedan adaptar sus políticas internas a sus servicios específicos, evitando restricciones indebidas de los derechos de los niños a la participación, la información y la libertad de expresión

Dichas posibles medidas incluyen implementar medidas de garantía de edad que reduzcan los riesgos de que los niños estén expuestos a la pornografía u otro contenido inapropiado para su edad, establecer las cuentas infantiles como privadas por defecto, ajustar los sistemas de recomendación y reforzar la detección de rechazo de determinados tipos de contenidos, permitir a los menores bloquear y silenciar a cualquier usuario, y garantizar que no puedan añadirse a grupos sin su consentimiento explícito, entre otras muchas. Estas medidas deben de ser implementadas en función de las características específicas de cada servicio y sobre la base de una consideración adecuada de los riesgos y de las estrategias de mitigación que resultan necesarias a tal efecto. Asimismo, se contienen especiales indicaciones y salvaguardas a fin de que el establecimiento de mecanismos tales como la verificación de edad no den lugar a invasiones innecesarias e injustificadas del derecho a la privacidad, tanto de menores como de adultos.

Propuestas españolas

Mientras este proceso se desarrolla a nivel de la Unión Europea, el Gobierno de España ha puesto sobre la mesa un proyecto de ley orgánica para la protección de las personas menores en los entornos digitales. El proyecto consagra una serie de derechos para los menores, al tiempo que establece un catálogo de medidas para su mejor protección en el entorno digital, tales como, y entre otras, obligaciones de los fabricantes de equipos terminales digitales con conexión a internet (particularmente en lo que se refiere a la inclusión de funcionalidades de control parental), prohibiciones de acceso por parte de menores a mecanismos aleatorios de recompensa (cajas botín de videojuegos), así como medidas educativas de impulso de la competencia digital de los menores, programas de prevención y de promoción de la salud infantil y juvenil de las administraciones sanitarias para la identificación de usos problemáticos de tecnologías digitales, e incluso modificaciones del Código Penal para criminalizar expresamente la manipulación de imágenes y sonidos para crear los llamados deep fakes (cuyas víctimas pueden ser tanto adultos como menores) o el contacto con menores a través de redes sociales a través de identidades falsas (grooming)

Todas estas medidas son ciertamente relevantes, sin perjuicio, asimismo, de que en algunos casos puedan tener un mayor o menor grado de claridad o densidad normativa. Así, aparecen previsiones indicando a las administraciones el deber de promover «la garantía de los derechos de las personas menores de edad en el ámbito digital desde una perspectiva preventiva, feminista e integral, así como de consulta y participación de la infancia y juventud» en unos términos que se asemejan más a una mera declaración de intenciones y comunicación política que a una norma jurídica.

«Se introduce uno de los elementos de mayor impacto: la imposibilidad legal de que los menores de 16 años tengan en la práctica acceso a plataformas digitales al no poder otorgar su consentimiento en materia de tratamiento de sus datos»

Lo que resulta todavía más chocante es el hecho de que, a través de una disposición derogatoria relativa a un precepto de la Ley Orgánica de Protección de Datos Personales, se introduce uno de los elementos más importantes y de mayor impacto de la futura ley: la imposibilidad legal de que los menores de 16 años tengan en la práctica acceso a plataformas digitales al no poder otorgar su consentimiento en materia de tratamiento de sus datos personales. Se trata pues de una prohibición radical y sin matices, muy alejada de la aproximación proporcionada y razonable que se deriva, como ya se ha indicado, de la legislación y de los estándares europeos en la materia. Una prohibición en definitiva que supone privar a menores de cualquier contenido, servicio o contacto que pudiera tener su origen en el entorno digital. Esta prohibición no solamente afecta a la posibilidad de usar y tener acceso razonablemente y de forma adecuada y supervisada a las posibilidades, oportunidades y aprendizajes del mundo digital, sino que también priva a tutores y guardianes de cualquier margen de actuación en el acompañamiento a los menores a su cargo en sus incursiones en el mundo digital.

Es cierto que esta medida está siendo considerada en otros países europeos como Francia y que incluso cuenta con países pioneros al respecto como Australia. En necesario destacar también, sin embargo, que no se encuentra tampoco exenta de severas críticas debido a su impacto desproporcionado en los derechos más fundamentales de los menores, a los riesgos que genera en cuanto al libre acceso a determinados contenidos por parte de los adultos, así como a las amenazas a la privacidad que la imposición de mecanismos de verificación de edad puede generar. Hay que destacar las críticas en este sentido en el marco del debate australiano por parte de organizaciones tales como Amnistía Internacional («una prohibición que aísla a los jóvenes no cumplirá el objetivo del gobierno de mejorar sus vidas»), Save the Children («la atención debe centrarse en los mecanismos para exigir cuentas a las empresas de redes sociales y en las respuestas que aborden las causas profundas de los daños a menores»), o la propia UNICEF («no se trata de una solución integral para proteger a los jóvenes de la amplia gama de daños que existen en línea»).   

La necesidad de mejores políticas públicas

La protección de los menores en el entorno digital es una obligación fundamental de cualquier estado. Adoptar leyes necesarias, adecuadas y proporcionales es imprescindible. Tanto la legislación como las políticas públicas deben contemplar adecuadamente, en todo caso, tanto los mecanismos y medidas para evitar la exposición de menores a daños de diverso tipo como el reconocimiento y promoción del elenco de derechos asociados al uso del espacio digital como un marco destacado de expresión, participación, aprendizaje y formación de comunidades por parte de los menores.

Por ello, los poderes públicos deben centrar los esfuerzos en el establecimiento de marcos normativos adecuados que fijen los deberes, obligaciones y salvaguardas que deben ser respetados e implementados por parte de los diversos actores implicados (y muy principalmente las empresas que operan en el ámbito de los servicios digitales), sin desconocer asimismo la necesidad de nuevas y mejores políticas públicas en el ámbito de la educación, la eliminación de factores sociales de riesgo y desigualdad, y la adecuada concienciación de quienes tienen menores a su cargo.

Una prohibición radical como la propuesta es una solución simplista incompatible con las enfáticas declaraciones en favor de la autonomía y competencia digital de los menores en el mundo digital, supone una rendición incondicional con respecto a la capacidad de regular de forma adecuada las redes sociales y acaba reforzando en la práctica a quienes seguirán actuando de forma maliciosa en los márgenes desregulados de un entorno reservado a los adultos

Por: Joan Barata y publicado originalmente en Agenda Pública.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *