TikTok anuncia restricciones en el uso de los filtros de belleza a los menores de 18 años

Una usuaria joven de TikTok (de menos de 20 años), aparece en la pantalla de la app con el pelo recogido y un filtro que divide con líneas paralelas su rostro en tres partes. “Este filtro mide cómo de bella eres. Aparentemente, las mujeres más bellas tienen la cara dividida en tres partes iguales… no creo en estándares de belleza, pero voy a probarlo”, dice mientras mira a la cámara de su móvil. Las tres partes no miden lo mismo. “Oh my God!”, dice a continuación con un gesto de sorpresa. Escenas como esta podrían desaparecer de la red social cuando el protagonista es un menor de edad. La compañía china anunció este martes que en las próximas semanas restringirá el uso de “algunos efectos de apariencia” física para adolescentes menores de 18 años —los conocidos como filtros de belleza— para prevenir así el “impacto” que podrían causar en su autoimagen.

Seguir leyendo

 La red social reconoce que esas herramientas, incluidas en su servicio, pueden tener un impacto en la conformación de la autoimagen de los adolescentes  

Una usuaria joven de TikTok (de menos de 20 años), aparece en la pantalla de la app con el pelo recogido y un filtro que divide con líneas paralelas su rostro en tres partes. “Este filtro mide cómo de bella eres. Aparentemente, las mujeres más bellas tienen la cara dividida en tres partes iguales… no creo en estándares de belleza, pero voy a probarlo”, dice mientras mira a la cámara de su móvil. Las tres partes no miden lo mismo. “Oh my God!”, dice a continuación con un gesto de sorpresa. Escenas como esta podrían desaparecer de la red social cuando el protagonista es un menor de edad. La compañía china anunció este martes que en las próximas semanas restringirá el uso de “algunos efectos de apariencia” física para adolescentes menores de 18 años —los conocidos como filtros de belleza— para prevenir así el “impacto” que podrían causar en su autoimagen.

En un comunicado publicado este miércoles por la empresa, se explica que esta restricción no afectará a los filtros diseñados para ser “divertidos” como, por ejemplo, los efectos de orejas de animales, pero sí aplicará en los que han sido diseñados para “alterar” la “apariencia” de los usuarios. Otra de las medidas anunciadas por la red social después de la celebración en Dublín de su foro europeo de seguridad —organizado este martes en su recién estrenado Centro de Transparencia y Responsabilidad—, es que proporcionarán al usuario “más información sobre cómo un efecto podría cambiar su apariencia si se aplica”, aunque, señala la empresa, ya informan “proactivamente a los usuarios cuando se han utilizado ciertos efectos en el contenido”. Además, diseñarán recursos formativos para las personas que desarrollan efectos en la aplicación TikTok Effects House, con el objetivo de “mejorar la conciencia y la comprensión de algunos de los resultados no deseados que ciertos efectos pueden plantear”.

Tal y como explica TikTok en la nota, este cambio viene motivado por los resultados de una investigación que encargaron recientemente en varios países a la organización sin ánimo de lucro Internet Matters, con sede en el Reino Unido, que examina el papel de las plataformas online en la configuración de la identidad y las relaciones de los adolescentes. Ese trabajo identificó una preocupación tanto de los chavales como de sus progenitores por los efectos de “apariencia”, incluyendo que “quienes ven el contenido podrían no darse cuenta de que se trata de una imagen que ha sido alterada”, detalla la compañía en su comunicado.

Recientes estudios, como uno publicado este octubre en la revista Nature, han señalado que el 20% de los usuarios de entre 12 y 18 años que pasan más de dos horas conectados a TikTok asegura que al desconectarse de la aplicación el sentimiento predominante es una menor autoestima, una mayor sensación de estrés y una menor capacidad para fijar un límite en el visionado. En ese caso, al analizar ese consumo por género, fueron el 24,3% de las chicas las que refirieron destinar más de dos horas al día a esa app, frente al 15,4% de los chicos. Aunque desde el plano científico todavía no se ha podido establecer una relación de causa-efecto entre el consumo de redes sociales y el aumento de diagnósticos de enfermedades de salud mental entre los jóvenes, los datos de este paper sí aportan pistas para trazar una correlación entre la subida de las patologías mentales registrada entre las chicas adolescentes en los últimos años y ese mayor consumo de aplicaciones como TikTok. “Sabemos que puede afectar a la autopercepción física, y ellas son las que más sufren ese tipo de trastornos”, indica Mònika Jiménez, investigadora de la Universidad Pompeu Fabra y coautora del estudio.

El reto de la verificación de la edad

Otro de los objetivos prioritarios descritos en el comunicado de TikTok es conseguir herramientas para la verificación de la edad de los usuarios, que, según señalan, “sigue siendo una de las áreas más complejas con las que siguen lidiando las plataformas, los responsables de desarrollar las políticas y los reguladores”. El reto, indican, es conseguir verificar la edad “respetando al mismo tiempo los derechos fundamentales” de los usuarios. El argumento esgrimido por las grandes tecnológicas como Meta —empresa matriz de Facebook e Instagram— es que resulta muy complicado desde el punto de vista técnico comprobar la edad sin vulnerar el derecho a la privacidad de los usuarios, revisando documentos de carácter personal como podría ser en España el DNI.

En este sentido, los responsables de TikTok aseguran que están explorando cómo el machine learning podría ayudarles en esa tarea de evitar que los menores de 13 años estén en la plataforma. Esa tecnología, explican, podría detectar esas cuentas y trasladárselas a un “moderador especialmente capacitado” —la intención de la empresa es formarles— para su revisión y eliminación. Como sucede en la actualidad, añaden, esas personas podrían apelar si creen que se ha cometido un error.

En el plano regulatorio, la Comisión Europea ha puesto en marcha un grupo de trabajo con los diferentes Estados miembros para desarrollar soluciones de verificación de la edad que sean respetuosas con la privacidad y que permitan cerciorar que el menor tiene la edad requerida, y en caso de no tenerla, bloquear el acceso a contenidos inapropiados o la creación de cuentas.

Por parte de las organizaciones sociales, Ana Caballero, presidenta de la Asociación Europea para la Transición Digital (AETD), considera que las medidas anunciadas por TikTok son insuficientes y no revertirán de forma sustancial el daño que se sigue causando cada día a los menores. “Somos muy escépticos respecto a plataformas como esta por su historial de aprovechar su condición extracomunitaria para eludir obligaciones y regulaciones aplicables a las empresas europeas”, indica. Desde su organización consideran imprescindible que se desactiven por defecto los patrones oscuros y las estrategias de persuasión presentes en las redes, y que se informe en caso de la utilización de estas últimas, como exige la Ley de Servicios Digitales (DSA).

Caballero, que lideró la presentación de un Pacto de Estado para proteger a los menores en Internet en el Congreso de los Diputados, reclama también un etiquetado inteligente por edades para facilitar la detección de contenidos potencialmente perjudiciales, así como que los reguladores obliguen a que los algoritmos que emplean estén auditados por terceros independientes.

 Sociedad en EL PAÍS

Noticias Relacionadas