Alertan que niños quedan expuestos en TikTok a contenidos de salud mental que “suponen un peligro”

Niños, niñas y adolescentes usuarios de la red social TikTok quedan expuestos a contenidos relacionados con depresión y suicidio que «suponen un peligro», porque «pueden empeorar problemas de salud mental preexistentes», alertaron dos estudios difundidos hoy por Amnistía Internacional.

Los informes «Empujados a la oscuridad: El feed ‘Para ti’ de TikTok fomenta la autolesión y la ideación suicida», y «Siento que no se me protege: Emboscada en la red de vigilancia de TikTok», revelaron «los abusos que sufren los niños y jóvenes que usan la app y las formas en que estos abusos son causados por su algoritmo», señaló la organización a través de un comunicado.

Según los resultados de la investigación difundida, los videos relacionados con salud mental son «potencialmente dañinos» y «suponen un peligro», en especial para el rango etario de los más jóvenes.

Esto se debe a que «más de la mitad de los videos de la sección ‘Para ti’ relacionados con problemas de salud mental, romantizan, normalizan o animan al suicidio», indicaron desde Amnistía.

La investigación, que contó con una etapa técnica y otra manual, incluyó más de 30 cuentas automatizadas creadas para representar a jóvenes de 13 años de Kenia y Estados Unidos, con el fin de medir los efectos del sistema de recomendación.

También se realizó una simulación manual con una cuenta en Kenia, otra en Filipinas y otra en Estados Unidos.

De esta forma, se evidenció que los resultados de búsqueda que aparecen en la sección «Para ti», fomentan la «búsqueda incesante de la atención de los usuarios», quienes «corren el riesgo de exacerbar problemas de salud mental como la depresión, la ansiedad y las autolesiones».

El feed «Para ti» es una página altamente personalizada y de desplazamiento infinito de contenidos recomendados algorítmicamente, elegidos para reflejar lo que el sistema dedujo que son los intereses del usuario.

Tras la utilización de la plataforma durante cinco o seis horas, «uno de cada dos videos mostrados estaba relacionado con la salud mental y era potencialmente nocivo», señalaron en el estudio.

Esta cifra se multiplicó «aproximadamente por diez» en las cuentas de los usuarios que no hacen búsquedas referidas a la salud mental.

Para la psicóloga Laura Jurkowski, el estudio «demuestra lo que uno ya sabe y se ve en la práctica con la consecuencia de estas plataformas, lo adictivas que son y las repercusiones que están teniendo en la salud mental», aseguró en diálogo con Télam.

En estas plataformas «no hablan del tema de forma responsable, sino lo que hacen (algunos de los usuarios) es enseñar técnicas o mostrar cosas como técnicas para no comer o generar vómito», que luego son mostradas en la sección «Para ti», ejemplificó.

En el marco de estas investigaciones, se evidenció cómo el diseño de la plataforma de TikTok «fomenta el uso poco saludable de la aplicación», al maximizar el tiempo que los usuarios pasan en la plataforma.

«Creo que no es ingenuo, sino que estas empresas buscan un aumento del consumo, la idea es hacerlas adictivas para que los chicos y las personas pasen la mayor cantidad de su tiempo consumiendo las redes sociales», sostuvo la directora de «Reconectarse», un centro de adicciones a internet, videojuegos y el uso de la tecnología.

A su vez, destacó que la difusión de estos contenidos tiene un doble impacto: «Por un lado, son contenidos peligrosos que pueden estimular al suicidio o lastimar, y por otro lado el pasar mucho tiempo en las pantallas genera impactos físicos y emocionales».

Esto se debe a que los niños, niñas y adolescentes se encuentran en una edad de desarrollo «mucho más vulnerable» y con «menos herramientas para poder discernir y hacer frente a este tipo de contenidos».

Los resultados también se enmarcan en un contexto de «elevación enorme y significativa de consultas en los últimos años», relacionadas con «el aumento de depresión y ansiedad entre los jóvenes», aseguró Jurkowski.

Finalmente, Jurkowski indicó una serie de recomendaciones a madres, padres y adultos a cargo de jóvenes que utilicen tanto esta aplicación como otro tipos de redes sociales, entre los que destacó «acompañar y generar un lugar donde puedan recurrir ante una dificultad o problema», junto con «estar atentos a los cambios en el humor de los chicos».

También remarcó la necesidad de que «los padres deben ofrecer otras actividades alternativas frente a las pantallas», además de que «ellos también sean modelos para que haya encuentro sin pantallas de por medio».

Otra de las conclusiones del estudio es que TikTok aplica protecciones desiguales a los usuarios de diferentes partes del mundo, y en Argentina «la protección es ínfima en comparación con los países de la Unión Europea».

Al respecto, la abogada María Julia Giorgelli, de la Defensoría del Pueblo porteño, señaló: «La legislación existente en Argentina sobre derechos digitales de NNyA es escasa. Centralmente, hoy en día lo vigente para este rango etario son normas que tienen más de 20 años, previas a la explosión del mundo virtual».

«Por ejemplo, la Convención de los Derechos del NNyA es del año 1989 y ello requirió de una actualización, cosa que se hizo mediante la Observación General núm. 25 en el año 2021. Allí se reafirmó la vigencia de todos los derechos de los NNyA en el entorno digital. También, en el ámbito interno la Ley de Protección Integral de NNyA Nro. 26061 del año 2005», agregó.

«Sí existe en nuestro país alguna previsión en relación a cuestiones penales, como por ejemplo la tipificación del delito de grooming en el año 2013 que es el acoso virtual hacia menores», precisó Giorgelli.

«Sí resulta auspicioso el avance en el Congreso de la reforma sobre la ley de protección de datos personales nacional Nro. 25326, dónde se prevén cuestiones sobre las niñeces. Y sobre todo muy destacable la sanción de la ‘Ley Olimpia’ que busca prevenir la violencia digital por razones de género; desde la Defensoría del Pueblo de la Ciudad, conducida por María Rosa Muiños, trabajamos en un plan especifico para erradicar este tipo de violencias», sostuvo.

«Sin embargo, falta normativa en relación a aspectos relacionados con inteligencia artificial o contenido de los intermediarios por ejemplo. Muchas de esas normas ya existen en Europa como el RGPD (reglamento de protección de datos personales) sancionado en el año 2018 que permite poner multas a las “big tech” por ejemplo», concluyó.


Share

También te podría gustar...

error: Protegido por COPYRIGHT