
FACEBOOK, Instagram y TikTok están dirigiendo contenido dañino hacia jóvenes adolescentes dentro de las 24 horas posteriores a la publicación de las cuentas, afirma una inquietante investigación.
Los gigantes de la tecnología recomiendan material que rompe sus propias pautas, incluidas imágenes con clasificación X, mensajes pro-suicidio y celebraciones de la anorexia. También permiten que se envíe pornografía directamente a los jóvenes, señala la sonda.
5

5
Uno vio material para adultos promocionado junto con una campaña del Ministerio del Interior advirtiendo sobre «ser presionado para enviar desnudos».
La investigación, realizada por el grupo de campaña de seguridad en línea 5Rights Foundation, también encontró imágenes horribles de brazos cortados y hojas de afeitar que fueron enviadas a una niña de 13 años en Instagram.
Eso fue a pesar de que los jefes de la plataforma de redes sociales prometieron prohibir dicho material a raíz de que la usuaria de Instagram Molly Russell se quitó la vida en 2017, a los 14 años, después de presenciar material perturbador en línea.
Anoche, su padre Ian, de 58 años, dijo que los hallazgos trajeron de vuelta el horror de la muerte de su hija.
Le dijo a The Sun: “Esta investigación es tan poderosa. Me lleva de regreso a esos horribles descubrimientos que se hicieron sobre la vida en línea de Molly después de su muerte «. En los últimos seis meses de su vida, Molly usó su cuenta de Instagram más de 120 veces al día, incluso mirando imágenes gráficas de autolesión y suicidio.
Tras una investigación en febrero pasado, Instagram dijo que «no permite contenido que promueva o glorifique la autolesión o el suicidio y eliminará contenido de este tipo».
Sin embargo, la investigación de 5Rights sugiere que el contenido se está dirigiendo a los jóvenes con poca preocupación aparente por los riesgos para su bienestar. Ahora Ian llama a la acción.
Dijo: “Cuatro niños en edad escolar mueren por suicidio cada semana en el Reino Unido, según la Oficina de Estadísticas Nacionales. Creo que muchos de ellos estarán conectados con lo que han visto en línea.
“Cada semana que se demora, está arriesgando vidas jóvenes. Es de suma urgencia adoptar esta legislación lo antes posible.
“¿Por qué sigue ahí tres años y medio después de la muerte de Molly? ¿Por qué se tarda tanto en hacer algo al respecto? » Para la investigación de 5Rights, se instalaron avatares ficticios de adolescentes en las principales plataformas de redes sociales.
Estos relatos pronto se vieron inundados de material perturbador.
Los diez recibieron mensajes directos de cuentas que no seguían, incluidos extraños adultos y anuncios de pornografía.
5Rights afirma que los gigantes tecnológicos están demasiado preocupados por impulsar el contenido lo más rápido posible y no les preocupan los riesgos.
Ian, del norte de Londres, dice que los sitios de redes sociales “ayudaron” a matar a su hija al permitir que Molly acceda a un contenido tan espantoso.
‘SIN NORMAS DE SEGURIDAD’
Dijo: “Esta investigación destaca lo que encontramos en el caso de Molly, que es que se le sugiere material.
“Las plataformas, además de usar los algoritmos detrás de escena, estaban enviando mensajes a Molly en sus plataformas diciendo ‘te gusta # triste / depresión, ¿por qué no seguir también # soledad / impotencia?’
«En un caso en las redes sociales de Molly, la plataforma llegó tan lejos como para enviarle sugerencias por correo electrónico sobre otro contenido de suicidio y autolesión».
Ian dice que no hubo señales de advertencia de que Molly estuviera deprimida o viendo sitios de autolesión.
Explica: “No había signos evidentes de mala salud mental en Molly.
«Ella era extraordinaria al ocultar lo que estaba pasando por su cabeza».
El proyecto de ley de seguridad en línea tiene como objetivo hacer de Gran Bretaña “el lugar más seguro del mundo para estar en línea”.
Pero es poco probable que pase hasta finales de 2022 y es posible que no entre en vigor durante varios años.
Los críticos afirman que podría restringir la libertad de expresión en línea, pero Ian dijo: “Mucha gente está siendo alarmista sobre lo que se necesita para hacer que Internet sea seguro.
«Todo lo que queremos son las medidas de seguridad normales que se aplican a nuestra vida cotidiana reflejadas en línea».
5Rights llevó a cabo entrevistas anónimas con altos cargos de las principales empresas de tecnología.
Se dice que un gerente de producto le dijo: “No hay estándares de seguridad. No hay un tablero de ética en el espacio digital «.
Informó que un director de estrategia dijo: “Las empresas ganan dinero con la atención. Reducir la atención reducirá los ingresos «.
La baronesa Kidron, que preside 5Rights, quiere que el proyecto de ley de seguridad en línea sea más estricto, por lo que no se puede enviar material dañino a menores de 18 años.
Ella dijo: “Quizás la imagen más sorprendente del informe es una captura de pantalla en la que se ve claramente que un avatar ‘infantil’ está siendo ‘dirigido’ con anuncios de Nintendo Switch, una tienda de dulces y tampones para adolescentes, y al mismo tiempo tiempo, material pro-suicidio. ¿Cómo es eso correcto? ¿Cómo es eso legal?
Las investigaciones muestran que el 98 por ciento de los niños mayores de diez años utilizan Internet, mientras que un tercio de los jóvenes de 12 a 15 años han visto «contenido preocupante o desagradable».
Ian dijo: “Estas son empresas globales que cuentan sus ganancias en miles de millones. Te preguntas: ‘¿Por qué les están fallando a nuestros hijos?’ «
Un portavoz de TikTok dijo: “Eliminamos 62 millones de videos en el primer trimestre de 2021 por violar las pautas de nuestra comunidad, el 82% de los cuales se eliminaron antes de recibir una sola vista. TikTok ha tomado medidas líderes en la industria para promover una experiencia segura y apropiada para la edad de los adolescentes «.
Facebook no había respondido anoche.

5

5

5