None

La dura denuncia de un padre a Instagram por el suicidio de su hija de 14 años

A Ian Russell se le quiebra la voz cuando recuerda la última vez que vio a su hija Molly, una chica inglesa de 14 años que se suicidó en 2017.


"Molly era la pequeña de tres hermanas. Tenía 14 años y era una adolescente normal. Era entusiasta. Esa noche acabó los deberes y preparó la mochila para ir a la escuela. Cuando no despertamos a la mañana siguiente, estaba muerta" le dijo el hombre a la cadena BBC de Londres. 

"Molly dejó notas. Tenemos suerte de tener notas suyas después de que muriera, porque intentó explicarnos cómo se sentía", cuenta. "Algunas de las notas decían: 'Soy el problema de la vida de todos. Los quiero a todos. Sean fuertes. Estoy orgullosa de ustedes".

Tras su muerte, la familia indagó en las cuentas de las redes sociales que Molly seguía, y encontró contenido sobre la depresión y las autolesiones. "No tengo ninguna duda de que Instagram ayudó a matar a mi hija", denuncia Russell ahora.

Según datos de la Organización Mundial de la Salud, en 2016 se suicidaron en todo el mundo más de 200.000 personas de entre 10 y 29 años. "Mi hija tenía mucho por ofrecer. Y todo se esfumó. Tenemos que aceptarlo. Lo duro es que todo se esfumó con la ayuda de internet y las redes sociales".

El contenido de las redes sociales

El padre explica que decidieron investigar las redes sociales en las que Molly tenía cuenta. "Me acuerdo de encontrar un dibujo con una leyenda: 'Este mundo es muy cruel, ya no quiero verlo más'", explica.

"Había cuentas de gente que estaba deprimida, que se autolesionaba o que se planteaba el suicidio. Molly había accedido a muchos contenidos parecidos", añade.
Ian afirma que una parte de los materiales eran positivos, de grupos de personas que intentaban ayudarse entre ellas, mantener una actitud positiva y dejar de autolesionarse.

En Instagram el contenido que aparece con el hashtag "selfharm" (autolesión, en inglés) se compone de imágenes muy explícitas  que publican los usuarios.
Además, los "hashtags" ayudan a encontrar más contenido similar. El contenido con la etiqueta de "depression" (depresión) conduce a material lúgubre, como
videos sobre suicidios.

"No nos podíamos imaginar que este tipo de contenido pudiera estar en una plataforma como Instagram. Y todavía está ahí, es muy fácil de encontrar, no está escondido. Está disponible", añade.

Los algoritmos de Instagram ayudan a los usuarios a localizar contenido relacionado. Al seguir una cuenta de este tipo, la red social te sugiere más.

"Si un algoritmo de una red social está programado para ofrecer más contenido del mismo tipo que se ha buscado, en ciertos casos tiene que ser más cuidadoso que cuando se busca, por ejemplo, el término flores'", explican los especialistas.

La respuesta de Instagram

La BBC intentó entrevistar a responsables de Instagram, que declinaron la propuesta pero emitieron un comunicado.

"No permitimos contenido que promueva o idealice los trastornos alimenticios, las autolesiones o el suicidio. Eliminamos el contenido de este tipo", afirman en la nota.

Instagram sí cuenta con una herramienta que advierte sobre ciertos términos de búsqueda y ofrece ayuda. Pero los usuarios pueden, simplemente, rechazar la ayuda y seguir navegando. 

"No está bien que un niño pueda acceder a este tipo de imágenes tan explícitas. Las redes sociales no pueden seguir argumentando, por ejemplo, que tienen un botón que ofrece ayuda si el algoritmo detecta que se buscaron términos como 'autolesión' y 'suicidio' tres o cuatro veces", explican desde organizaciones que se dedican a resguardar a los chicos de los peligros de las redes.

El gobierno británico está instando a las redes sociales a asumir más responsabilidad respecto al contenido que ilustra y promueve métodos de suicidio y autolesión.

COMENTARIOS