Mark Zuckerberg, en un gesto inédito para magnates de su categoría, tuvo que le levantarse de su asiento y pedir perdón a los padres de menores que se quitaron la vida por contenidos lesivos en redes sociales. El dueño de Meta, en una sesión del Senado estadounidense tuvo que rendir cuentas ante familias destrozadas por la falta de legislación en las plataformas tecnológicas, que exponen a los menores sin a penas cortapisas ante depredadores sexuales, ciberacoso o ideales de belleza imposibles, entre otras problemáticas.. Diferentes informes ponen de manifiesto la relación entre la falta de regulación de contenidos en redes sociales y los problemas de salud mental y el suicidio. De ahí, que el Consejo Audiovisual de Andalucía (CAA) haya puesto el foco en las debilidades de las principales plataformas que utilizan los jóvenes a la hora de filtrar contenido potencialmente peligroso para la salud mental.. En un informe, la insititución andaluza analiza la presencia y el tratamiento de contenidos de riesgo relacionados con el suicidio, las autolesiones y los trastornos de la conducta alimentaria (TCA) en las principales redes sociales, poniendo de relieve tanto los avances en los sistemas de prevención de las plataformas como las debilidades que todavía permiten la circulación de materiales perjudiciales, especialmente entre la población joven. El estudio, basado en un análisis empírico del funcionamiento de los motores de búsqueda internos de plataformas como TikTok, X, Facebook, Instagram y YouTube, constata que, ante la introducción de términos directamente asociados a estas conductas, las redes activan de forma generalizada mensajes de advertencia, paneles de ayuda y enlaces a recursos especializados. Estos mecanismos incluyen teléfonos de apoyo y avisos de carácter preventivo, lo que el CAA valora como un paso positivo en la protección de la salud mental.. No obstante, el informe alerta de que estas barreras iniciales no siempre resultan suficientes. El Consejo advierte de que, mediante el uso de términos alterados deliberadamente –una práctica extendida para esquivar los filtros automáticos–, es posible acceder en ciertas plataformas a contenidos que normalizan prácticas autolesivas, muestran ideaciones suicidas o promueven comportamientos asociados a los TCA, así como a perfiles donde este tipo de mensajes se refuerzan.. Según el análisis del CCA, es X (anteriormente conocida como Twitter) la plataforma que más expone contenidos problemáticos sin apenas control. «Se ha constatado que en X los vídeos de autolesiones explícitas son accesibles mediante consultas directas en el buscador de la plataforma», apunta el análisis del CCA.. En este punto, el Consejo pone de relieve la diferencia entre redes sociales: «Mientras algunas ofrecen una respuesta más restrictiva y preventiva, otras permiten mayor margen de acceso a contenidos sensibles una vez superada la primera capa de advertencias». Por ello, el Consejo evidencia la necesidad de homogeneizar y reforzar los criterios de moderación, particularmente en lo relativo a la detección de estrategias diseñadas para eludir los controles.
Tras un análisis de las diferentes plataformas, alerta de que los filtros no siempre frenan los contenidos de riesgo
Mark Zuckerberg, en un gesto inédito para magnates de su categoría, tuvo que le levantarse de su asiento y pedir perdón a los padres de menores que se quitaron la vida por contenidos lesivos en redes sociales. El dueño de Meta, en una sesión del Senado estadounidense tuvo que rendir cuentas ante familias destrozadas por la falta de legislación en las plataformas tecnológicas, que exponen a los menores sin a penas cortapisas ante depredadores sexuales, ciberacoso o ideales de belleza imposibles, entre otras problemáticas.. Diferentes informes ponen de manifiesto la relación entre la falta de regulación de contenidos en redes sociales y los problemas de salud mental y el suicidio. De ahí, que el Consejo Audiovisual de Andalucía (CAA) haya puesto el foco en las debilidades de las principales plataformas que utilizan los jóvenes a la hora de filtrar contenido potencialmente peligroso para la salud mental.. En un informe, la insititución andaluza analiza la presencia y el tratamiento de contenidos de riesgo relacionados con el suicidio, las autolesiones y los trastornos de la conducta alimentaria (TCA) en las principales redes sociales, poniendo de relieve tanto los avances en los sistemas de prevención de las plataformas como las debilidades que todavía permiten la circulación de materiales perjudiciales, especialmente entre la población joven. El estudio, basado en un análisis empírico del funcionamiento de los motores de búsqueda internos de plataformas como TikTok, X, Facebook, Instagram y YouTube, constata que, ante la introducción de términos directamente asociados a estas conductas, las redes activan de forma generalizada mensajes de advertencia, paneles de ayuda y enlaces a recursos especializados. Estos mecanismos incluyen teléfonos de apoyo y avisos de carácter preventivo, lo que el CAA valora como un paso positivo en la protección de la salud mental.. No obstante, el informe alerta de que estas barreras iniciales no siempre resultan suficientes. El Consejo advierte de que, mediante el uso de términos alterados deliberadamente –una práctica extendida para esquivar los filtros automáticos–, es posible acceder en ciertas plataformas a contenidos que normalizan prácticas autolesivas, muestran ideaciones suicidas o promueven comportamientos asociados a los TCA, así como a perfiles donde este tipo de mensajes se refuerzan.. Según el análisis del CCA, es X (anteriormente conocida como Twitter) la plataforma que más expone contenidos problemáticos sin apenas control. «Se ha constatado que en X los vídeos de autolesiones explícitas son accesibles mediante consultas directas en el buscador de la plataforma», apunta el análisis del CCA.. En este punto, el Consejo pone de relieve la diferencia entre redes sociales: «Mientras algunas ofrecen una respuesta más restrictiva y preventiva, otras permiten mayor margen de acceso a contenidos sensibles una vez superada la primera capa de advertencias». Por ello, el Consejo evidencia la necesidad de homogeneizar y reforzar los criterios de moderación, particularmente en lo relativo a la detección de estrategias diseñadas para eludir los controles.
Noticias de Andalucía en La Razón
