Las alertas se lanzarán en Estados Unidos, Reino Unido, Australia y Canadá la próxima semana antes de implementarse en otras regiones a finales de este año.
Meta ha dicho que pronto comenzará a alertar proactivamente a los padres si sus hijos adolescentes buscan contenido sobre suicidio o autolesión en Instagram, pero los expertos dicen que la última medida de la compañía para mejorar la seguridad de los niños en las redes sociales podría hacer más daño que bien a las familias.
Datos clave
Instagram dijo el jueves que su última medida de protección enviará un mensaje a los padres si su hijo busca repetidamente ciertos términos relacionados con la autolesión o el suicidio en un corto período de tiempo.
La compañía no dijo exactamente qué búsquedas ni en qué período de tiempo se activarían las alertas, pero dijo que “eligió un umbral” que tiende a ser cauteloso.
Las alertas se lanzarán en Estados Unidos, Reino Unido, Australia y Canadá la próxima semana antes de implementarse en otras regiones a finales de este año.
Crítico principal
En el Reino Unido, donde se está considerando prohibir las redes sociales a menores de 16 años, el director de una fundación para la prevención del suicidio ha calificado el nuevo plan de “torpe” y “lleno de riesgos”, advirtiendo que las alertas probablemente “dejarán a los padres en pánico y mal preparados para las delicadas y difíciles conversaciones que seguirán”. Andy Burrows, director ejecutivo de la Fundación Molly Rose, afirmó que Meta debería primero trabajar en la corrección de su algoritmo interno, que sigue recomendando activamente contenido dañino a los jóvenes antes de “hacer otro anuncio cínicamente oportuno que culpa a los padres”. Meta ha refutado las afirmaciones de la fundación de que los estándares de seguridad actuales de Instagram no limitan significativamente lo que los adolescentes ven en la aplicación.
Antecedentes clave
Instagram siempre ha estado disponible para usuarios mayores de 13 años, pero en 2024 comenzó a exigir que los usuarios jóvenes tuvieran una configuración de “cuenta para adolescentes” para abordar las preocupaciones de los padres, como la exposición a contenido inapropiado, la manipulación en línea y el exceso de tiempo frente a la pantalla. Meta implementó inicialmente funciones de seguridad que, en teoría, eran útiles, pero que, en la práctica, fueron criticadas por expertos por no proteger realmente a los niños. El año pasado, dos empleados de Meta testificaron ante el Congreso que, a pesar de las protecciones, los niños estaban expuestos a acoso, imágenes sexuales y contenido para adultos, y que pedófilos les habían solicitado fotografías de desnudos y actos sexuales. El verano pasado, Reuters informó que los bots de inteligencia artificial de la compañía podían “involucrar a un niño en conversaciones románticas o sensuales”. Un estudio realizado en septiembre por grupos de seguridad infantil e investigadores cibernéticos reveló que 30 de las 47 herramientas de seguridad para adolescentes en Instagram eran “sustancialmente ineficaces o ya no existen”. Meta ha refutado muchas de las afirmaciones contra sus funciones de seguridad y ha afirmado que trabaja activamente para seguir haciendo de Instagram un lugar más seguro para los adolescentes.
