¿Cuánto tiempo pasan nuestras niñas, niños y adolescentes en las plataformas de redes sociales? ¿Limitamos o controlamos el uso de los dispositivos móviles? ¿Verificamos el contenido que consultan? Hace unos años la conversación sobre el tiempo de los menores frente a las pantallas estaba dirigida a los efectos que los videojuegos podían generar en ellas y ellos; ahora el debate es por la facilidad con la que tienen acceso a contenido sensible e inadecuado en la palma de su mano.
Si bien las plataformas establecen un límite mínimo de edad para abrir una cuenta, es fácil “hacer trampa” en el registro. Hace unos días el periódico ‘El País’ realizó un ejercicio con perfiles falsos de dos menores de 13 y 15 años en TikTok para analizar el contenido al que podían acceder en un solo día. Un grupo de especialistas en salud mental que seguía los resultados determinó que la información que recibieron ponía en riesgo su integridad.
Teniendo claro que la plataforma personaliza los productos digitales que ofrece de acuerdo con el interés del usuario, y que bastan unas cuantas búsquedas para darse cuenta que el algoritmo arrojará información indiscriminada sobre el tema, los 50 ajustes de seguridad que presume la compañía no lograron proteger a los adolescentes de contenidos que normalizaban la autolesión e incluso brindaban información de cómo atentar contra la vida.
¿Qué pasaría si esos perfiles no hubieran sido falsos? ¿Los usuarios tendrían la capacidad para discernir la información? ¿Acaso el algoritmo está fallando? Los adolescentes son un sector sumamente vulnerable. De acuerdo con la Organización Mundial de la Salud, quienes sufren acoso en redes sociales tienen de dos a tres veces más probabilidades de intentar suicidio, la tercera causa de muerte entre jóvenes de 15 a 29 años.
El año pasado, en la misma plataforma, el gobierno federal cerró 40 cuentas identificadas con contenido de reclutamiento de jóvenes para el crimen organizado. ¿Cómo fue eso posible? ¿Cómo pasó de una plataforma de información y entretenimiento a reclutamiento? Así de frágil es el filtro de seguridad y el compromiso ético de la compañía que cuenta con más de 85 millones de usuarios en México, es decir, 65 por ciento de la población está dentro de la plataforma y sólo 9 por ciento es menor de edad; por lo tanto, la mayoría de los contenidos están enfocados para una comunidad adulta.
Nada sucede por casualidad. Hace unos días sorprendió la renuncia de Mrinank Sharma, el investigador responsable en la compañía Antrhropic del equipo enfocado en los límites éticos y la seguridad de la inteligencia artificial. Publicó su carta de despedida en su perfil de la plataforma X. Por los mismos días Tony Wo, encargado del área de razonamiento, y Jimmy Ba, líder de investigación y seguridad, también salieron de xAI, la empresa de Elon Musk. Al parecer el debate sobre la ética en el desarrollo de la inteligencia artificial está moviendo las piezas en la industria y al menos Sharma prefiere buscar horizontes que estén alineados con su integridad personal.
Las plataformas no son el problema, el verdadero conflicto es la falta de rigor en los protocolos de seguridad. Las redes sociales no deben polarizarse y verse en blanco y negro, pero dependerá del uso responsable de los usuarios, del control parental en el caso de los menores y de la responsabilidad tanto de los creadores como de los encargados del monitoreo de los contenidos el evitar que la realidad se vea de un gris oscuro que dé miedo.
jl/I









