Si usted es de las personas que piensa que su celular lo escucha mientras platica con sus amigos; si cree que Alexa registra las discusiones en la intimidad de su alcoba o sospecha que la computadora del automóvil guarda memoria de cada recorrido, no está solo. Existe evidencia suficiente para afirmar que los dispositivos digitales han adquirido atribuciones cada vez más amplias para influir no solo en lo que compramos, sino en lo que pensamos y en cómo pensamos.
El auge de la inteligencia artificial está generando un nuevo derecho del que debemos hablar con seriedad: el derecho a una explicación. Después de la automatización de los registros de nuestros consumos, las empresas utilizan sistemas algorítmicos para detectar patrones de comportamiento y empujar “nuevas necesidades” que luego son satisfechas, casi milagrosamente, por los mismos actores que dominan las plataformas digitales.
Ya nada es sorprendente. Cuando hablamos de vacaciones con nuestros amigos en un café, basta abrir Instagram o TikTok para que aparezcan cabañas en el bosque o habitaciones frente al mar. Si comentamos que queremos aprender un idioma, el algoritmo nos ofrece escuelas o cursos exprés con descuento. La publicidad dejó de ser un mensaje para convertirse en hostigamiento hiper personalizado.
El problema aparece cuando ese mismo mecanismo se desplaza del consumo privado al espacio público. ¿Qué ocurre cuando los algoritmos comienzan a intervenir en la manera en que nos informamos sobre elecciones, políticas públicas o programas sociales? La clase gobernante ha aprendido rápidamente a utilizar estas herramientas para difundir información falsa, imprecisa, pero emocionalmente eficaz y estratégicamente dirigida a públicos específicos, alterando las condiciones de deliberación democrática.
En su libro ‘Nexus’ (2024), Yuval Noah Harari advierte que los algoritmos están asumiendo un papel central en decisiones que afectan profundamente la vida humana: créditos, empleo, educación, seguros, sentencias judiciales, tratamientos médicos y acceso a la información. Esta delegación de poder erosiona los mecanismos clásicos de transparencia, rendición de cuentas y control democrático. Si no entendemos quién decide ni cómo decide, tampoco sabemos ante quién exigir responsabilidades.
De ahí surge la idea de un nuevo derecho humano: el derecho a una explicación, incorporado en el reglamento europeo de protección de datos, que reconoce que una persona puede exigir una explicación cuando un algoritmo toma una decisión que le afecta. Sin embargo, Harari sostiene que este derecho es casi imposible de cumplir en la práctica, porque los sistemas de inteligencia artificial operan como cajas negras y en lugar de sentar a los dueños de la tecnología en el banquillo, se les premia con contratos o espacios en el poder.
La filósofa Victoria Camps advierte que la sociedad de la desconfianza emerge cuando quienes toman decisiones renuncian a controlar a los poderes económicos que sostienen prácticas abusivas. Hoy esas prácticas ya no solo afectan mercados o empleos, sino también la manera en que se forma la opinión pública.
El verdadero desafío es pedagógico: construir una ciudadanía capaz de reconocer cuándo un mensaje ha sido diseñado para inducir emociones, creencias o conductas.
Así que la próxima vez que llegue un video perfecto, conmovedor y aparentemente espontáneo, deberíamos hacernos una pregunta básica: ¿quién quiere que yo piense esto y por qué?
NH/I









