La posverdad es aquel contenido que se centra más en reforzar las creencias o emociones que en exponer hechos objetivos. Como afirma Fernando Bordignon, la posverdad tiene la intención de confundir y lo consigue mediante una desconexión entre los hechos objetivos provocada por la intervención de lo emocional. La emoción concede al lenguaje el poder de intervenir, persuadir, articulando un relato, implicándose en una versión de los hechos.
Con la aparición de la Inteligencia Artificial, la posverdad se ha amplificado. Los algoritmos informáticos, instrucciones ordenadas para realizar una determinada tarea, se han convertido en un instrumento tecnológico de poder social que replican y amplifican la posverdad de manera fácil y con la ayuda de las redes sociales circula rápidamente como demostró un estudio del MIT.
Sin embargo, no todos los algoritmos tienen los mismos objetivos. Dominique Cardon en su libro Con qué sueñan los algoritmos, realiza una clasificación de los mismos de acuerdo con:
- La popularidad: son aquellos que recogen los datos de las visitas que tienen los sitios web con la finalidad de establecer un orden atendiendo a la popularidad.
- La autoridad: son los se nutren del número de enlaces que tienen los espacios y servicios online. Un ejemplo sería Page Rank, el algoritmo de Google que clasifica la información de su motor de búsqueda. Ofrece al usuario aquellos sitios web que han recibido mayor número de enlaces de sitios que, a su vez, han recibido de otros. Cuanto más se cita un sitio por los demás, mayor autoridad adquiere.
- La reputación: son los usados por las redes sociales y están alimentados por los likes, retuits o valoraciones de los usuarios. Un ejemplo sería el algoritmo de Facebook, EdgeRank, que propone las publicaciones específicas a cada usuario de acuerdo a sus valoraciones. La reputación se construye a través de la expresión de la subjetividad y, en muchas ocasiones, manifiesta lo que se pretende ser frente a lo que en realidad se es.
- Los predictivos: se basan en los rastros de navegación y los patrones de búsqueda de los usuarios. Un ejemplo es el que usa Amazon, hace que la plataforma te proponga un producto en función de lo que ya has comprado o buscado y de los intereses de otros usuarios que han comprado lo mismo que tú.
Aunque personalicemos los algoritmos (los algoritmos son sexistas, los algoritmos son racistas, los algoritmos nos manipulan), son las empresas que los crean, las que ejercen el control y la exclusión social. Los algoritmos no solo analizan los datos que generamos con cada click o con cada movimiento, sino que también se utilizan para que tomemos decisiones que afectan a nuestra vidas. Sin embargo, hay unos algoritmos que son diferentes porque se les permite cierto albedrío que hace que tomen decisiones sin intervención humana. Son los modelos derivados de los datos a través del aprendizaje automático.
Desde hace un par de años, los Estados han elaborado legislación para proteger a los ciudadanos de estas empresas que manejan y usan los datos para manipularnos y conseguir que no tomemos decisiones informadas. De esta manera, en España existe la Ley Orgánica 3/2018 de Protección de Datos Personales y garantía de los derechos digitales y en Europa se publicó el Reglamento de Protección de Datos aprobado por la Comisión Europea de mayo de 2018 que regula la recopilación, almacenamiento y el uso de datos entre las empresas que trabajan en y con Europa.
A pesar de la legislación, hay algoritmos como el de Google que dio origen al concepto creado por Pariser (2011) «burbuja de filtro». Este algoritmo te propone resultados de búsqueda que son mejores para ti, es decir, propone a cada persona resultados diferentes de acuerdo a su historial de navegación. De esta manera, la información que obtenemos no es objetiva ni actual, sino la que mejor se ajusta a nuestro perfil. Las razones que da la empresa tecnológica sobre su funcionamiento es que te ofrece el mejor resultado hecho para ti. Claro que puede acertar con sus resultados, pero también puede manipularte con su selección.