_
_
_
_
_
Reportaje:vida&artes

La Red le adoctrina con su propio credo, si usted se deja

Buscadores y redes sociales filtran la información según los gustos del usuario - Es cómodo, pero peligroso: la visión que dan está sesgada

Carmen Mañana

Miguel, un aventurero empedernido, busca la palabra Java en Google desde su casa de Madrid. A la misma hora pero en Nueva York, Steven, informático, introduce el mismo término en la misma herramienta. Cada uno obtiene resultados muy distintos: el primero, sobre la isla de Indonesia; el segundo, sobre el lenguaje de programación llamado así.

¿Por qué? Porque Google usa la localización, las búsquedas anteriores y toda la información que posee sobre el usuario para seleccionar de entre todos los resultados posibles aquellos que considera que pueden interesarle más. Es decir, personaliza la información que ofrece. Para ello emplea unos filtros que utilizan cada vez más webs y redes sociales, como Amazon o Facebook, y que, para muchos, solo hacen más cómoda la navegación a través del océano informativo que supone la Red.

El internauta puede cerrarse a todo lo que desafíe sus puntos de vista
"Así es cada vez más difícil tener discurso democrático", dice un experto
Dans: "Quien solo lee blogs de su cuerda está aislado; como al oir una sola radio"
Más información
No es fácil ser minoría

Pero para otros, como el gurú de las redes sociales y asesor de Barack Obama, Eli Pariser, la proliferación y profundización de estos filtros es una involución de Internet y puede llegar incluso a ser peligroso para la sociedad. "La personalización invisible de las webs te hace pensar que tienes una visión total de un asunto, cuando lo que tienes es una visión distorsionada. Y a nivel social, esto se traduce en que cada vez resulta más difícil para la gente identificarse con distintos puntos de vista y tener un discurso democrático, lo que, al final, hace más complicado resolver los problemas sociales", asegura.

¿Demasiado dramático? Si empleamos los buscadores, redes sociales y webs de una manera "cómoda", dejándonos llevar, obtendremos solo la información que los sites deciden que nos interesa. Javier Arias, ingeniero de Google, explica que en su empresa se trabaja constantemente para afinar los algoritmos matemáticos que seleccionan los resultados supuestamente más relevantes para cada usuario. "El objetivo es que no sea preciso que el internauta nos diga qué está buscando sino que nosotros seamos capaces de decirle qué le conviene. Y ya se está yendo hacia ese lugar", adelanta.

Facebook, por ejemplo, no muestra por defecto en su página de inicio lo que han publicado todos sus amigos, sino las actualizaciones de aquellos con los que más se relaciona (en esta red social). Existe un botón que permite verlas todas, pero Facebook elige cuáles vamos a conocer primero basándose en sus criterios de afinidad.

"Tú no sabes cómo piensan Google o Facebook que eres, luego no sabes en base a qué editan la información que te ofrecen. Es algo que no sabemos", dice Pariser, al que no se le puede acusar de estar en contra de las nuevas tecnologías y sus avances. Este activista político de 31 años consiguió que medio millón de estadounidenses firmaran una petición online a favor de una respuesta no militar al 11-S, y recaudó unos 22 millones de euros para el Partido Demócrata a través de MoveOn.org, la web de la que es director ejecutivo.

El nuevo filtro de Facebook no ha pasado desapercibido para algunos usuarios, que han creado un grupo donde se quejan de que "para que una persona sea visible a todos sus amigos, debería dejar un comentario a todos ellos y viceversa. Lo que es imposible para la mayoría de la gente". Además, estos internautas explican cómo saltarse ese filtro y poder acceder a la totalidad de la información de sus amigos; cómo sortear la tendencia de las redes sociales a agrupar a la gente que tiene más cosas en común.

La tesis que mantiene Pariser en su libro The Filter Bubble: What Internet is hiding from you (Penguin Press) -La burbuja filtro: lo que Internet te oculta- es que si uno no le da al botón de "ver todo", si no toma una actitud proactiva para saltarse ese filtro, el supuesto objetivo de las redes sociales -que es abrirse a un inmenso mundo de amigos o conocidos a los que no se tiene un acceso inmediato o directo- acaba anulado.

Y, si esto se extrapola a páginas de información, blogs y buscadores, uno termina reproduciendo en la Red las mismas burbujas sociales, culturales e ideológicas en las que se encuentra encerrado en su vida offline. El internauta no se abre a nada nuevo porque con los filtros resulta más difícil encontrar información que desafíe sus puntos de vista. "Y un mundo construido a partir de todo lo que nos es familiar, es un mundo donde no hay nada que aprender", remata Pariser.

Julio Alonso, director de Weblogs SL, la mayor empresa de medios especializados online en español, está de acuerdo en que estos filtros pueden ser una herramienta de convergencia -"pueden ayudarte a profundizar en tus gustos y opiniones"- pero también de divergencia si se saben manejar. Cuando uno compra un libro en Amazon, por ejemplo, la página le ofrece una selección de títulos que considera que pueden gustarle basándose en sus compras anteriores o en las que han hecho otras personas que han adquirido el mismo libro y que, seguramente, tendrán gustos muy similares.

Con lo que, si uno simplemente se deja guiar, se puede producir un fenómeno que Pariser define como "adoctrinamiento con nuestras propias ideas". Aunque, por supuesto, esto no es una película mala de ciencia ficción donde las máquinas han acabado con el libre albedrío: uno siempre puede buscar en la página de los más leídos o simplemente navegar a la caza de algo que le saque de su rutina o su "dieta informativa", como dice Alonso. De la misma manera que se puede pasar de la sección de novela negra a la de autoayuda en una librería.

"Con los filtros sociales existe el peligro de focalizarte demasiado, pero todo depende de la persona", resume Enrique Dans, profesor de Sistemas de Información en IE Business School. Alonso coincide: "Alguien que solo lee diez blogs de su misma cuerda está aislado, sí. Pero lo está tanto como una persona que solo oye una radio, o lee un periódico o habla solo con gente que opina lo mismo que él".

Pero, ¿cómo romper con esa homogeneización a la que parecen llevar por defecto las redes sociales? Para empezar, Alonso afirma que las herramientas -blogs, redes sociales, webs- son neutrales. La clave, dice, está en la forma que en se emplean. "Cuanto más sofisticado y variado sea tu uso de estas herramientas digitales, más diversa será tu dieta informativa".

El director de Weblogs asegura que en las redes sociales, como en la vida real, todo depende de cómo uno seleccione su entorno. Si se buscan personas que refuercen nuestras ideas o personas que nos aporten otras nuevas.

"Si no sales a veces de tus RSS -sistema de suscripción a páginas de información y blogs- estás dándole siempre vueltas a las mismas interpretaciones, no avanzas. Yo trato de hacer siempre una excursión fuera", asegura Dans. El profesor considera que Twitter es un buen filtro para romper con la homogeneidad de contenidos, si se sabe elegir a quién seguir: "Gente que produzca bastante información y que aporte cosas interesantes a las que no llegarías por otras vías".

Pariser, sin embargo, no cree que las herramientas sean neutrales y considera que las compañías que las controlan deben tomar medidas.

El responsable de MoveOn.org propone tres pautas a seguir: transparencia, control y ética cívica. "Primero, las compañías deben decirnos cómo, cuándo y con qué criterios están escogiendo información para nosotros. Segundo: deben dar la posibilidad de instalar y desinstalar esos filtros". Y por último, el asesor de Obama opina que las páginas de información deben ayudar a poner en circulación las noticias o hechos importantes desde el punto de vista cívico. "Tal vez Facebook debería tener un botón de Importante además del de Me gusta. De tal forma que el tema Genocidio en Darfur pueda tener la misma visibilidad que He hecho una tarta".

No se trata de eliminarlos. Todos los expertos coinciden en que cierto grado de personalización y filtros es necesario para hacer frente a la explosión de fuentes de información que supone Internet. El usuario debe decidir qué leer y no resulta fácil determinar qué es relevante y de calidad. "Los criterios de selección clásicos, que se basan en seguir unas marcas que según la experiencia de cada uno tienen calidad, están obsoletos porque se quedan cortos, cierran mucho el embudo informativo. Así que hay que utilizar nuevos mecanismos que te permiten discriminar", argumenta Alonso.

Quizás el más usado sea el basado en algoritmos sociales. Como explica Dans, consiste en que cada vez que alguien pincha, comparte o vincula un contenido es como si emitiera un voto a favor de este. "Se supone que es una buena medida de relevancia, porque en el fondo somos gregarios, y porque al pasar a estar en manos de muchas personas, en vez de unos cuantos webmasters, el criterio es menos manipulable", dice.

Un buen ejemplo de este tipo de filtro por relevancia es la nueva red social de Google, Google +. Allí existe una opción llamada Intereses que recomienda artículos al usuario. "Si Google detecta que hay un reportaje de The Economist que está siendo muy compartido y entre tus Intereses está la economía, puede llegar a la conclusión de que te gustaría leerlo. Va un paso más allá y te proporciona la información antes de que la busques", dice Arias. El grado de aplicación de estos criterios de personalización es lo que marca el rechazo de personas como Pariser. Él reivindica que cuando los filtros son invisibles e inevitables -"como sucede cada vez con más frecuencia"- es como si se navegase por la Red con anteojeras. "Tú debes ser el responsable de lo que lees y oyes en Internet, no las grandes compañías que tratan de vender publicidad".

LUIS F. SANZ

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_