Estou na bolha

[dropcap style=’circle’]A[/dropcap]ideia de que vivemos numa bolha censória que nos protege de tudo o que é diferente daquilo que habitualmente vemos e lemos não é nova. Ganhou destaque, no entanto, nos Estados Unidos, nos últimos dias, com notícias de que o Facebook teria apagado estórias de cariz marcadamente conservador da secção dos posts mais vistos e comentados (trending). A ideia seria a de que o Facebook estaria apostado em favorecer visões mais liberais. Com um congresso maioritariamente conservador, a notícia levou o presidente da comissão do comércio a requerer explicações à empresa de Mark Zuckerberg, que as negou. Naturalmente.
O conceito da filter bubble, de uma bolha protectora online que estabelece por nós aquilo que consideramos ser mais relevante, foi uma constatação a que chegou Eli Pariser, presidente da MoveOn.org (uma plataforma online de discussão política), após ter estudado a forma de funcionamento do Facebook e do Google. As suas conclusões tornaram-se virais em 2011, quando participou numa TedTalk.
O conceito é muito simples e explica-se num parágrafo. Os motores de busca na internet e outras aplicações registam os nossos hábitos de pesquisa, de navegação, avaliando as páginas que abrimos e o conteúdo dos posts que gostamos e que comentamos. Quando fazemos uma nova pesquisa, os resultados obtidos são influenciados pelo registo do nosso histórico. Isso é evidente não apenas na forma como os resultados são ordenados, mas também na publicidade associada a páginas que visitamos. Por exemplo, se através do Agoda ou do Booking.com pesquisarmos um destino de férias, quando visitamos páginas em que estas empresas promovem os seus produtos somos confrontados com propostas – normalmente a preços imbatíveis – feitas à medida para a cidade, praia ou destino que procurámos anteriormente. Trata-se de publicidade feita à nossa medida. Para os nossos gostos. Para as tendências que preferimos. Para a ideologia com a qual estaremos mais identificados tendo em conta os textos que lemos online. Faz isso o Google. Faz isso o Facebook.
Se nas nossas pesquisas anteriores – por exemplo de notícias – preferimos em várias ocasiões o The Guardian ao The New York Times, a BBC à Russia Today ou o Público à Folha de São Paulo, quando voltamos a fazer uma pesquisa de notícias, os resultados serão ordenados pela tendência das nossas preferências anteriores. Se assim continuarmos, chegamos a um momento em o que The New York Times, a Russia Today e a Folha deixam de aparecer nos resultados da nossa pesquisa. Por uma questão de irrelevância. Se não vemos o que têm para nos dizer, acabam por desaparecer ou ficam muito para baixo da lista de resultados. Quem tem tempo para ver mais do que os dez primeiros?
No caso do Facebook, a forma como esta bolha opera – uma bolha construída por algoritmos e incluída na parte não contratual da plataforma – é igualmente bastante visível. Os amigos cujos posts raramente comentamos ou a quem nunca colocamos um gosto deixam simplesmente de aparecer na nossa news feed.
Isto afunila consideravelmente o nosso mundo. É como se vivêssemos num espécie de redoma, inócua, asséptica, em que nos é mostrado apenas aquilo que não vai contra os nossos valores, os nossos ideais. Embora não o tenhamos pedido a ninguém – recorra-se uma vez mais ao exemplo inicial das notícias – não nos deixam ver a visão alternativa plasmada nos artigos da Russia Today. E deixam de aparecer no nosso news feed no Facebook opiniões contrárias às nossas.
Esta não é uma questão de somenos. O Facebook é cada vez mais a principal fonte de informação para milhões e milhões de pessoas. Segundo o reputado centro de estudos de opinião norte-americano Pew Research Center, 63 por cento dos utilizadores do Facebook usam a plataforma para saberem o que se passa no mundo. Se parte do que se diz e que está a acontecer nos é escondido, estamos todos cada vez mais a fazer leituras do mundo em que várias cores possíveis estão omissas. As horas passadas no Facebook servem apenas para reforçar as ideias que já tínhamos e não para nos questionarmos a nós próprios. Por razões de “relevância”, somos forçados a concordar connosco próprios. A não nos desafiarmos.
Vivemos pois tempos em que os algoritmos substituíram o trabalho do censor prévio. E por mais que Zuckerberg diga que não há censura no Facebook, é fácil concluir que, sempre que nos ligamos à plataforma, os posts que surgem no topo da news feed são os dos amigos com quem mais interagimos – aqueles que mais comentamos e que mais gostamos – e não aqueles cujos posts apenas comentamos ocasionalmente ou raramente gostamos. Isto tem consequências profundamente nefastas.
Estamos pois fechados numa bolha, na qual apenas vemos os queridos amigos que bajulamos e com os quais temos um forte relação de proximidade, alegadamente intelectual. A diferença, o sal da vida, vai sendo substituída pelos sorrisos dos que constituem a nossa tribo, que nos tornam alheados em relação ao extraordinário. E deixamos de nos indignar, pois somos cada vez menos confrontados com aquilo que nos deveria fazer objectar, criticar. Tal qual o pai que acompanha o filho ao parque infantil e tenta garantir que ele não caia ou se magoe. No fundo, esse pai não quer perder o mundo perfeito em que as crianças são pequeninas e podem ser protegidas por um mero abraço. Um mundo em que as crianças não crescem e hão-de para sempre precisar da ajuda do progenitor.

Subscrever
Notifique-me de
guest
0 Comentários
Inline Feedbacks
Ver todos os comentários