Autora: Mariana Tasca Fontenelle Lôbo
Fundadora e Pesquisadora do CTSMART

Não é de se surpreender que, atualmente, nossos feeds de notícias das redes sociais, os resultados de nossas buscas na internet e até mesmo nossos emails sejam invadidos por uma chuva de anúncios e notícias relacionados aos nossos interesses pessoais.

Mas por que isso acontece? Como “eles”conseguem saber que desejo viajar para uma praia com minha família e então começam e me enviar ofertas de passagens, hotéis e passeios turísticos relacionados?

Pois bem… “eles” são os famosos algoritmos de inteligência artificial que estão embutidos nas plataformas das redes sociais e nos mecanismos de busca.

Quando navegamos pela internet, deixamos um rastro de registros de nossos interesses através de nossos cliques, curtidas, compartilhamentos, buscas, etc. Nosso comportamento na rede vai sendo monitorado por esses algoritmos que, ao longo do tempo, conseguem nos conhecer cada vez mais e passam a nos mostrar apenas aquilo que eles “acham” que é do nosso interesse.

Isso pode parecer, a princípio, muito confortável e conveniente. As coisas que eu gosto de ver, ler e comprar, aparecem facilmente em minha tela como um passe de mágica, sem que eu tenha que fazer muito esforço. Porém, esse fenômeno pode ser bastante traiçoeiro, pois nos coloca dentro de uma bolha onde enxergamos apenas aquilo que nos parece viável e nos afasta do contrário, do contraditório, de tudo aquilo que poderia nos fazer refletir para questionar, criticar, argumentar…

Esses algoritmos ganharam fama em 1996, quando Sergey Brin e Larry Page, cofundadores do Google, elaboraram um código para priorizar, numa determinada busca, as páginas da internet mais relevantes para cada perfil de pessoa. Atualmente, esses algoritmos de priorização de resultados levam em conta diversos parâmetros. Nas redes sociais, os algoritmos utilizando inteligência artificial começaram a ser utilizados pelo Facebook no final dos anos 2000. Esses algoritmos consideram uma série de fatores para decidir o que aparece no feed de notícias dos usuários. Como o Facebook passou a ser um veículo importante de difusão de conteúdo – e não somente uma plataforma de relacionamento entre amigos – atualmente ele desempenha um papel muito importante na influência das ideias de seus usuários. Já que ele apresenta aos seus usuários um conteúdo baseado naquilo que eles gostaram e escolheram no passado, a tendência é que ideias preconcebidas sejam ainda mais reforçadas.

Em 2012, o Facebook fez um experimento secreto com cerca de 700 pessoas, manipulando o algoritmo que define o conteúdo do feed de notícias desse grupo. O objetivo era avaliar o “contágio emocional”. O estudo, conduzido por pesquisadores associados ao Facebook, pela Universidade de Cornell e pela Universidade da Califórnia, mostrou que as pessoas que foram submetidas a conteúdo com notícias negativas, tiveram uma reação negativa na rede, através de seus posts. Os responsáveis pelos testes afirmaram que “estes resultados provam que as emoções expressas pelos outros no Facebook influenciam nossas próprias emoções, o que evidencia o contágio em larga escala via redes sociais.”

Eli Pariser, escritor do livro The Filter Bubble (2011), estuda esse fenômeno há algum tempo e o batizou de “filtro bolha”. Ele diz que a falta de fluxo de informação prejudica a democracia. Segundo Parisier, “a democracia requer que os cidadãos vejam as coisas a partir de outros pontos de vista, mas, em vez disso, estamos cada vez mais fechados em nossas bolhas”.

Antes do Google, a internet nos permitia selecionar as publicações que desejávamos ler da mesma forma como fazíamos nas bancas de jornais: tínhamos uma estante com todas as opções, considerando todos os pontos de vista, e selecionávamos aquela(s) de nosso interesse. Agora, com a utilização da personalização da navegação, somos conduzidos a ter acesso ao conteúdo que nos identifica, e muitas vezes sem ter consciência disso. Esse fenômeno causa uma segregação ideológica e uma forte polarização de ideias. O fato de sermos conduzidos a ter acesso a um conteúdo direcionado nos dá a falsa sensação de que “toda a rede” concorda com nosso ponto de vista. Soma-se a isso o fato de que, nas redes sociais, as pessoas são muito mais “corajosas” para expressar suas opiniões do que se estivessem numa discussão ao vivo. Somos levados a usar palavras e expressões que jamais usaríamos numa conversa “olho no olho”, o que torna as discussões calorosas e extremistas.

É claro que a internet abriu-nos as portas para o mundo e pode ser uma fonte incrível de exploração de conhecimento. Hoje podemos ter acesso a jornais e revistas de todo o mundo. Temos à nossa frente um mar de possibilidades. Porém, segundo Parisier, as possibilidades são diferentes da realidade. O percentual de pessoas que busca conteúdos diversificados na rede é muito pequeno. O Facebook se concentra cada vez mais em oferecer vídeos para espectadores passivos, e essa não é a melhor forma de exploração de conhecimento.

Segundo especialistas, a existência do “filtro bolha” pode, ainda, influenciar na difusão de fake news, um pesadelo que nos tem atormentado nos últimos tempos. Quando estamos dentro de uma bolha e recebemos uma notícia falsa, certamente perceberemos outras notícias favoráveis a essa (que provavelmente são fake também), outras pessoas (de dentro da bolha) concordando e compartilhando tal notícia e pouco conteúdo que seja antagônico ou que possa explicar ou desmentir tal fato – notícias contrárias ou que pertencem a um outro pólo da discussão são muitas vezes descartadas pelo algoritmo e não aparecem no mural de quem está dentro daquela bolha. Esse comportamento nos faz acreditar que a notícia é verdadeira. E por acharem que suas ideias são as “corretas”, os usuários se fecham à possibilidade de conhecer o outro lado da moeda para, posteriormente, ponderar os fatos de ambos os lados e se posicionar. Com o tempo, essa situação acaba gerando ideias polarizadas e percepções errôneas sobre os acontecimentos.

Raquel Recuero, pesquisadora da Universidade Federal de Pelotas (UFPel) e autora de livros sobre conversação digital, observa que “em relação às notícias de política no Brasil hoje, o que observamos é que as pessoas tendem a compartilhar apenas conteúdos que ‘concordam’ (tanto no viés quanto no texto) com o seu posicionamento político ou visão. Por conta disso, muita coisa deixa de circular, e muitas notícias circulam pela metade. Essa busca pela concordância, pelo ‘veja como estou certo’, também é um campo propício para a circulação de notícias falsas ou exageradas”.

Mas, diante desse cenário, o que podemos fazer? Existe uma solução? É possível “estourar” essa bolha e nos libertar?

Segundo Luciana Buriol, pós-doutora em algoritmos para web e professora do Instituto de Informática da UFRGS, a bolha é criada a partir do comportamento do próprio usuário. Uma pessoa que lê sobre todos os assuntos e não se manifesta na rede, tem poucas chances de ficar presa em uma bolha, pois os algoritmos não conseguem captar suas preferências e, consequentemente, disponibilizarão em seu mural informações diversificadas. “Mas eu não diria às pessoas para deixarem de se manifestar. O ponto-chave é que elas precisam ter consciência de que suas interações serão percebidas e refletidas no tipo de informações que receberão na rede. Tudo o que o usuário faz é legível e integra uma estatística. Se as pessoas souberem disso, poderão decidir o que fazer”, destaca Luciana.

A tecnologia veio para facilitar nossas vidas e ajudar-nos a progredir, crescer e fazer novas descobertas. O avanço da comunicação diminuiu as distâncias entre as pessoas, abriu-nos as portas para o mundo e deu-nos acesso a um mar de informações. Mas é necessário utilizar toda essa tecnologia com prudência, consciência e sabedoria. O ideal seria que cada cidadão, fazendo uso consciente da internet, “estourasse sua bolha” e se permitisse ir ao encontro da pluralidade de ideias que a rede nos permite acessar para gerar discussões ricas em informações, úteis e fundamentadas.