O filtro invisível – O que a internet está escondendo de você

Eli Pariser, presidente do conselho diretor do portal MoveOn.Org e cofundador da comunidade de mobilização Avaaz, foi claro ao dizer que: “vivemos em uma sociedade cada vez mais algorítmica, na qual nossas funções públicas, desde registros policiais até as redes elétricas ou matrículas em escolas, são controladas por códigos.” (2012, p. 201).

Eli Pariser. / Foto de Jenny Gillette.
Eli Pariser. / Foto de Jenny Gillette.

Para o ativista, a ideia fundamental da internet era democratizar o planeta ao conectar as pessoas a informações que pudessem ser melhores e mais consistentes, com o objetivo de gerar uma conectividade cívica. No entanto, esse não era o mesmo propósito dos donos de sites e redes sociais importantes, como Google e Facebook.

No livro “O filtro invisível – O que a internet está escondendo de você”, publicado em 2012, pela Editora Zahar, o autor nos descreve como foi esse processo até chegarmos na Era da Personalização.

Tudo começou em 1994, quando a Amazon foi pioneira na questão da personalização e começou a utilizar o poder da relevância para proporcionar um atendimento como antigamente, com os bons livreiros que sabiam os gostos dos clientes e indicavam sugestões que, provavelmente, acertariam.

O presidente da Amazon, Jeff Bezos, foi uma das primeiras pessoas a notar o potencial da personalização e quando a Amazon foi lançada, em 1995, ela veio para virar a chave do mercado de livros, pois já havia personalizado todo o seu sistema. Essa ação foi decisiva para que a empresa atingisse o sucesso.

Na Amazon, a busca de mais dados sobre o usuário é interminável: quando você lê um livro em seu Kindle, os dados sobre as frases que realçou, as páginas que virou e se começou a leitura do início ou preferiu antes folhear o livro são todos enviados de volta aos servidores da Amazon, sendo então usados para indicar quais livros você talvez leia a seguir. (PARISER, 2012, p. 32).

Em 2009, o Google publicou 57 sinalizadores que iriam proporcionar uma busca personalizada para todos os usuários.

A partir daquela manhã, o Google passaria a utilizar 57 “sinalizadores” – todo tipo de coisa, como o lugar de onde o usuário estava conectado, que navegador estava usando e os termos que já havia pesquisado – para tentar adivinhar quem era aquela pessoa e de que tipos de sites gostaria. Mesmo que o usuário não estivesse usando sua conta do Google, o site padronizaria os resultados, mostrando as páginas em que o usuário teria mais probabilidade de clicar segundo a previsão do mecanismo. (PARISER, 2012, p. 7).

Hoje em dia, após a criação desses sinalizadores, qualquer resultado encontrado é gerado a partir da classificação dos mais relevantes com base nos links mais acessados. Portanto, uma busca sobre o mesmo assunto, em computadores de pessoas diferentes, nunca será igual, já que o histórico de cliques é diferente para cada usuário.

O filtro invisível
Capa do livro “O filtro invisível”, publicado pela editora Zahar.

Esses mecanismos causam um efeito muito parcial nos resultados, pois só mostram o que está adequado ao ponto de vista da pessoa que está procurando um determinado assunto. A bolha, de que Eli Pariser se refere, é formada a partir dos algoritmos por trás dos sites.

No facebook, isso também acontece. Se você curte as publicações de apenas alguns amigos, esses mesmos amigos vão aparecer com muita frequência em seu feed de notícias. Entretanto, pessoas que pensam diferente de você e que, consequentemente você não curte os posts, começam a sumir do feed até chegar um momento em que o usuário estará completamente dentro da bolha dos filtros de personalização e só receberá notícias do mesmo universo de pessoas.

Outro ponto também levantado pelo autor é a questão das notícias que são lidas pelos usuários. Podemos lembrar da frase polêmica de Mark Zuckerber: “A morte de um esquilo na frente da sua casa pode ser mais relevante para os seus interesses imediatos do que a morte de pessoas na África”. Para o dono da rede social mais importante do mundo (hoje), ele se abstém de qualquer responsabilidade e joga nas mãos dos usuários a tarefa de selecionarem as informações que querem receber. Porém, a maioria das pessoas não sabe que esses mecanismos de personalização existem, logo como elas poderão questionar algo?

O autor ainda nos lembra que, antes da internet existir, os jornais faziam uma filtragem das informações e o editor dava a palavra final. Isso ainda acontece, mas o número de pessoas que lê os jornais impressos caiu e os jornais na internet já possuem o mecanismo de personalização. Portanto, antigamente, mesmo que o editor tivesse interesse de que somente algumas notícias chegassem até os leitores, pelo menos assuntos diferentes eram publicados e as pessoas poderiam até não ler certa notícia, mas elas passavam os olhos e sabiam que algo estava acontecendo.

O problema é que hoje em dia, se não curtimos certo tipo de publicação, não conseguiremos mais enxergar notícias similares. Mesmo que esses assuntos sejam de importância para todos os cidadãos, se não tivermos interesse em certos assuntos eles não ficarão visíveis para lermos e correremos o risco de nem sabermos o que está acontecendo sobre determinado assunto em nosso bairro, cidade, país e até no mundo.

A democracia exige que os cidadãos enxerguem as coisas pelo ponto de vista dos outros; em vez disso, estamos cada vez mais fechados em nossas próprias bolhas. A democracia exige que nos baseemos em fatos compartilhados, no entanto, estão nos oferecendo universos distintos e paralelos. (PARISER, 2012, p. 10).

No seguinte vídeo, Richard Sennett, sociólogo norte-americano, reflete sobre as mídias sociais que acabam não sendo interativas por conta de seus algoritmos:

Eli Pariser se baseia em um estudo do Wall Street Journal que diz que os 50 sites mais acessados instalam, em média, 64 cookies, no primeiro acesso, repletos de dados de rastreamento pessoal e que ficarão em seu computador até que você os exclua de sua rede. Um exemplo é o caso dos Beacons, que são pequenos dispositivos instalados que emitem sinais captados por aplicativos de smartphones e tablets, através da tecnologia bluetooth.

A principal questão apontada pelo autor é a de que esses serviços prestados pelos sites não são gratuitos, pois a partir do momento em que aceitamos os termos de uso – sem ao menos ler as regras – estamos pagando esses serviços com nossas informações pessoais que são vendidas para muitas outras empresas de marketing.

A antiga ambição do Google, segundo seu presidente Eric Schmit, era adivinhar o que cada usuário iria escrever e foi o que deu espaço para a criação do Google Instant, que foi lançado em 2010. Para o presidente, a nova ambição da empresa é responder até as perguntas mais hipotéticas dos usuários, já que atualmente alguns deles sempre esperam que o Google diga o que eles devem fazer.

Aqui, começamos a discutir sobre ética e a responsabilidade dos donos desses sites de seguir à risca as regras e não transferir a responsabilidade para o usuário que está na bolha. Segundo Eli Pariser: “na bolha dos filtros, há menos espaço para os encontros fortuitos que nos trazem novas percepções e aprendizados.” (2012, p. 19).

No que acreditam os programadores do Google e Facebook?

Larry Page e Sergey Brin
Larry Page e Sergey Brin. Foto de Michael Grecco.

Larry Page e Sergey Brin, fundadores do Google, tinham em mente um propósito de que o Google “não deveria ter fins lucrativos nem conter propaganda” (2012, p. 33). Entretanto, com o acesso subindo exponencialmente os dois jovens não resistiram à tentação de transformar a ferramenta de busca em um negócio. Com o Gmail, a coleta massiva de dados começou, em 2004. “Hoje em dia, o Google monitora todo e qualquer sinal de que consiga obter sobre nós.” (2012, p. 36).

Em 2004, Mark Zuckerberg estava em Harvard e, ao invés de analisar os indicadores de cliques para saber do que as pessoas mais gostam, ele resolveu perguntar a elas. Antigamente, no Facebook, apareciam todas as notícias dos amigos no feed, mas com o volume de postagens aumentando, ler o feed se tornou impossível.

A solução do Facebook foi o Edgerank, que é o nome do algorítimo utilizado por trás da personalização e que mostra no feed de notícias as publicações dos amigos e as pessoas que curtem com mais frequência, ou seja, se você não curte as postagem de uma pessoa é provável que você não apareça mais no feed dela.

São três os fatores de seleção de postagem:

  • Afinidade entre pessoas, que é determinado pelo tempo de interação entre os usuários.
  • Peso de cada conteúdo publicado. Exemplo: atualização de relacionamento tem peso grande.
  • Tempo. As postagens mais recentes têm mais peso.

EdgeRank

Em 2010, o jornal Washington Post permitiu que o Facebook editasse o seu bem mais valioso: sua primeira página online. Logo após, o New York Times fez o mesmo. O lançamento era do “Facebook Everywhere” e seu objetivo era fazer com que toda a internet se tornasse social por meio da personalização.

A base dos dois negócios, do Google e do Facebook, é a publicidade direcionada. Essa é a fonte significativa de lucro para essas empresas. Nosso comportamento no mundo virtual se tornou uma mercadoria que serve como plataforma para a personalização de toda a rede.

O problema da personalização excessiva é que notícias importantes para todos os cidadãos são excluídas enquanto as notícias que as pessoas querem ver são as que aparecem. Outro problema que o filtro proporciona é que a chance de termos contato com pessoas muito diferentes de nós é menor.

A declaração de Steve Jobs, de que os computadores servem para ligar nossos cérebros, talvez tenha sido otimista demais. Na realidade, à medida que os filtros personalizados ficarem cada vez melhores, a quantidade de energia que dedicaremos a escolher aquilo a que queremos assistir vai diminuir mais e mais. (PARISER, 2012, p. 65).

Como a personalização prioriza o que cada usuário quer ver, sites como o Buzzfeed e outros, que proporcionam virais, são os mais acessados pelos usuários e, em geral, notícias importantes não são publicadas nesses sites, já que o foco deles é o entretenimento.

Entender como funcionam os filtros e suas distorções é importante se quisermos saber como o mundo virtual realmente funciona. A bolha dos filtros nos cerca de ideias que já concordamos e que são muito familiares. Essa bolha remove de nosso ambiente alguns dos principais fatores que nos instigam e incentivam a querer aprender coisas novas.

A bolha dos filtros tende a amplificar drasticamente o viés da confirmação – de certa forma, é para isso que ela serve. O consumo de informações que se ajustam à nossas ideias sobre o mundo é fácil e prazeroso; o consumo de informações que nos desafiam a pensar de novas maneiras ou a questionar nossos conceitos é frustrante e difícil. É por isso que os defensores de uma determinada linha política tendem a não consumir a mídia produzida por outras linhas. Assim, um ambiente de informação baseado em indicadores de cliques favorecerá o conteúdo que corrobora nossas noções existentes sobre o mundo, em detrimento de informações que as questionam. (PARISER, 2012, p. 81).

Na bolha dos filtros, nem chegamos a enxergar coisas que não nos interessam. Esses filtros funcionam em três etapas:

  • O filtro tenta entender quem é a pessoa e do que ela gosta.
  • Após, oferece serviços personalizados com base nas informações coletadas.
  • Por fim, faz um ajuste fino e detalhado para melhorar essa correspondência.

Google versus Facebook

A filtragem do Google depende do histórico na rede e dos links que clicamos. Já o Facebook, filtra de forma diferente. Mesmo que o Facebook também rastreie os cliques, sua principal fonte de filtragem é a análise do que compartilhamos e com quem interagimos na rede social.

As implicações de nossos dados virarem mercadoria é que eles são vendidos para empresas que querem fazer um marketing direto e, sabendo de alguns pontos fracos dos clientes, elas podem agir com mais certeza e manipular as pessoas com mais facilidade.

Em meados do ano passado, usuários e instituições que se preocupam com o gerenciamento da internet foram surpreendidos com a notícia de que o Facebook alterou o feed de aproximadamente 700 mil usuários para se estudar o que se chama de “contágio emocional”. Lê-se no artigo publicado sobre o estudo: “Estados emocionais podem ser transferidos a outros via contágio emocional, levando as pessoas a experimentarem as mesmas emoções sem sabê-lo. O contágio emocional é um fenômeno bem estabelecido em experimentos de laboratório, com as pessoas transferindo emoções positivas e negativas umas às outras”. O experimento ocorreu durante uma semana, em 2012, comprovando a tese sobre o contágio. Realizado pelas Universidades de Cornell e da Califórnia, nos Estados Unidos, a manipulação dos feeds desses usuários contou, como não poderia deixar de ser, com o apoio do Facebook, interessado nos resultados. Mais, ele não teria ocorrido a pedido dos pesquisadores, mas após o Facebook realizar a manipulação. (EVANGELISTA, 2015)

As empresas às quais estamos entregando nossos dados não têm nenhuma obrigação jurídica de guardar apenas para si. Entretanto, em 2014, a Lei n° 12.965, do Marco Civil, em que o estado estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil dispõe, em seu artigo 7°, que é proibida a “inviolabilidade e sigilo de suas comunicações privadas armazenadas, salvo por ordem judicial”.

A nossa identidade molda a nossa mídia, e a nossa mídia molda então aquilo em que acreditamos e o que consideramos importante. (PARISER, 2012, p. 113).

Se os algoritmos fossem projetados para serem mais justos, como por exemplo, eliminando as informações sobre raça e gênero, algo que as pessoas têm dificuldade em fazer, seria muito bom. O problema é que esses algoritmos estão sendo utilizados para manipulação e persuasão dos usuários. Em alguns casos, essas regras são até mais discriminatórias que uma classificação feita por seres humanos.

Os modelos estatísticos que geram a bolha dos filtros descartam as exceções. Entretanto, entre seres humanos, são as exceções que tornam a vida interessante e nos dão inspiração. E as exceções são os primeiros sinais de mudança. (PARISER, 2012, p. 121).

Os engenheiros de sistemas possuem o poder, mas porque eles decidem construir dessa maneira o sistema? Tudo por dinheiro? Grande poder gera grandes responsabilidades e, infelizmente, os programadores que nos trouxeram para essa “Era da bolha dos filtros” não estão muito interessados em assumir essas responsabilidades.

Durante boa parte do tempo, como afirma o Jargon File, os programadores resistem à ideia de que seu trabalho tenha qualquer consequência moral ou política. Muitos engenheiros de software se veem como pessoas interessadas em eficiência e design, em construir coisas bacanas em vez de se envolver em disputas ideológicas e valores confusos. (PARISER, 2012, p. 158).

Para tentar mudar a imagem do algoritmo do Facebook, a empresa realizou um estudo com 10,1 milhões de usuários, sendo todos dos EUA, e que tentou provar que a bolha que se forma na rede social é semelhante, ou até mais moderada, do que a que acontece na vida real.

As tecnologias que favorecem a personalização só vão ficar mais fortes e a coleta massiva de dados em tempo real só irá aumentar. A internet tem suas vantagens, mas, a partir do momento em que não temos mais controle sobre a nossa própria vida na rede, isso é um grande problema. A falta de controle dos usuários, fica mais uma vez em evidência, quando o Google e a CIA passam a investir em uma empresa chamada Recorded Future, dedicada a usar a conexão entre dados para prever eventos futuros, como lançamento de mísseis, por exemplo.

Em última análise, a democracia só funciona se os cidadãos forem capazes de pensar além de seu interesse próprio limitado. No entanto, para isso precisamos de uma imagem comum do mundo que coabitamos. Precisamos entrar em contato com a vida de outras pessoas, seus desejos e necessidades. A bolha dos filtros nos move na direção oposta – cria a impressão de que nosso interesse próprio é tudo que existe. E embora isso seja ótimo quando o objetivo é vender produtos on-line, não ajuda as pessoas a tomar melhores decisões juntas. (PARISER, 2012, p. 146).

O que as pessoas podem fazer

  • Apagar os cookies que o navegador utilizar para identificar quem somos.
  • Escolher sites que deem aos usuários mais controle e visibilidade sobre como funcionam.
    Por exemplo: O twiiter se baseia em poucas regras que são simples e bastante transparentes. Porém o Facebook tem regras turvas e que mudam diariamente.
  • É cada vez mais importante as pessoas terem um nível básico de conhecimento algoritmo.
    Dica: Curso on-line gratuito da Universidade de Stanford: Algoritmos: Design e Análise, Parte 1.

O que as empresas podem fazer

  • Tornar seus sistemas mais transparentes para o público.
  • Clareza para que os usuários compreendam intuitivamente o funcionamento do sistema.
  • Explicar como a empresa usa os dados dos usuários e com qual finalidade.
  • Criar um algoritmo de falseabilidade, ou seja, um mecanismo que tente refutar sua própria ideia sobre quem nós somos.

Sugestão de melhoria para o Facebook: Inserir um outro botão, ao lado do curtir, configurando a postagem como importante e a rede social poderia se basear em uma mistura dos dois sinais – do que as pessoas gostam e do que elas pensam ser importante.

O que os governos podem fazer

  • Depois que os usuários fizerem a sua parte para furar a bolha de filtros e, depois das empresas terem feito a sua parte, o governo terá que supervisionar todo o processo para garantir que os cidadãos controlem as ferramentas e não o oposto.

Para saber mais sobre a bolha dos filtros, veja a apresentação de Eli Pariser no TED, em 2011:


Bibliografia

Coursera. Stanford – Algoritmos: Design e Análise, Parte 1. Disponível em: <https://pt.coursera.org/course/algo>. Acesso em: 1 set. 2015.

Discovery News. How Facebook Sells Your Personal Information. Disponível em: <http://news.discovery.com/tech/gear-and-gadgets/how-facebook-sells-your-personal-information-130124.htm>. Acesso em: 2 set. 2015.

El País. Usuários transformam seus murais no Facebook em ‘bolhas’ ideológicas. Disponível em: <http://brasil.elpais.com/brasil/2015/05/06/tecnologia/1430934202_446201.html>. Acesso em: 2 set. 2015.

Folha de S. Paulo. Por publicidade, sites cruzam dados e descobrem até o que o usuário não diz. Disponível em: <http://www1.folha.uol.com.br/tec/2015/05/1632709-por-publicidade-sites-cruzam-dados-e-descobrem-ate-o-que-usuario-nao-diz.shtml>. Acesso em: 2 set. 2015.

Outras Palavras. Internet: o que você assina sem ler. Disponível em: <http://outraspalavras.net/blog/2015/06/18/internet-o-que-voce-assina-sem-ler/>. Acesso em: 13 ago. 2015.

_______. Internet: a sombra de um grande retrocesso. Disponível em: <http://outraspalavras.net/posts/internet-risco-retrocesso/>. Acesso em: 2 set. 2015.

PARISER, Eli. O filtro invisível – O que a internet está escondendo de você. Editora Zahar, 2012.

Presidência da República – Casa Civil. Subchefia para assuntos jurídicos. Lei n° 12.965, de 23 de abril de 2014. Disponível em: <http://www.wsj.com/articles/SB10001424052748703977004575393173432219064>. Acesso em: 1 set. 2015.

Revista Piauí. O cara dos virais. Disponível em: <http://revistapiaui.estadao.com.br/edicao-104/questoes-virtuais/o-cara-dos-virais>. Acesso em: 2 set. 2015.

Science. Exposure to ideologically diverse news and opinion on Facebook. Disponível em: <http://www.sciencemag.org/content/348/6239/1130>. Acesso em: 2 set. 2015.

The Wall Street Journal. Sites feed personal details to new tracking industry. Disponível em: <http://outraspalavras.net/blog/2015/06/18/internet-o-que-voce-assina-sem-ler/>. Acesso em: 13 ago. 2015.

Usabilidoido. O jogo de esconder e mostrar do Facebook. Disponível em: <http://www.usabilidoido.com.br/o_jogo_de_esconder_e_mostrar_do_facebook.html>. Acesso em: 13 ago. 2015.

Anúncios

Deixe um comentário

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair / Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair / Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair / Alterar )

Foto do Google+

Você está comentando utilizando sua conta Google+. Sair / Alterar )

Conectando a %s

Crie um site ou blog no WordPress.com

Acima ↑