Usuário(a):Luiz Freitas/Testes

Origem: Wikipédia, a enciclopédia livre.

Filtro Bolha[editar | editar código-fonte]

Filtro Bolha é uma tradução livre do termo "Filter Bubble", criado pelo ativista da internet Eli Pariser no livro homônimo de sua autoria.

O Filtro Bolha é resultado de uma busca personalizada, no qual um algoritmo de um determinado sítio da internet seletivamente aponta quais informações um usuário gostaria de ter acesso, baseado em informações oferecidas pelo próprio usuário (como localização, histórico de cliques e de pesquisa, por exemplo).[1][2][3] Como consequência, os usuários acabam separados de informações que não coincidem com seus próprios pontos de vista, efetivamente isolando-os em verdadeiras bolhas culturais e/ou ideológicas.[4] As escolhas feitas pelo algoritmo, porém, não são transparentes. Exemplos claros são os resultados da busca personalizada do Google e o Feed de notícias do Facebook. O termo “Filtro Bolha” foi cunhado pelo ativista cibernético Eli Pariser em seu livro de mesmo nome. De acordo com Pariser, os usuários estão menos expostos a pontos de vista conflitantes com as suas respectivas opiniões, quando os filtros de busca tendem a isolá-los intelectualmente em suas próprias bolhas informacionais. Pariser relatou um exemplo em que um usuário pesquisou no Google a sigla “BP” e recebeu notícias sobre investimentos na companhia British Petroleum, enquanto que um outro usuário informações sobre o incidente da explosão da plataforma de petróleo Deepwater Horizon, no Golfo do México em 2010, e percebeu que os resultados das buscas foram “substancialmente diferentes”.[5][6][7][8] O efeito bolha pode ter implicações negativas no discurso civil da sociedade, de acordo com Pariser, mas há outras visões contrastantes as quais sugerem que esse efeito seria mínimo[8] e controlável.[9]

Índice

1. Conceito

2. Reações

3. Ver Também

4. Bibliografia

5. Ligações externas

6. Referências

Conceito[editar | editar código-fonte]

Pariser definiu seu conceito de filtro bolha, em termos mais formais, como “aquele ecossistema de informação pessoal que foi criado por estes algoritmos”.[5] Outros termos foram utilizados para descrever esse fenômeno, incluindo “quadros ideológicos”[6] ou “uma esfera figurativa que envolve o indivíduo ao surfar a internet”.[10] O histórico de pesquisa é construído ao longo do tempo de utilização das ferramentas de busca, quando um usuário da internet indica seus interesses por determinados tópicos ao “clicar em links, visualizar amigos, incluir filmes na sua fila, ler novas histórias” e assim por diante.[10] Uma empresa digital de comércio eletrônico, então, pode usar essas informações para selecionar anúncios induzindo o usuário a tomar decisões de compra, ou fazê-los aparecer mais proeminentes na página de resultados de busca.[10] A preocupação de Pariser é de certa forma similar à feita por Tim Berners-Lee, em 2010, num relatório ao jornal britânico The Guardian - seguindo a linha de um “Efeito Hotel Califórnia”[11], o qual acontece quando sítios dedicados a redes sociais removem conteúdo de outros sites concorrentes, com o intuito de coletar a maior parte de todos os usuários da internet. O objetivo de tal estratégia seria criar um efeito “quanto mais se adentra, mais trancado você se encontra”, restringindo o usuário a informações dentro de um sítio específico. Desta forma, o sítio se torna para o usuário um “armazém fechado de conteúdo” correndo o risco de fragmentar a Worldwide Web, de acordo com Berners-Lee.[12]

No livro “The Filter Bubble”, traduzido em português por “O Filtro Invisível”, Pariser adverte sobre um potencial lado negativo devido a filtragem de pesquisas, uma vez que isso “nos fecha à novas ideias, temáticas, e informações importantes”[13], e “cria a impressão de que nosso estreito interesse próprio é tudo que existe”.[6] Ele critica o Google e o Facebook por oferecerem aos usuários “muito doce e pouca cenoura”.[14] Ele avisa que “a edição invisível da internet pelos algoritmos” podem limitar nossa exposição à novas informações e estreitar nosso campo de visão.[14] De acordo com Pariser, os efeitos negativos dos filtros bolha incluem danos à sociedade em geral, no sentido de que os filtros têm a possibilidade de “sabotar o discurso cívico” e de fazer as pessoas mais vulneráveis à “propaganda e manipulação”.[6]  Ele escreveu que:

Um mundo construído a partir de um mundo familiar em que não há nada a se aprender… (desde que exista algo) é autopropaganda invisível, doutrinando a nós mesmos com nossas próprias ideias.” (Eli Pariser em The Economist, 2011)[15]

Um filtro bolha é descrito exacerbando um fenômeno que já existe e é chamado de “splinternet” ou “cyberbalkanization[16], que ocorre quando a internet se torna dividida em subgrupos compostos por pessoas de mesma opinião que acabam ilhadas dentro da sua própria comunidade “online”, e que acabam por falhar na busca por exposição à pontos de vista diferentes. O termo cyberbalkanization foi cunhado em 1996.[16][17][18]

Reações[editar | editar código-fonte]

Há diversos relatórios conflitantes sobre a que extensão a personalização de busca está acontecendo e se tal atividade é benéfica ou prejudicial. O analista Jacob Weisberg ao escrever na revista “Slate”[19] fez um pequeno experimento não científico para testar a teoria de Pariser. O experimento envolvia cinco pessoas com diferentes trajetórias ideológicas conduzido à mesma exata busca. Os resultados de todas as cinco listas de consultadas de pesquisa foram quase idênticas em quatro buscas diferentes, sugerindo que o filtro bolha não estava ligado ou não era efetivo, o que levou-o a escrever que em uma situação em que todas as pessoas estariam se “alimentando de uma vasilha de Daily Me[20]” era exagerada.[6] Um estudo científico de Wharton que analisou recomendações personalizadas também concluiu que esses filtros podem realmente criar comunidades com interesses comuns, mas não fragmentação, pelo menos no estudo do gosto musical online.[21] Consumidores aparentemente usam os filtros para expandir suas preferências, mas não para limitá-las.[21] O crítico literário Paul Boutin fez um experimento similar entre pessoas com diferentes históricos de pesquisa, e chegou a resultados similares aos de Weisberg com quase idênticos resultados de pesquisa.[8] O professor de direito de Harvard Johnatan Zittrain discutiu a que extensão os filtros de personalização distorcem os resultados de busca do Google; ele disse que “os efeitos da personalização de busca foram leves”.[6] Além disso, há relatórios de que usuários podem desligar as funções de personalização do Google se eles desejarem[22] ao deletar o histórico de internet e por outros métodos.[8] Um porta-voz do Google sugeriu, no entanto, que os algoritmos foram adicionados às pesquisas do Google para deliberadamente “limitar personalização e promover variedade”[6], justamente o efeito contrário.

Porém, existem relatos de que o Google e outros sites possuem vastas informações que podem possibilitá-lo a personalizar ainda mais a experiência do usuário na internet caso ele assim desejar. Paul Botin sugeriu que o Google pode traçar registros de históricos passados de usuários a partir de cookies instalados em browsers, mesmo que eles não possuam contas pessoais no Google, ou mesmo se não estão logadas em uma.[8] Existem reportagens que afirmam o Google tem coletados 10 anos de informações, trazidas de varias fontes, como o Gmail, Google Maps, e outros serviços além da seu provedor de buscas[7]. Por outro lado existem outros relatos contrários, que afirmam que a ideia de tentar personalizar a internet para cada usuário seria um desafio técnico para uma firma de internet, apesar das enormes quantidades de dados virtuais disponíveis. O analista Doug Gross da CNN sugeriu que a personalização de buscas parece ser mais útil para consumidores em geral,  do que para cidadãos preocupados em ter a sua privacidade invadida, e que ajudaria  a um consumidor procurando por “pizza” encontrar opções de delivery locais baseadas na personalização de buscas, e que iria apropriadamente filtrar pizzarias distantes.[7] Há consenso de que os sites dentro da internet, como o Washington Post, The New York Times, e outros estão focando seus esforços em criar provedores de informação personalizadas, com o objetivo de isolar e evidenciar resultados de busca àqueles que os usuários estão mais propensos a concordar com determinados pontos de vista, com o objetivo de não de isolá-los em bolhas, mas simplesmente facilitá-los às suas próprias buscas.[6]

Ver Também[editar | editar código-fonte]

·        Communal reinforcement

·        Confirmation bias

·        Content farm

·        Echo chamber

·        Group polarization

·        Media consumption

·        Search engine manipulation effect

·        Selective exposure theory

·        Serendipitous discovery, an antithesis of filter bubble

·        Search engines that claim to avoid the filter bubble: DuckDuckGoIxquickMetaGer, and Startpage.

Bibliografia[editar | editar código-fonte]

·        Pariser, Eli. The Filter Bubble: What the Internet Is Hiding from YouPenguin Press (New York, May 2011) ISBN 978-1-59420-300-8

·        Green, Holly (August 29, 2011). "Breaking Out of Your Internet Filter Bubble". Forbes. Retrieved December 4, 2011.

·        Friedman, Ann. "Going Viral." Columbia Journalism Review 52.6 (2014): 33-34. Communication & Mass Media Complete.

·        Bozdag, Engin; van den Hoven, Jeroen (18 December 2015). "Breaking the filter bubble: democracy and design". Ethics and Information Technology. 17 (4): 249–265.

Ligações Externas[editar | editar código-fonte]

·        Filter bubbles in internet search engines, Newsnight / BBC News, June 22, 2011

Categories

·        Internet censorship

·        Personalized search

·        Media issues

·        Public opinion

Referências[editar | editar código-fonte]

  1. Bozdag, Engin (23 June 2013). "Bias in algorithmic filtering and personalization". Ethics and Information Technology. 15 (3): 209–227. [S.l.: s.n.] 
  2. Web bug (slang). [S.l.: s.n.] 
  3. Website visitor tracking. [S.l.: s.n.] 
  4. The Huffington Post "Are Filter-bubbles Shrinking Our Minds?". [S.l.: s.n.] 
  5. a b Parramore, Lynn (October 10, 2010). "The Filter Bubble". The Atlantic. Retrieved April 20, 2011. Since Dec. 4, 2009, Google has been personalized for everyone. So when I had two friends this spring Google "BP," one of them got a set of links that was about investment opportunities in BP. The other one got information about the oil spill.... [S.l.: s.n.] 
  6. a b c d e f g h Weisberg, Jacob (June 10, 2011). "Bubble Trouble: Is Web personalization turning us into solipsistic twits?". Slate. Retrieved August 15, 2011. [S.l.: s.n.] 
  7. a b c Gross, Doug (May 19, 2011). "What the Internet is hiding from you". CNN. Retrieved August 15, 2011. I had friends Google BP when the oil spill was happening. These are two women who were quite similar in a lot of ways. One got a lot of results about the environmental consequences of what was happening and the spill. The other one just got investment information and nothing about the spill at all. [S.l.: s.n.] 
  8. a b c d e Boutin, Paul (May 20, 2011). "Your Results May Vary: Will the information superhighway turn into a cul-de-sac because of automated filters?". The Wall Street Journal. Retrieved August 15, 2011. By tracking individual Web browsers with cookies, Google has been able to personalize results even for users who don't create a personal Google account or are not logged into one. ... Jump up ^. [S.l.: s.n.] 
  9. Zhang, Yuan Cao; Séaghdha, Diarmuid Ó; Quercia, Daniele; Jambor, Tamas (February 2012). "Auralist: Introducing Serendipity into Music Recommendation" (PDF). ACM WSDM. [S.l.: s.n.] 
  10. a b c Lazar, Shira (June 1, 2011). "Algorithms and the Filter Bubble Ruining Your Online Experience?". Huffington Post. Retrieved August 15, 2011. a filter bubble is the figurative sphere surrounding you as you search the Internet. [S.l.: s.n.] 
  11. "Hotel California" é uma música da banda The Eagles do álbum de mesmo nome, lançado em 1976  A canção termina com a frase "you can check out any time you like, but you can never leave"(você pode encerrar quando quiser, mas nunca abandonar). 
  12. Bosker, Bianca (November 22, 2010). "Tim Berners-Lee: Facebook Threatens Web, Beware". The Guardian. Retrieved August 22, 2012. Social networking sites are threatening the Web's core principles ... Berners-Lee argued. "Each site is a silo, walled off from the others," he explained. "The more you enter, the more you become locked in.... [S.l.: s.n.] 
  13. Bosker, Bianca (March 7, 2011). "Facebook, Google Giving Us Information Junk Food, Eli Pariser Warns". Huffington Post. Retrieved April 20, 2011. When it comes to content, Google and Facebook are offering us too much candy, and not enough carrots. [S.l.: s.n.] 
  14. a b Bosker, Bianca (March 7, 2011). "Facebook, Google Giving Us Information Junk Food, Eli Pariser Warns". Huffington Post. Retrieved April 20, 2011. When it comes to content, Google and Facebook are offering us too much candy, and not enough carrots. [S.l.: s.n.] 
  15. Note: the term cyber-balkanization (sometimes with a hyphen) is a hybrid of cyber, relating to the Internet, and Balkanization, referring to that region of Europe that was historically subdivided by languages, religions and cultures; the term was coined in a paper by MIT researchers Van Alstyne and Brynjolfsson. [S.l.: s.n.] 
  16. a b "Cyberbalkanization" (PDF). [S.l.: s.n.] 
  17. Van Alstyne, Marshall; Brynjolfsson, Erik (November 1996). "Could the Internet Balkanize Science?". Science. 274 (5292). doi:10.1126/science.274.5292.1479. [S.l.: s.n.] 
  18. Alex Pham and Jon Healey, Tribune Newspapers: Los Angeles Times (September 24, 2005). "Systems hope to tell you what you'd like: 'Preference engines' guide users through the flood of content". Chicago Tribune. Retrieved December 4, 2015. ...if recommenders were perfect, I can have the option of talking to only people who are just like me....Cyber-balkanization, as Brynjolfsson coined the scenario, is not an inevitable effect of recommendation tools,,,,. [S.l.: s.n.] 
  19. Slate é uma revista online de atualidades, política e cultura, publicada em inglês. Politicamente orientada para a esquerda, foi criada em 1996 nos Estados Unidos, pelo editor Michael Kinsley. Inicialmente sob a propriedade da Microsoft, como parte do MSN, em 21 de dezembro de 2004 foi comprada pela Washington Post Company. Desde 4 de junho de 2008, a Slate tem sido administrada pelo Grupo Slate, entidade criada pela Washington Post Company para desenvolver e gerenciar apenas revistas online.
  20. The Daily Me is a term popularized by MIT Media Lab founder Nicholas Negroponte to describe a virtual daily newspaper customized for an individual's tastes. Negroponte discusses it in his 1995 book, Being Digital, referencing a project under way at the media lab, Fishwrap. Designed by Pascal Chesnais and Walter Bender and implemented by media lab students, the system allowed a greater deal of customization than commercially available systems in 1997
  21. a b Hosanagar, Kartik; Fleder, Daniel; Lee, Dokyun; Buja, Andreas (December 2013). "Will the Global Village Fracture into Tribes: Recommender Systems and their Effects on Consumers". Management Science, Forthcoming. [S.l.: s.n.] 
  22. Ludwig, Amber. "Google Personalization on Your Search Results Plus How to Turn it Off". NGNG. Retrieved August 15, 2011. Google customizing search results is an automatic feature, but you can shut this feature off. [S.l.: s.n.]