Traffic bot

Origem: Wikipédia, a enciclopédia livre.
Saltar para a navegação Saltar para a pesquisa

Bot Traffic ou tráfego de bots é a parte do tráfego online que dá origem a atividades geradas artificialmente por bots e spiders automatizados. Em relação a sua identificação para análise, não é tão fácil de ser avaliado, mas também não é difícil. De acordo com a Shield Square, depois de ter analisado amostras aleatórias de 1 milhão de websites, identificaram que cerca de 50% do tráfego da web é composto por bots. [1] Diante deste cenário, os bots são uma grande preocupação para todas as organizações. Embora exista bots bons que possam analisar o site para fins positivos como SEO, infelizmente nem todos os bots são bons, e alguns podem prejudicar o site, e por fim, os negócios. De certa forma, grupos de hackers são também muito organizados. Eles também aproveitam o poder da automação para acelerar tarefas - como ataques cibernéticos. Por esse motivo, existe a prevalência de programas automatizados de bots nos quais os hackers nem precisam fazer muito esforço. Em vez disso, eles usam esses programas para executar tarefas e scripts automatizados para comprometer sites e espalhar malwares, por exemplo. [2] Existem muitas maneiras de distingui-los.

Bots bons[editar | editar código-fonte]

Os bots bons ajudam no crescimento e desenvolvimento da web. Alguns exemplos abaixo

  • Copyright Bots - Ao contrário de scraper bots maliciosos, esses bots pesquisam pela web por conteúdos potencialmente plagiados, a fim de capturar os ladrões e possivelmente, ganhar uma compensação monetária. De acordo com a Eletronic Frontier Foundation [3], esses bots são comumente usados no âmbito das mídias sociais, especialmente onde a criação de conteúdo original é uma parte importante para o uso da plataforma. Um bom exemplo é o Content ID do Youtube, atribuído ao proprietário de direitos autorais na rede. [4]
  • Media/Data Bots - De acordo com o eZanga[5], esses bots fornecem informações atualizadas sobre informações como noticias, previsão de tempo e taxas de cambio.
  • Spider Bots - esses bots são muito usados pelos mecanismos de pesquisa, como o Googlebot ou o Bingbot. Eles exploram páginas da Web e analisam o conteúdo, organização e vinculação, usando essas informações para determinar a classificação de páginas em um SERP. [6]
  • Trader bots - esse tipo de bots rastreiam os sites de leilão online (como o eBay ou o Amazon) para encontrar as melhores ofertas em um produto ou serviço. São mais usados por varejistas para ajudar a diminuir o concorrente, publicando um preço melhor ou com um descrição mais detalhada do produto. [7]

Bots maus[editar | editar código-fonte]

Os bots maus, também conhecidos por serem maliciosos, são projetados por hacker e outros usuários da Internet para gerar falsas impressões de anúncios, veicular spam e malwares, ultrapassar redes de computadores para formar botnets e roubar conteúdo e informações. Esses bots bem diminuindo em relação aos anos anteriores. [8] Porém, suas ações estão se tornando cada vez mais humanas e avançada, tornando-as difíceis de serem detectadas. Esses bots estão prosperando em sites menores, onde há menos segurança. Enquanto eles estão tendo problemas para acompanhar visitantes humanos nos sites maiores, onde a filtragem de tráfego e segurança é mais predominante. Alguns exemplos de bots ruins abaixo:

  • Click Bots - são os bots de fraude de anúncios que os anunciantes aprendem a conhecer e a desprezar em suas estatísticas. Esses bots se engajam intencionalmente com sua publicidade, distorcendo seus dados de maneira incorreta e causando prejuízo através dos cliques fraudulentos. São usados para inflacionar artificialmente a popularidade de uma página Web, aumentar a visualização de vídeos no Youtube ou para clicar em anúncios PPC (pagos por clique). Uma das maneiras de operacionalizar um click bot, usado por hackers, é através de um processo similar à criação de macros, através do qual o utilizador gravar uma determinada sequência de passos que incluem clique num determinado link. Depois disso, o utilizador reproduz o processo, adicionando-lhe um comando para iniciar de novo antes que chegue ao fim. Assim, a ação gravada é reproduzida repetidamente de forma automática. [9]
  • Download Bots - São bots usado para baixar aplicativos para simular que são usuários que estão baixando, no intuito de manipular as classificações dos gráficos e no ranking de download de lojas virtuais como a Apple Store ou Google Store. [10]
  • Impersonator Bots - esses bots são capazes de exibir comportamento de navegação semelhantes a humanos. Esses bots têm sido eficazes para contornar várias camadas de proteção de sistemas/redes ou para obstruir a operação de sistemas de detecção de invasão (IDSs). [11] Uma das maneiras pelas quais esses bots são usados é a varredura de vulnerabilidades e as tentativas automatizadas de invasão. Esses "hacks bots" são ferramentas proprietárias e os scripts são usados para verificar sistematicamente os sites em busca de vulnerabilidades e explorá-los à vontade e em massa. Assim que uma vulnerabilidade é publicada, a busca de um sistema sem patches está ativada. Esse gênero de bores imitadores também cobrem os bots DDoS que vem de proxies anônimos, que são simplesmente outra forma de os invasores mascararem suas identidades verdadeiras. [12]
  • Scraper bots - esses bots praticam a tarefa de extrair dados e informações de sites. A prática de captura manual do conteúdo é muito trabalhoso, por isso, o uso de scraper bots é necessária. Está é uma atividade ilegal, caso não tenha o consentimento do proprietário original. [13] O tipo mais comum de captura é a captura de sites, que têm como objetivo copiar ou roubar conteúdo da web para uso em outro lugar. Esse reaproveitamento de conteúdo pode ou não ser usado pelo proprietário do site. Normalmente, os bots fazem isso rastreando um site, acessando o código-fonte do site e analisando-o para remover os dados-chave desejados. Depois de obter o conteúdo, eles geralmente o publicam em outro lugar da internet. Um tipo mais avançado de captura é a captura de banco de dados. Conceitualmente, isso é semelhante a captura de sites, exceto que os hackers criam um bot que interage com o aplicativo de um site de destino para recuperar dados de seu banco de dados. Um exemplo de captura de banco de dados é quando um bot direciona um site de seguro para receber cotações de cobertura. O bot tentará todas as combinações possíveis no aplicativo da web para obter cotações e preços para todos os cenários. [14]
  • Spambots - Esses bots é projetado para coletar endereços de email da Internet, a fim de criar listas de e mails para o envio de emails não solicitados, também conhecidos como spam. Esse programa pode coletar endereços de email de sites da Web, grupos de notícias, publicações de grupos de interesse especial e conversas de sala de bate-papo. [15] Os spambots levam em conta todos os tipos de formatos que podem ser usados para exibir endereços de e-mail na Internet e armazená-los para fins de spam. [16]
  • Spy Bots - Esses bots são usados para vigilância e mineração de dados para coletar informações sobre uma pessoa, site ou empresa. Normalmente, os hackers vendem as informações coletadas para uma empresa de marketing ou empresa rival. [17] Um exemplo dessa aplicação é o PieSpy, usado para monitorar as mensagens enviadas dentro de um canal. Ele pode ser usado para inferir no canal de uma rede social e desenhar diagramas organizados que mostram os principais usuários e como eles interagem com outros usuários. Esse é um bot que monitora um conjunto de canais e tenta estimar como deve ser a estrutura da rede social, com o objetivo de adivinhar quem está falando com quem. [18]
  • Zombie Bots - Esses bots tomam conta do computador e rodam em segundo plano, essencialmente transformando o dispositivo em zumbi. A maioria desses robôs zumbis ataca endereços IP residenciais, tornando-os difíceis de serem capturados. Uma coleção desses computadores zumbis é o que forma uma rede de bots, que é uma rede que usa esses computadores infectados para realizar uma série de ações maliciosas, como um ataque em grupo direcionado conhecido como ataque DDoS. A crescente prevalência dos conexões de alta velocidade torna os computadores domésticos alvos atraentes para tornar o computador um zumbi. [19]

Consequências[editar | editar código-fonte]

Esse tráfego desperdiça recursos da infra-estrutura da internet e pode afetar a análise da web e a publicidade. Por exemplo, com uma enorme aumento do bot traffic em um site, uma equipe de marketing e gerenciamento podem tirar conclusões de que suas campanhas estão funcionando e que o tráfego do site aumentou em 100 ou 200%. O problema real surgirá quando essas visitas não se converterem em vendas ou, em muitos casos, podem acabar arruinando a experiência de compra do usuário final.

Os bots podem hackear os sites, roubar seus dados e disponibilizar em sites de hackers e mercados negros. A perda de informações confidenciais de clientes podem afetar significativamente a reputação da marca e resultar em altos custos, como o caso do site de relacionamentos Ashley Madison, onde muito dos dados dos usuários foram vazados. [20] [21]

Os anunciantes não querem que os anúncios pagos sejam vistos pelos bots. Nem todo dono de site sabe como proteger seu site de bots. Isso significa que, se ele estiver exibindo uma campanha da Rede de Display do Google no Google AdWords, seus anúncios poderão correr o risco de fraude de cliques. [22] Com o tempo, os bots incorrerão em algum tipo de custo para o negócio, quer o dono do site perceba ou não. A perda monetária é muito provável, especialmente quando o site está lento, sob ataque ou ultrapassado por um bot.[23] Os custos dessa inatividade, por exemplo, incorridos por ataques DDoS estão estimados entre US$ 20.000 e US$ 100.000 por hora.[24]

Quando os bots se juntam, eles podem se transformar em uma força ofensiva. Vários bots com a capacidade de infectar maciçamente redes de computadores com malware e efetivamente controlá-los formam o que é conhecido como botnet. Quando um site é atingido por um botnet, muitas solicitações estão sendo feitas e o site é desativado. Como muitas empresas estão bem cientes, o impacto do tempo de inatividade pode ser extremamente caro, pois inclui os custos de mitigar o ataque, perder clientes e reparar uma reputação danificada. [25]

Prevenção[editar | editar código-fonte]

Verificar o site em busca de bots através das estatísticas do Google Analytics em busca de inconsistências. Ao prestar atenção ao número de visitações da página, a duração média da sessão e aos referenciadores, o dono do site pode descobrir rapidamente se os bots estão visitando-o e com que frequência. Verificar a duração média da pagina e a taxa de rejeição, pode ser outra métrica que o dono do site pode usar para identificar bots. Se a duração média da página estiver diminuindo e a taxa de rejeição estiver aumentando, isso é mais um sinal de que o site está sendo visitado por bots. [26]

Captchas são uma boa maneira de evitar o Traffic Bot, mas também são um aborrecimento para os visitantes do site, dependendo da interação. Em compensação, eles impedem o spam e a extração automatizada de dados do site. [27] Os testes CAPTCHA eliminam de forma rápida e fácil os bots automatizados simples que não podem ler e fornecer uma resposta correta para o teste, enquanto permitem que usuários humanos acessem o site ao concluir o teste.

Outro método para detectar bots é o método honeypot. Esse método consiste em colocar um campo de entrada em branco no formulário e ocultá-lo do usuário. Um bot comum encontrará este campo de entrada e o preencherá. Se o campo de formulário estiver preenchido, o remetente deverá ser marcado como um bot e o formulário não poderá ser enviado. [28].Os honeypots têm uma outra vantagem porque eles não incomodam os usuários como um captcha.

Criar um arquivo robots.txt e especificar quais bots o dono do site não deseja inserir no seu site. Esse arquivo mostra aos bots o que eles podem ou não visitar. Se um arquivo robots.txt não existir, qualquer bot poderá visitar o website e rastrear suas páginas. A principal razão para ter o robots.txt é dizer aos bots de pesquisa quais páginas o site não deseja indexar. Isso vai funcionar somente para os bots que se comportam de maneira legal. Alguns bots ainda visitarão o site, independente de ser permitido ou não. Para impedir que bots ruins acessem o site, o dono do site precisará de algum tipo de serviço de proteção DDOS. Este tipo de serviço basicamente protege seu site como um firewall e verifica todas as solicitações recebidas. Se o endereço IP e o agente do usuário corresponderem a um bot inválido e conhecido, a solicitação será bloqueada. Se a solicitação for de um usuário genuíno que não tenha atividade maliciosa anterior, ela poderá entrar. [29]

Referências

  1. https://www.shieldsquare.com/how-much-of-your-web-traffic-is-from-bots/
  2. https://www.techtudo.com.br/noticias/2018/07/o-que-e-bot-conheca-os-robos-que-estao-dominando-a-internet.ghtml
  3. https://www.eff.org/deeplinks/2016/01/notice-and-stay-down-really-filter-everything
  4. https://lifehacker.com/you-cant-fool-youtubes-copyright-bots-1822174263
  5. https://blog.ezanga.com/blog/good-bots-bad-bots-and-what-you-need-to-know
  6. https://searchengineland.com/ultimate-guide-bot-herding-spider-wrangling-293284
  7. https://cryptotrader.org/topics/540172/what-i-should-know-about-trading-bots
  8. https://www.incapsula.com/blog/bot-traffic-report-2015.html
  9. https://portalmarketing.digital/Click-Bot
  10. https://www.adweek.com/digital/download-bots-were-the-well-known-secret-of-the-app-ecosystem/
  11. https://ieeexplore.ieee.org/document/7371507
  12. https://techcrunch.com/2015/03/14/website-hackers-slip-under-the-radar-with-impersonator-bots/
  13. https://www.shieldsquare.com/indications-your-website-is-overrun-by-scraper-bots/
  14. https://www.incapsula.com/blog/web-scraping-bots.html
  15. https://whatis.techtarget.com/definition/spambot
  16. https://www.thewindowsclub.com/what-are-spambots
  17. https://programaespiaoparacelular.com/como-funciona-o-aplicativo-espiao/
  18. http://www.jibble.org/shakespeare/
  19. https://searchmidmarketsecurity.techtarget.com/definition/zombie
  20. https://globalnews.ca/news/4725739/alleged-extortion-ashley-madison/
  21. https://www.pandasecurity.com/mediacenter/security/lessons-ashley-madison-data-breach/
  22. https://gizmodo.uol.com.br/google-spider-io/]
  23. https://medium.com/@cloudbric/ways-bots-can-negatively-impact-your-business-24cacb44f7f3
  24. https://www.theatlantic.com/technology/archive/2016/10/a-lot/505025/
  25. https://vertigo.com.br/3-problemas-gerados-pelo-aumento-de-trafego/]
  26. https://voluum.com/blog/bot-traffic-bigger-than-human-make-sure-they-dont-affect-you/
  27. http://www.digitalmarketing-glossary.com/What-is-Bot-traffic-definition
  28. https://elexicon.com/preventing-spam-without-captcha/
  29. https://ppcprotect.com/how-to-detect-bot-traffic/

Ver Também[editar | editar código-fonte]

Ícone de esboço Este artigo sobre eletrônica é um esboço. Você pode ajudar a Wikipédia expandindo-o.