Usuário(a):Goncamachado/Testes

Origem: Wikipédia, a enciclopédia livre.

DeepFake, uma siglonimização de "Deep Learning" (aprendizagem profunda em inglês) e "Fake" (falso em inglês),[1] é uma técnica de síntese de imagens ou sons humanos baseada em técnicas de Inteligência artificial. É mais usada para combinar a fala qualquer a um vídeo já existente (exemplo: combinar um vídeo qualquer de Barack Obama com a fala "O programa Obamacare não foi uma boa ideia"). A técnica de Aprendizado de máquina mais utilizada para criação de vídeos falsos é a chamada Rede Generativa Adversarial.[2]

Vídeos criados via Deepfake foram muito utilizados para criar falsos vídeos de caráter sexual de celebridades ou falsos vídeos de Pornografia de vingança. A pornografia de DeepFake foi muito utilizada em 2017, particulamente em fóruns do reddit, [3] e tem sido banido de sites incluindo Reddit, Twitter e Pornhub.[4][5] DeepFakes também podem ser utilizadas para gerar notícias falsas, como o exemplo na definição, e embustes maliciosos.[6][7]

Vídeos não pornográficos criados por DeepFakes podem ser facilmente encontrados em sites de Streaming como o Youtube. Um aplicativo famoso de manipulação de vídeos e imagens é o FakeApp. [8] o qual utiliza o framework de aprendizagem de máquinaTensorFlow, desenvolvido pela Google, para as desejadas criações. Outro aplicativo mais recente é o Deep Voice, porém a ideia do programa é clonar a voz original do orador.[9]

Técnicas para gerar gestos faciais falsos e renderização de imagens em vídeos alvos para que uma pessoa alvo ficasse parecida com a pessoa de entrada, foram apresentadas em 2016 e permitiram um falsificador de quase tempo real para Expressões faciais em vídeos de 2 dimensões já existentes. [10]

Cinematografia[editar | editar código-fonte]

O primeiro caso registrado de DeepFake foi em 2017, quando um usuário do Reddit sob o pseudônimo "Deepfakes" publicou vários vídeos de caŕater pornográficos na Internet. O primeiro a chamar mais atenção foi o vídeo de Daisy Ridley, atriz de vários filmes renomeados como Star Wars: Episódio VII - O Despertar da Força. Outra DeepFake que chamou atenção foi da atriz Gal Gadot, a qual interpretou Mulher-Maravilha, fazendo sexo com seu meio-irmão. Vários outros vídeos com várias famosas renomeadas como Emma Watson, Katy Perry, Taylor Swift e Scarlett Johansson também foram divulgados.[11] Todas as cenas não eram reais e foram criadas por Redes neurais artificais. Os vídeos foram desmacarados pouco tempo depois.

Com as pesquisas em imagens avançando a cada dia, a comunidade do Reddit consertou muitos dos erros grotescos dos vídeos gerados e tornou mais difícil de se distiguir um vídeo falso de um vídeo verdadeiro, a olho nu. Com uma base de dados enorme de vídeos pornôs e outra base de vídeos de várias atrizes, os usuários do Reddit treinaram diversas Redes Neurais para gerar mais DeepFakes. A primeira notícia de DeepFake foi reportada pela revista Vice, na seção de Tecnologia e Ciências, decorrendo em ampla disseminação do ocorrido em vários outros meios midiáticos.[12]

No Reino Unido, produtores de conteúdo de DeepFake podem ser acusados por abuso sexual, porém há casos que fazem o DeepFake um crime específico.[13]

Política[editar | editar código-fonte]

Dado o cenário político mundial atual, as DeepFakes são uma ameaça enorme para assuntos como relações internacionais, corrida à presidência. As Notícia falsas ultimamente tem causado muitos impactos na política mundial, principalmente em .[14][15] As eleições dos Estados Unidos de 2016 foram comprovodamente afetadas por notícias falsas geradas pela empresa Cambridge Analytica.[16] A empresa Facebook foi chamada à corte para explicar vazamentos de dados para a Cambridge Analytica e assim conhecer os perfis de eleitores (melhor explicado em Escândalo de dados Facebook–Cambridge Analytica). Fatos parecidos podem acontecer futuramente porém sendo vídeos, imagens e áudios falsos gerados para manipular os eleitores.[17] Alguns vídeos de caráter divertido foram criados para exemplificar o fato, como o do presidente argentino Mauricio Macri que teve sua face substituída pela face do ditador Adolf Hitler, e a face da Chanceler Angela Merkel substituída pela face do Presidente Donald Trump.[18][19] O exemplo mais famoso é o vídeo divulgado pelo BuzzFeed onde o ator Jordan Peele interpreta vocalmente Barack Obama, alertando os males que a DeepFake pode vir a causar. [20]

Aplicações[editar | editar código-fonte]

Em Janeiro de 2018, foi lançado um aplicativo de computador chamado "FakeAPP". O aplicativo permite que os usuários facilmente criem e compartilhem vídeos com as faces substituídas. O aplicativo usa uma Rede neural artificial, o poder da Unidade de processamento gráfico do usuário e três a quatro Gigabytes de aramazenamento para gerar os vídeos falsos. Para informações detalhadas, o programa precisa de muitos dados visuais (imagens, vídeos) da pessoa a ser inserida para a rede "aprender" quais parâmetros das imagens tem que ser trocados (posição dos olhos, cor do cabelo, por exemplo). O Software usa o Framework de Inteligência artificial TensorFlow, desenvolvido pela Google, o qual dentre as mais variadas aplicações foi usado no programa DeepDream.[21][22]

As Celebridades são os principais alvos de vídeos falsos, como os de pronografia, mas também outros são afetados pela onda de ataques.[23][24][25]

Em Agosto de 2018, pesquisadores na Universidade da Califórnia em Berkeley publicaram um Artigo científico introduzindo um aplicativo de "danças falsa" onde uma criança pode fazer movimentos de um dançarino profissional usando Inteligência artificial.[26][27]

As DeepFakes também podem ser amplamente utilizadas no ramo cinematográfico. Hoje em dia, dublês são usados para fazer cenas perigosas, as quais os atores comuns não se arriscam a fazer. Uma aplicação bem plausível seria utilizar uma DeepFake para substituir a fisionomia do dublê pela fisionomia dos atores. Outra aplicação no ramo, pode ser a substituição de fisionomia de um animal ou monstro. No filme O Hobbit: A Desolação de Smaug, o ator Benedict Cumberbatch interpretou o dragão Smaug com ajuda do software "Tissue" da Weta Digital. A técnica utilizada para tal feito, utiliza várias Tags para identificação de expressão facial. Hoje poderiam ser aplicadas as técnicas de DeepFake para produzir o Dragão.

Críticas[editar | editar código-fonte]

Abusos[editar | editar código-fonte]

O jornal Aargauer Zeitung expõe como a manipulação de imagens e vídeos usando métodos de inteligência artificial pode ser um fenômeno extremamente perigoso para nossa sociedade atual.[18] Porém a falsificação de imagens e vídeos é tão velha quanto o marco dos programas de edição de vídeo e edição de imagens, a verossimilhança seria "apenas" mais um aspecto a ser considerado.

Os casos de Pornografia de vingança, DeepFakes direcionadas a embustes e escândalos políticos são os mais graves atualmente.[28][29] Casos deste tipo, podem ser tratados como crime atualmente, como no Reino Unido.

Efeitos na credibilidade e autenticidade[editar | editar código-fonte]

Outro feito impactante das DeepFakes é fazer as pessoas desacreditarem em toda e qualquer mídia divulgada, pois aquela informação pode não ser genuína e também indistiguível do conteúdo original. O pesquisador Alex Champandard comunicou que todos deveriam entender o quão rápido as coisas podem ser corrompidas com a tecnologia atual, e que o problema não é técnico, mas um problema que tem que ser resolvido pelo jornalismo e pela confiabilidade da informação. [30] A primeira "armadilha" é que o Homem pode entrar em uma era a qual não poderá ser distiguido o verdadeiro do falso.[18]

Reações na internet[editar | editar código-fonte]

Alguns sites, como o twitter e o Gfycat, anunciaram que deletariam conteúdos relacionados a DeepFakes e bloqueariam os usuários.[31][32] Anteriormente, a plataforma de conversas Discord bloqueou um canal de comunicação dedicado a compartilhar vídeos pornográficos falsos de celebridades. O site de pornografia, Pornhub, também planeja bloquear tais conteúdos, porém foi comunicado que o mesmo não tem dado força ao combate.[33][34] Já no Reddit, a situação inicial permaneceu como "não concluída" até o subreddit ser suspenso em Fevereiro de 2018 devido à violação de políticas de uso pelo artigo de "Pornografia involuntária". [35][36][37][38]

Referências[editar | editar código-fonte]

  1. Brandon, John (16 de fevereiro de 2018). «Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise». Fox News (em inglês). Consultado em 8 de dezembro de 2018 
  2. Schwartz, Oscar (12 de novembro de 2018). «You thought fake news was bad? Deep fakes are where truth goes to die». The Guardian (em inglês). ISSN 0261-3077 
  3. Roettgers, Janko; Roettgers, Janko (21 de fevereiro de 2018). «Porn Producers Offer to Help Hollywood Take Down Deepfake Videos». Variety (em inglês). Consultado em 8 de dezembro de 2018 
  4. tweet_btn(), Katyanna Quach 9 Feb 2018 at 08:06. «It took us less than 30 seconds to find banned 'deepfake' AI smut on the internet». www.theregister.co.uk (em inglês). Consultado em 8 de dezembro de 2018 
  5. Moscaritolo, By Angela; February 7, 2018 10:10AM EST; February 7, 2018. «PornHub, Twitter Ban 'Deepfake' AI-Modified Porn». PCMAG (em inglês). Consultado em 8 de dezembro de 2018 
  6. Christian, Jon. «Experts fear face swapping tech could start an international showdown». The Outline (em inglês). Consultado em 8 de dezembro de 2018 
  7. Roose, Kevin (4 de março de 2018). «Here Come the Fake Videos, Too». The New York Times (em inglês). ISSN 0362-4331 
  8. Gillespie|Jan. 25, Nick; Am, 2018 12:50 (25 de janeiro de 2018). «FakeApp: Finally, a Program that Will Let You Seamlessly Put Donald Trump in Porn! - Hit & Run». Reason.com (em inglês). Consultado em 8 de dezembro de 2018 
  9. Arık, Sercan (12 de outubro de 2018). «Neural Voice Cloning with a Few Samples» (PDF). Cornell University Library. Consultado em 8 de dezembro de 2018 
  10. Thies, Justus (2016). «Face2Face: Real-Time Face Capture and Reenactment of RGB Videos» (PDF). The IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Consultado em 8 de dezembro de 2018 
  11. Lee, Dave (3 de fevereiro de 2018). «'Fake porn' has serious consequences». BBC News (em inglês) 
  12. Cole, Samantha (11 de dezembro de 2017). «AI-Assisted Fake Porn Is Here and We're All Fucked». Motherboard (em inglês). Consultado em 8 de dezembro de 2018 
  13. Sabbagh, Dan; Ankel, Sophia (21 de junho de 2018). «Call for upskirting bill to include 'deepfake' pornography ban». The Guardian (em inglês). ISSN 0261-3077 
  14. «Fake news: O impacto das notícias falsas em ano de eleições». HuffPost Brasil. 20 de julho de 2018. Consultado em 8 de dezembro de 2018 
  15. Graves, Lucia. «How Trump Weaponized 'Fake News' for His Own Political Ends». Pacific Standard (em inglês). Consultado em 8 de dezembro de 2018 
  16. Blake, Aaron (3 de abril de 2018). «A new study suggests fake news might have won Donald Trump the 2016 election». The Washington Post. Consultado em 8 de dezembro de 2018 
  17. Hsu, Jeremy (22 de junho de 2018). «Experts Bet on First Deepfakes Political Scandal». IEEE Spectrum: Technology, Engineering, and Science News (em inglês). Consultado em 8 de dezembro de 2018 
  18. a b c «Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos». az Aargauer Zeitung (em alemão). Consultado em 8 de dezembro de 2018 
  19. tagesschau.de. «Deepfakes: Auf dem Weg in eine alternative Realität?». tagesschau.de (em alemão). Consultado em 8 de dezembro de 2018 
  20. Romano, Aja (18 de abril de 2018). «Jordan Peele's simulated Obama PSA is a double-edged warning against fake news». Vox. Consultado em 8 de dezembro de 2018 
  21. «DeepDream». Wikipedia (em inglês). 19 de novembro de 2018 
  22. «Deep Dream Generator». deepdreamgenerator.com. Consultado em 8 de dezembro de 2018 
  23. Bauchmüller, Britta (29 de janeiro de 2018). «„Fake-App": Mit diesem Programm kann jeder im Porno landen – ob er will oder nicht!». Berliner-Kurier.de (em alemão). Consultado em 8 de dezembro de 2018 
  24. Kühl, Von Eike. «Künstliche Intelligenz: Auf Fake News folgt Fake Porn». ZEIT ONLINE (em alemão). Consultado em 8 de dezembro de 2018 
  25. online, heise. «Deepfakes: Neuronale Netzwerke erschaffen Fake-Porn und Hitler-Parodien». heise online (em alemão). Consultado em 8 de dezembro de 2018 
  26. Farquhar, Peter (27 de agosto de 2018). «An AI program will soon be here to help your deepfake dancing - just don't call it deepfake». Business Insider Australia (em inglês). Consultado em 8 de dezembro de 2018 
  27. Vincent, James (26 de agosto de 2018). «Deepfakes for dancing: you can now use AI to fake those dance moves you always wanted». The Verge. Consultado em 8 de dezembro de 2018 
  28. «Künstliche Intelligenz: Selfies sind eine gute Quelle». ZEIT ONLINE (em alemão). Consultado em 8 de dezembro de 2018 
  29. «„Deepfake" - FakeApp kann Personen in Pornos austauschen – Welche Rechte haben Geschädigte?». www.wbs-law.de. Consultado em 8 de dezembro de 2018 
  30. «Tweet de Alex Champandard». Alex Champandard. 11 de dezembro de 2017. Consultado em 8 de dezembro de 2018 
  31. «Twitter bans 'deepfake' AI-generated porn». Engadget (em inglês). Consultado em 8 de dezembro de 2018 
  32. Matsakis, Louise (14 de fevereiro de 2018). «Artificial Intelligence Is Now Fighting Fake Porn». Wired. ISSN 1059-1028 
  33. «Pornhub hasn't been actively enforcing its deepfake ban». Engadget (em inglês). Consultado em 8 de dezembro de 2018 
  34. «Pornhub Banned Deepfake Celebrity Sex Videos, But The Site Is Still Full Of Them». BuzzFeed News (em inglês). Consultado em 8 de dezembro de 2018 
  35. Böhm, Markus (7 de fevereiro de 2018). «"Deepfakes": Firmen gehen gegen gefälschte Promi-Pornos vor». Spiegel Online 
  36. barbara.wimmer. «Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos». futurezone.at (em alemão). Consultado em 8 de dezembro de 2018 
  37. online, heise. «Deepfakes: Auch Reddit verbannt Fake-Porn». heise online (em alemão). Consultado em 8 de dezembro de 2018 
  38. «Reddit verbannt Deepfake-Pornos - derStandard.de». DER STANDARD. Consultado em 8 de dezembro de 2018