Pornografia deepfake

A pornografia deepfake, ou simplesmente pornografia fake, é um tipo de pornografia artificial criada por meio da alteração de material pornográfico já existente, aplicando a tecnologia deepfake aos rostos dos atores. O uso de pornografia deepfake gerou controvérsia porque envolve a criação e o compartilhamento de vídeos realistas que apresentam pessoas sem o seu consentimento, geralmente celebridades femininas, e às vezes é usado para fazer pornografia para fins de vingança. Estão sendo feitos esforços para combater essas preocupações éticas por meio de legislação e soluções baseadas em tecnologia.[1]

Histórico

O termo deepfake foi criado em 2017 em um fórum do Reddit onde os usuários compartilhavam vídeos pornográficos alterados criados usando algoritmos de aprendizado de máquina. É uma combinação da palavra deep learning, que se refere ao programa usado para criar os vídeos, e fake, que significa que os vídeos não são reais.[1] O pornô deepfake foi originalmente criado em uma pequena escala individual usando uma combinação de algoritmos de aprendizado de máquina, técnicas de visão computacional e software de IA. O processo começou reunindo uma grande quantidade de material de referência (incluindo imagens e vídeos) do rosto de uma pessoa e, em seguida, usando um modelo de aprendizagem profunda para formar uma rede adversarial generativa (em inglês, GAN) para criar um vídeo falso que, de forma convincente, troca o rosto do material original pelo corpo de um artista pornô. No entanto, o processo de produção evoluiu significativamente desde 2018, com o advento de vários aplicativos públicos que automatizaram amplamente o processo.[2]

DeepNude

Em junho de 2019, foi lançado um aplicativo para download para Windows e Linux chamado DeepNude, que usava o GAN para remover roupas a partir das fotos de mulheres. O aplicativo tinha uma versão paga e outra não paga, sendo que a versão paga custava US$ 50.[3] Em 27 de junho, os criadores removeram o aplicativo e reembolsaram os consumidores, embora várias cópias do aplicativo, tanto gratuitas quanto pagas, continuem a existir.[4] No GitHub, a versão de código aberto desse programa, chamada "open-deepnude", foi excluída.[5] A versão de código aberto tinha a vantagem de permitir o treinamento em um conjunto de dados maior de imagens de nudez para aumentar o nível de precisão da imagem de nudez resultante.[6]

Bot deepfake do Telegram

Em julho de 2019, foi lançado um serviço de bot deepfake no aplicativo de mensagens Telegram que usa tecnologia de IA para criar imagens de mulheres nuas. O serviço é gratuito e tem uma interface fácil de usar, permitindo que os usuários enviem fotos e recebam imagens de nudez manipuladas em minutos. O serviço está conectado a sete canais do Telegram, incluindo o canal principal que hospeda o bot, o suporte técnico e os canais de compartilhamento de imagens. Embora o número total de usuários seja desconhecido, o canal principal tem mais de 45.000 membros. Em julho de 2020, estima-se que aproximadamente 24.000 imagens manipuladas tenham sido compartilhadas nos canais de compartilhamento de imagens.[7]

Casos de destaque

A tecnologia deepfake tem sido usada para criar imagens e vídeos não consensuais e pornográficos de mulheres famosas. Um dos primeiros exemplos aconteceu em 2017, quando um vídeo pornográfico deepfake de Gal Gadot foi criado por um usuário do Reddit e rapidamente divulgado on-line. Desde então, houve vários casos de conteúdo deepfake semelhante direcionado a outras celebridades femininas, como Emma Watson, Natalie Portman e Scarlett Johansson.[8] Johansson falou publicamente sobre o assunto em dezembro de 2018, condenando a prática, mas também recusando ações legais porque considera o assédio inevitável.[9]

Rana Ayubb

Em 2018, Rana Ayyub, jornalista investigativa indiana, foi alvo de uma campanha de ódio on-line decorrente de sua condenação do governo indiano, especificamente por ter se manifestado contra o estupro de uma menina de oito anos da Caxemira. A jornalista foi bombardeada com ameaças de estupro e morte, e um vídeo pornográfico adulterado dela circulou on-line.[10] Em um artigo do Huffington Post, ela fala sobre os efeitos psicológicos e sociais duradouros que essa experiência teve sobre ela. Ela explica que continua a lutar com sua saúde mental e como as imagens e os vídeos continuam a ressurgir sempre que ela assume um caso de grande importância.[11]

Polêmica sobre o streamer da twitch

Em 2023, o streamer da Twitch Atrioc causou polêmica ao divulgar acidentalmente material pornográfico deepfake com mulheres streamers da Twitch durante uma transmissão ao vivo. Desde então, o influenciador admitiu ter pago por pornografia gerada por IA e se desculpou com as mulheres e seus fãs.[12][13]

Considerações éticas

Deepfake na pornografia infantil

A tecnologia deepfake tornou a criação de um material de abuso sexual infantil (em inglês, CSAM), ou também conhecido como pornografia infantil, mais rápida, segura e fácil do que nunca. Os deepfakes podem ser usados para produzir nova pornografia infantil a partir de material já existente ou para criar mais pornografia de crianças que não foram submetidas a abuso sexual. No entanto, os materiais de pornografia infantil deepfake podem ter implicações reais e diretas sobre as crianças, incluindo difamação, aliciamento, extorsão e bullying.[14]

Combatendo a pornografia deepfake

Abordagem técnica

A detecção de deepfake se tornou uma área de pesquisa cada vez mais importante nos últimos anos, à medida que a disseminação de vídeos e imagens falsos se tornou mais frequente. Uma abordagem promissora para a detecção de deepfakes é o uso de redes neurais convolucionais (CNNs), que demonstraram alta precisão na distinção entre imagens reais e falsas. Um algoritmo baseado na CNN que foi desenvolvido especificamente para a detecção de deepfake é o DeepRhythm, que demonstrou uma impressionante pontuação de precisão de 0,98. Esse algoritmo utiliza uma CNN pré-treinada para extrair recursos de regiões faciais de interesse e, em seguida, aplica um novo mecanismo para identificar discrepâncias entre as imagens originais e as manipuladas. Embora o desenvolvimento de uma tecnologia de deepfake mais sofisticada apresente desafios contínuos para os esforços de detecção, a alta precisão de algoritmos como o DeepRhythm oferece uma ferramenta promissora para identificar e atenuar a disseminação de deepfakes.[15] Além dos mecanismos de detecção, há também ferramentas de autenticação de vídeo disponíveis ao público. Em 2019, a Deepware lançou a primeira ferramenta de detecção disponível publicamente, que permitia aos usuários digitalizar e detectar facilmente vídeos deepfake. Da mesma forma, em 2020, a Microsoft lançou um autenticador de vídeo gratuito e fácil de usar. Os usuários carregam um vídeo suspeito ou inserem um link e recebem uma pontuação de confiança para avaliar o nível de manipulação em um deepfake.[15]

Abordagem jurídica

Em 2023, não há legislação que trate especificamente da pornografia deepfake. Em vez disso, o dano causado por sua criação e distribuição está sendo tratado pelos tribunais por meio de leis criminais e civis existentes. O recurso legal mais comum para as vítimas de pornografia deepfake é a reivindicação de "pornografia de vingança", pois as imagens não são consensuais e são de natureza íntima. As consequências legais da pornografia de vingança variam de país para país.[16] Por exemplo, no Canadá, a pena para a publicação de imagens íntimas não consensuais é de até 5 anos de prisão.[17] Já em Malta, a multa é de até 5.000 euros.[18] O "Deepfake Accountability Act" foi apresentado ao Congresso dos Estados Unidos em 2019. Seu objetivo era tornar a produção e a distribuição de conteúdo audiovisual modificado digitalmente, que não tenha sido divulgado como tal, uma ofensa criminal. O título especifica que a produção de qualquer mídia alterada com conteúdo sexual e não consensual com a intenção de humilhar ou prejudicar os envolvidos, pode ser sujeita a multa, prisão de até 5 anos ou ambos. Entretanto, a lei ainda não foi aprovada.[19]

Controle da distribuição

Várias plataformas on-line importantes tomaram medidas para banir a pornografia deepfake. A partir de 2018, Gfycat, Reddit, Twitter, Discord e Pornhub proibiram o upload e o compartilhamento de conteúdo pornográfico deepfake em suas plataformas.[20][21] Em setembro do mesmo ano, o Google também adicionou "imagens pornográficas artificiais não voluntárias" à sua lista de proibições, permitindo que as pessoas solicitem a remoção desse conteúdo dos resultados de pesquisa.[22] É importante observar, no entanto, que embora o Pornhub tenha se posicionado contra o conteúdo não consensual, a pesquisa por "deepfake" em seu site ainda gera resultados e eles continuam a exibir anúncios de sites e conteúdo deepfake.[23]

Referências

  1. a b Gaur, Loveleen; Arora, Gursimar Kaur (27 de julho de 2022), DeepFakes, ISBN 978-1-003-23149-3, New York: CRC Press, pp. 91–98, doi:10.1201/9781003231493-7, consultado em 20 de abril de 2023 
  2. Azmoodeh, Amin, and Ali Dehghantanha. “Deep Fake Detection, Deterrence and Response: Challenges and Opportunities.” arXiv.org, 2022.
  3. Cole, Samantha; Maiberg, Emanuel; Koebler, Jason (26 de junho de 2019). «This Horrifying App Undresses a Photo of Any Woman with a Single Click». Vice. Consultado em 2 de julho de 2019 
  4. Vincent, James (3 de julho de 2019). «DeepNude AI copies easily accessible online». The Verge. Consultado em 11 de agosto de 2023 
  5. Cox, Joseph (9 de julho de 2019). «GitHub Removed Open Source Versions of DeepNude». Vice Media 
  6. Redmon, Jennifer (7 de julho de 2019). «DeepNude- the AI that 'Undresses' Women- is Back. What Now?». Cisco. Consultado em 11 de março de 2023. Cópia arquivada em 1 de março de 2023 
  7. Hao, Karen (20 de outubro de 2020). «A deepfake bot is being used to "undress" underage girls». MIT Technology Review. Consultado em 20 de abril de 2023 
  8. Roettgers, Janko (21 de fevereiro de 2018). «Porn Producers Offer to Help Hollywood Take Down Deepfake Videos». Variety. Consultado em 20 de abril de 2023 
  9. Harwell, Drew (31 de dezembro de 2018). «Scarlett Johansson on fake AI-generated sex videos: 'Nothing can stop someone from cutting and pasting my image'». The Washington Post. ISSN 0190-8286. Consultado em 20 de abril de 2023 
  10. Maddocks, Sophie (4 de junho de 2020). «'A Deepfake Porn Plot Intended to Silence Me': exploring continuities between pornographic and 'political' deep fakes». Porn Studies. 7 (4): 415–423. ISSN 2326-8743. doi:10.1080/23268743.2020.1757499 
  11. Ayyub, Rana (21 de novembro de 2018). «I Was The Victim Of A Deepfake Porn Plot Intended To Silence Me». HuffPost UK. Consultado em 20 de abril de 2023 
  12. Middleton, Amber (10 de fevereiro de 2023). «A Twitch streamer was caught watching deepfake porn of women gamers. Sexual images made without consent can be traumatic and abusive, experts say — and women are the biggest victims.». Insider. Consultado em 20 de abril de 2023 
  13. Patterson, Calum (30 de janeiro de 2023). «Twitch streamer Atrioc gives tearful apology after paying for deepfakes of female streamers». Dexerto. Consultado em 14 de junho de 2023 
  14. Kirchengast, T (2020). «Deepfakes and image manipulation: criminalisation and control.». Information & Communications Technology Law. 29 (3): 308–323. doi:10.1080/13600834.2020.1794615 
  15. a b Gaur, Loveleen; Arora, Gursimar Kaur (27 de julho de 2022), DeepFakes, ISBN 978-1-003-23149-3, New York: CRC Press, pp. 91–98, doi:10.1201/9781003231493-7, consultado em 20 de abril de 2023 
  16. Kirchengast, Tyrone (16 de julho de 2020). «Deepfakes and image manipulation: criminalisation and control». Information & Communications Technology Law. 29 (3): 308–323. ISSN 1360-0834. doi:10.1080/13600834.2020.1794615 
  17. Branch, Legislative Services (16 de janeiro de 2023). «Consolidated federal laws of Canada, Criminal Code». laws-lois.justice.gc.ca. Consultado em 20 de abril de 2023 
  18. Mania, Karolina (2022). «Legal Protection of Revenge and Deepfake Porn Victims in the European Union: Findings From a Comparative Legal Study». Trauma, Violence, & Abuse. PMID 36565267. doi:10.1177/15248380221143772 
  19. Kirchengast, Tyrone (16 de julho de 2020). «Deepfakes and image manipulation: criminalisation and control». Information & Communications Technology Law. 29 (3): 308–323. ISSN 1360-0834. doi:10.1080/13600834.2020.1794615 
  20. Kharpal, Arjun. «Reddit, Pornhub ban videos that use A.I. to superimpose a person's face over an X-rated actor». CNBC. Consultado em 20 de abril de 2023 
  21. Cole, Samantha (31 de janeiro de 2018). «AI-Generated Fake Porn Makers Have Been Kicked Off Their Favorite Host». Vice. Consultado em 20 de abril de 2023 
  22. Harwell, Drew (30 de dezembro de 2018). «Fake-porn videos are being weaponized to harass and humiliate women: 'Everybody is a potential target'». The Washington Post. ISSN 0190-8286. Consultado em 20 de abril de 2023 
  23. Cole, Samantha (6 de fevereiro de 2018). «Pornhub Is Banning AI-Generated Fake Porn Videos, Says They're Nonconsensual». Vice. Consultado em 9 de novembro de 2019