Hot News
A quantidade de material de ataque sexual infantil (CSAM) gerado por IA e publicado on-line está aumentando, segundo um relatório publicado na segunda-feira.
O relatório, da Internet Watch Foundation (IWF) sediada no Reino Unificado, destaca um dos resultados mais sombrios da proliferação da tecnologia de IA, que permite que qualquer pessoa com um computador e um pouco de conhecimento em tecnologia gere vídeos deepfakes convincentes. Deepfakes geralmente se referem a mídias digitais enganosas criadas com ferramentas de lucidez sintético, porquê modelos e aplicativos de IA que permitem que os usuários “troquem de rosto” o rosto de um fim com um em um vídeo dissemelhante. Online, há uma subcultura e um mercado que giram em torno da geração de deepfakes pornográficos.
Em uma revisão de 30 dias nesta primavera de um fórum da dark web usado para compartilhar CSAM, a IWF encontrou um totalidade de 3.512 imagens e vídeos de CSAM criados com lucidez sintético, a maioria deles realistas. O número de imagens de CSAM encontradas na revisão foi um aumento de 17% em relação ao número de imagens encontradas em uma revisão semelhante conduzida no outono de 2023.
A revisão de teor também descobriu que uma porcentagem maior de material postado na dark web agora retrata atos sexuais mais extremos ou explícitos em conferência a seis meses detrás.
“O realismo está melhorando. A severidade está melhorando. É uma tendência que não gostaríamos de ver”, disse Dan Sexton, diretor de tecnologia da IWF.
Vídeos totalmente sintéticos ainda parecem irrealistas, disse Sexton, e ainda não são populares nos fóruns de agressores na dark web, embora essa tecnologia ainda esteja melhorando rapidamente.
“Ainda não vimos vídeos de ataque sexual infantil totalmente sintéticos e com fisionomia realista”, disse Sexton. “Se a tecnologia melhorar em outro lugar, no mainstream, e isso fluir para uso ilícito, o risco é que veremos teor totalmente sintético.”
Atualmente, é muito mais generalidade que predadores peguem material CSAM existente retratando pessoas reais e o usem para treinar modelos de adaptação de inferior escalão (LoRAs), algoritmos de IA especializados que criam deepfakes personalizados a partir de algumas imagens estáticas ou de um pequeno trecho de vídeo.
A sujeição atual de filmagens antigas na geração de novas imagens de ataque sexual infantil pode fomentar danos persistentes aos sobreviventes, pois significa que as filmagens de seus abusos recebem vida novidade repetidamente.
“Algumas dessas são vítimas que foram abusadas décadas detrás. Elas são sobreviventes adultas agora”, disse Sexton sobre o material de origem.
O aumento do material de ataque deepfake destaca a luta que reguladores, empresas de tecnologia e autoridades policiais enfrentam para evitar danos.
No verão pretérito, sete das maiores empresas de IA dos EUA assinaram um compromisso público de executar um punhado de diretrizes éticas e de segurança. Mas elas não têm controle sobre os inúmeros programas menores de IA que encheram a internet, muitas vezes de uso gratuito.
“O teor que vimos foi produzido, até onde podemos ver, com software e modelos de código simples, gratuitos e disponíveis francamente”, disse Sexton.
O aumento de CSAM deepfake pode dificultar o rastreamento de pedófilos que o comercializam, disse David Finkelhor, diretor do Núcleo de Pesquisa de Crimes Contra Crianças da Universidade de New Hampshire.
Uma das principais táticas que as plataformas de mídia social e as autoridades policiais usam para identificar imagens de ataque é escanear maquinalmente novas imagens para ver se elas correspondem a um banco de dados de instâncias estabelecidas de CSAM. Mas o material recentemente deepfaked pode evadir desses sensores, disse Finkelhor.
“Uma vez que essas imagens foram alteradas, fica mais difícil bloqueá-las”, ele disse. “Não está totalmente evidente porquê os tribunais vão mourejar com isso”, disse Finkelhor.
O Departamento de Justiça dos EUA anunciou acusações contra pelo menos um varão criminado de usar lucidez sintético para fabricar CSAM de menores. Mas a tecnologia também pode dificultar a apresentação de acusações mais rigorosas contra traficantes de CSAM, disse Paul Bleakley, professor assistente de justiça criminal na Universidade de New Haven.
A lei dos EUA é clara ao expor que possuir imagens de CSAM, independentemente de terem sido criadas ou modificadas com IA, é ilícito, disse Bleakley. Mas há penalidades mais severas reservadas para pessoas que criam CSAM, e isso pode ser mais difícil de processar se for feito com IA, disse ele.
“Ainda é uma espaço muito cinzenta se a pessoa que está inserindo o prompt está realmente criando o CSAM”, disse Bleakley.
Em uma enunciação por e-mail, o FBI disse que leva os crimes contra crianças a sério e investiga cada argumento com várias agências policiais.
“Atores maliciosos usam tecnologias e serviços de manipulação de teor para explorar fotos e vídeos — normalmente capturados da conta de mídia social de um sujeito, internet oportunidade ou solicitados da vítima — em imagens com temas sexuais que parecem reais em semelhança a uma vítima, portanto as circulam em mídias sociais, fóruns públicos ou sites pornográficos”, escreveu o bureau. “Muitas vítimas, que incluem menores, não sabem que suas imagens foram copiadas, manipuladas e circuladas até que isso foi trazido à sua atenção por outra pessoa. As fotos são portanto enviadas diretamente às vítimas por atores maliciosos para sextortion ou assédio, ou até que isso seja autodescoberto na internet.”
Em sua enunciação, o departamento pediu às vítimas que ligassem para o escritório de campo do FBI ou para 1-800-CALL-FBI (225-5324).
Se você acha que você ou alguém que você conhece é vítima de exploração infantil, você pode entrar em contato com o CyberTipline no 1-800-843-5678.
Siga-nos nas redes sociais:
Hotnews.pt |
Facebook |
Instagram |
Telegram
#hotnews #noticias #AtualizaçõesDiárias #SigaHotnews #FiquePorDentro #ÚltimasNotícias #InformaçãoAtual