Setembro 19, 2024
Novas ferramentas usam ‘impressões digitais’ de IA para detectar fotos e vídeos alterados
 #ÚltimasNotícias

Novas ferramentas usam ‘impressões digitais’ de IA para detectar fotos e vídeos alterados #ÚltimasNotícias

Hot News

À medida que as redes de inteligência artificial se tornam mais qualificadas e fáceis de acessar, fotos e vídeos “deepfake” manipulados digitalmente são cada vez mais difíceis de detectar.

Uma nova pesquisa liderada pela Universidade Binghamton analisa imagens usando técnicas de análise de domínio de frequência e procura anomalias que possam indicar que elas foram geradas por IA.

Em um artigo publicado no Anais de Tecnologias Disruptivas em Ciências da InformaçãoO aluno de doutorado Nihal Poredi, Deeraj Nagothu MS ’16, PhD ’23, e o professor Yu Chen do Departamento de Engenharia Elétrica e de Computação do Thomas J. Watson College of Engineering and Applied Science compararam imagens reais e falsas além de sinais reveladores de manipulação de imagem, como dedos alongados ou texto de fundo incompreensível. Também colaboraram no artigo a aluna de mestrado Monica Sudarsan e o professor Enoch Solomon da Virginia State University.

A equipe criou milhares de imagens com ferramentas populares de IA generativa, como Adobe Firefly, PIXLR, DALL-E e Google Deep Dream, e então as analisou usando técnicas de processamento de sinal para que suas características de domínio de frequência pudessem ser compreendidas. A diferença nas características de domínio de frequência de imagens naturais e geradas por IA é a base para diferenciá-las usando um modelo de aprendizado de máquina.

Ao comparar imagens usando uma ferramenta chamada Generative Adversarial Networks Image Authentication (GANIA), os pesquisadores podem detectar anomalias (conhecidas como artefatos) devido à maneira como a IA gera os falsos. O método mais comum de construção de imagens de IA é o upsampling, que clona pixels para tornar os tamanhos dos arquivos maiores, mas deixa impressões digitais no domínio da frequência.

“Quando você tira uma foto com uma câmera real, você obtém informações do mundo inteiro — não apenas da pessoa, da flor, do animal ou da coisa que você quer tirar uma foto, mas todos os tipos de informações ambientais estão embutidas ali”, disse Chen. “Com a IA generativa, as imagens focam no que você pede para gerar, não importa o quão detalhado você seja. Não há como descrever, por exemplo, qual é a qualidade do ar ou como o vento está soprando ou todas as pequenas coisas que são elementos de fundo.”

Nagothu acrescentou: “Embora existam muitos modelos de IA emergentes, a arquitetura fundamental desses modelos permanece basicamente a mesma. Isso nos permite explorar a natureza preditiva de sua manipulação de conteúdo e alavancar impressões digitais únicas e confiáveis ​​para detectá-la.”

O artigo de pesquisa também explora maneiras pelas quais o GANIA pode ser usado para identificar as origens de IA de uma foto, o que limita a disseminação de informações incorretas por meio de imagens deepfake.

“Queremos ser capazes de identificar as ‘impressões digitais’ para diferentes geradores de imagens de IA”, disse Poredi. “Isso nos permitiria construir plataformas para autenticar conteúdo visual e prevenir quaisquer eventos adversos associados a campanhas de desinformação.”

Junto com imagens deepfaked, a equipe desenvolveu uma técnica para detectar gravações falsas de áudio e vídeo baseadas em IA. A ferramenta desenvolvida chamada “DeFakePro” alavanca impressões digitais ambientais chamadas de sinal de frequência de rede elétrica (ENF) criado como resultado de leves flutuações elétricas na rede elétrica. Como um sutil zumbido de fundo, esse sinal é naturalmente incorporado em arquivos de mídia quando eles são gravados.

Ao analisar esse sinal, que é exclusivo para o horário e local da gravação, a ferramenta DeFakePro pode verificar se a gravação é autêntica ou se foi adulterada. Essa técnica é altamente eficaz contra deepfakes e explora ainda mais como pode proteger redes de vigilância inteligentes em larga escala contra esses ataques de falsificação baseados em IA. A abordagem pode ser eficaz na luta contra a desinformação e a fraude digital em nosso mundo cada vez mais conectado.

“A desinformação é um dos maiores desafios que a comunidade global enfrenta hoje”, disse Poredi. “O uso generalizado de IA generativa em muitos campos levou ao seu uso indevido. Combinado com nossa dependência das mídias sociais, isso criou um ponto crítico para um desastre de desinformação. Isso é particularmente evidente em países onde as restrições às mídias sociais e à fala são mínimas. Portanto, é imperativo garantir a sanidade dos dados compartilhados online, especificamente dados audiovisuais.”

Embora os modelos de IA generativa tenham sido mal utilizados, eles também contribuem significativamente para o avanço da tecnologia de imagem. Os pesquisadores querem ajudar o público a diferenciar entre conteúdo falso e real — mas acompanhar as últimas inovações pode ser um desafio.

“A IA está se movendo tão rapidamente que, uma vez que você desenvolve um detector de deepfake, a próxima geração dessa ferramenta de IA leva essas anomalias em consideração e as corrige”, disse Chen. “Nosso trabalho está tentando fazer algo fora da caixa.”

Siga-nos nas redes sociais:

Hotnews.pt |
Facebook |
Instagram |
Telegram

#hotnews #noticias #AtualizaçõesDiárias #SigaHotnews #FiquePorDentro #ÚltimasNotícias #InformaçãoAtual

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *