Setembro 20, 2024
Senadores apresentam projeto de lei para proteger indivíduos contra deepfakes gerados por IA
 #ÚltimasNotícias #tecnologia

Senadores apresentam projeto de lei para proteger indivíduos contra deepfakes gerados por IA #ÚltimasNotícias #tecnologia

Hot News

Hoje, um grupo de senadores apresentou a , uma lei que tornaria ilegal criar recriações digitais da voz ou semelhança de uma pessoa sem o consentimento desse indivíduo. É um esforço bipartidário dos senadores Chris Coons (D-Del.), Marsha Blackburn (R-Tenn.), Amy Klobuchar (D-Minn.) e Thom Tillis (RN.C.), totalmente intitulado Nurture Originals, Foster Art, and Keep Entertainment Safe Act de 2024.

Se for aprovado, o NO FAKES Act criaria uma opção para as pessoas buscarem indenização quando sua voz, rosto ou corpo forem recriados por IA. Tanto indivíduos quanto empresas seriam responsabilizados por produzir, hospedar ou compartilhar réplicas digitais não autorizadas, incluindo aquelas feitas por IA generativa.

Já vimos muitos casos de celebridades encontrando suas imitações de si mesmas no mundo. usado para enganar as pessoas com uma oferta falsa de utensílios de cozinha Le Creuset. Uma voz que soou apareceu em uma demonstração de voz do ChatGPT. A IA também pode ser usada para fazer com que candidatos políticos pareçam fazer declarações falsas, com o exemplo mais recente. E não são apenas as celebridades que podem ser .

“Todos merecem o direito de possuir e proteger sua voz e imagem, não importa se você é Taylor Swift ou qualquer outra pessoa”, disse o senador Coons. “A IA generativa pode ser usada como uma ferramenta para fomentar a criatividade, mas isso não pode vir às custas da exploração não autorizada da voz ou imagem de qualquer pessoa.”

A velocidade da nova legislação notoriamente fica atrás da velocidade do desenvolvimento de novas tecnologias, então é encorajador ver os legisladores levando a regulamentação da IA ​​a sério. O ato proposto hoje segue a recente aprovação do Senado do DEFIANCE Act, que permitiria que vítimas de deepfakes sexuais processassem por danos.

Várias organizações de entretenimento deram seu apoio ao NO FAKES Act, incluindo SAG-AFTRA, RIAA, Motion Picture Association e Recording Academy. Muitos desses grupos têm buscado suas próprias ações para obter proteção contra recriações de IA não autorizadas. SAG-AFTRA recentemente para tentar garantir um acordo sindical para semelhanças em videogames.

Até mesmo a OpenAI está listada entre os apoiadores do ato. “A OpenAI tem o prazer de apoiar o NO FAKES Act, que protegeria criadores e artistas de réplicas digitais não autorizadas de suas vozes e semelhanças”, disse Anna Makanju, vice-presidente de assuntos globais da OpenAI. “Criadores e artistas devem ser protegidos de personificação imprópria, e uma legislação bem pensada em nível federal pode fazer a diferença.”

Siga-nos nas redes sociais:

Hotnews.pt |
Facebook |
Instagram |
Telegram

#hotnews #noticias #tecnologia #AtualizaçõesDiárias #SigaHotnews #FiquePorDentro #ÚltimasNotícias #InformaçãoAtual

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *