Abril 8, 2025
Legisladores da Califórnia votarão em projeto de lei de segurança de IA em meio à resistência de empresas de tecnologia
 #ÚltimasNotícias

Legisladores da Califórnia votarão em projeto de lei de segurança de IA em meio à resistência de empresas de tecnologia #ÚltimasNotícias

Continue apos a publicidade

Hot News

Um projeto de lei que visa reduzir o risco de a inteligência artificial ser usada para propósitos nefastos, como ataques cibernéticos ou para aperfeiçoar armas biológicas, deve ser votado pelos legisladores do estado da Califórnia esta semana.

O Projeto de Lei 1047 do Senado da Califórnia, de autoria do Senador Estadual Scott Wiener, seria o primeiro do gênero nos EUA a exigir que as empresas de IA que criam modelos em larga escala testem sua segurança.

Os legisladores da Califórnia estão considerando dezenas de projetos de lei relacionados à IA nesta sessão. Mas a proposta de Wiener, chamada de “Safe and Secure Innovation for Frontier Artificial Intelligence Models Act”, capturou a atenção nacional devido à resistência vocal do Vale do Silício, o viveiro do desenvolvimento da IA ​​dos EUA. Os oponentes dizem que criar requisitos técnicos onerosos e multas potenciais na Califórnia efetivamente sufocaria a inovação e a competitividade global do país.

A OpenAI é a mais recente desenvolvedora de IA a se opor, argumentando em uma carta na quarta-feira que a regulamentação da IA ​​deve ser deixada para o governo federal e alegando que as empresas deixarão a Califórnia se a legislação proposta for aprovada.

Continue após a publicidade

A assembleia estadual agora está pronta para votar o projeto de lei, que Wiener recentemente alterou em resposta às críticas da indústria de tecnologia. Mas ele diz que a nova linguagem não concede a todas as questões levantadas pela indústria.

“Este é um projeto de lei razoável e leve que não vai de forma alguma impedir a inovação, mas nos ajudará a nos antecipar aos riscos presentes em qualquer tecnologia poderosa”, disse Wiener a repórteres durante uma entrevista coletiva na segunda-feira.

O que o projeto de lei faria?

O projeto de lei exigiria que as empresas que construíssem grandes modelos de IA, aqueles que custam mais de US$ 100 milhões para treinar, limitassem quaisquer riscos significativos no sistema que encontrassem por meio de testes de segurança. Isso incluiria a criação de uma capacidade de “desligamento total” — ou uma maneira de desligar um modelo potencialmente inseguro em circunstâncias terríveis.

Os desenvolvedores também seriam obrigados a criar um plano técnico para abordar riscos de segurança e manter uma cópia desse plano enquanto o modelo estiver disponível, mais cinco anos. Empresas como Google, Meta e OpenAI com grandes operações de IA já fizeram compromissos voluntários com a administração Biden para gerenciar riscos de IA, mas a legislação da Califórnia introduziria obrigações legais e execução a elas.

Continue após a publicidade

Todo ano, um auditor terceirizado avaliaria se a empresa está cumprindo a lei. Além disso, as empresas teriam que documentar a conformidade com a lei e relatar quaisquer incidentes de segurança ao Procurador-Geral da Califórnia. O gabinete do Procurador-Geral poderia aplicar penalidades civis de até $ 50.000 para as primeiras violações e mais $ 100.000 para violações subsequentes.

Quais são as críticas?

Uma grande parte da indústria de tecnologia criticou o projeto de lei proposto por ser muito oneroso. A Anthropic, uma empresa de IA badalada que se autodenomina focada em segurança, argumentou que uma versão anterior da legislação teria criado obrigações legais complexas que sufocariam a inovação em IA, como a capacidade do Procurador-Geral da Califórnia de processar por negligência, mesmo que nenhum desastre de segurança tenha ocorrido.

A OpenAI sugeriu que as empresas deixarão a Califórnia se o projeto de lei for aprovado para evitar suas exigências. Ela também insistiu que a regulamentação da IA ​​deveria ser deixada para o Congresso para evitar que uma colcha de retalhos confusa de legislação fosse promulgada nos estados.

Wiener respondeu à ideia de empresas fugirem da Califórnia como um “argumento cansado”, observando que as disposições do projeto de lei ainda se aplicariam a empresas que oferecem seus serviços aos californianos, mesmo que não tenham sede lá.

Continue após a publicidade

Na semana passada, oito membros do Congresso dos EUA pediram ao governador Gavin Newsom que vetasse o SB-1047 devido às obrigações que ele criaria para empresas que produzem e usam IA. A deputada Nancy Pelosi se juntou a seus colegas na oposição, chamando a medida de “bem-intencionada, mas mal informada”. (Wiener está de olho na cadeira da presidente emérita na Câmara, o que pode implicar um futuro confronto com sua filha, Christine Pelosi, segundo o Politico.)

Pelosi e outros membros do Congresso estão do lado da “Madrinha da IA”, Dra. Fei-Fei Li, uma cientista da computação da Universidade de Stanford e ex-pesquisadora do Google. Em um artigo de opinião recente, Li disse que a legislação “prejudicará nosso ecossistema de IA em desenvolvimento”, especificamente desenvolvedores menores que “já estão em desvantagem em relação aos gigantes da tecnologia de hoje”.

Continue após a publicidade

O que os apoiadores dizem?

O projeto de lei recebeu apoio de várias startups de IA, do cofundador da Notion, Simon Last, e dos “padrinhos” da IA, Yoshua Bengio e Geoffrey Hinton. Bengio disse que a legislação seria “um passo positivo e razoável” para tornar a IA mais segura, ao mesmo tempo em que incentiva a inovação.

Sem medidas de segurança suficientes, os defensores do projeto de lei temem que as consequências graves da IA ​​descontrolada possam representar ameaças existenciais, como riscos maiores à infraestrutura crítica e a criação de armas nucleares.

Continue após a publicidade

Wiener defendeu sua legislação de “senso comum, toque leve”, observando que ela exigiria apenas que as maiores empresas de IA adotassem medidas de segurança. Ele também elogiou a liderança da Califórnia na política de tecnologia dos EUA, lançando dúvidas de que o Congresso aprovaria qualquer legislação substancial de IA no futuro próximo.

“A Califórnia interveio repetidamente para proteger nossos residentes e preencher o vazio deixado pela inação do Congresso”, respondeu Wiener, observando a falta de ação federal sobre privacidade de dados e regulamentação de mídia social.

O que vem depois?

As emendas mais recentes levam em conta muitas das preocupações expressas pela indústria de IA, disse Wiener em sua última declaração sobre o projeto de lei. A versão atual propõe uma penalidade civil em vez de criminal, como estava originalmente no projeto de lei, por mentir para o governo. Ela também remove uma proposta para um novo órgão regulador estadual que supervisionaria os modelos de IA.

A Anthropic disse em uma carta a Newsom que os benefícios da legislação conforme alterada provavelmente superam os possíveis danos à indústria de IA, com os principais benefícios sendo a transparência com o público sobre a segurança da IA ​​e um incentivo para que as empresas invistam na redução de riscos. Mas a Anthropic ainda está cautelosa quanto ao potencial de aplicação excessivamente ampla e requisitos de relatórios expansivos.

Continue após a publicidade

“Acreditamos que é essencial ter alguma estrutura para gerenciar sistemas de IA de fronteira que atenda aproximadamente a esses três requisitos”, independentemente de essa estrutura ser ou não SB-1047, disse o CEO da Anthropic, Dario Amodei, ao governador.

Os legisladores da Califórnia têm até 31 de agosto, o fim da sessão, para aprovar o projeto de lei. Se aprovado, ele irá para o governador Gavin Newsom para aprovação final até o final de setembro. O governador não indicou se planeja assinar a legislação.

Siga-nos nas redes sociais:

Continue após a publicidade

Hotnews.pt |
Facebook |
Instagram |
Telegram

#hotnews #noticias #AtualizaçõesDiárias #SigaHotnews #FiquePorDentro #ÚltimasNotícias #InformaçãoAtual

Continue após a publicidade

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *