Hot News
Um projeto de lei que visa reduzir o risco de a inteligência artificial ser usada para propósitos nefastos, como ataques cibernéticos ou para aperfeiçoar armas biológicas, deve ser votado pelos legisladores do estado da Califórnia esta semana.
O Projeto de Lei 1047 do Senado da Califórnia, de autoria do Senador Estadual Scott Wiener, seria o primeiro do gênero nos EUA a exigir que as empresas de IA que criam modelos em larga escala testem sua segurança.
Os legisladores da Califórnia estão considerando dezenas de projetos de lei relacionados à IA nesta sessão. Mas a proposta de Wiener, chamada de “Safe and Secure Innovation for Frontier Artificial Intelligence Models Act”, capturou a atenção nacional devido à resistência vocal do Vale do Silício, o viveiro do desenvolvimento da IA dos EUA. Os oponentes dizem que criar requisitos técnicos onerosos e multas potenciais na Califórnia efetivamente sufocaria a inovação e a competitividade global do país.
A OpenAI é a mais recente desenvolvedora de IA a se opor, argumentando em uma carta na quarta-feira que a regulamentação da IA deve ser deixada para o governo federal e alegando que as empresas deixarão a Califórnia se a legislação proposta for aprovada.
A assembleia estadual agora está pronta para votar o projeto de lei, que Wiener recentemente alterou em resposta às críticas da indústria de tecnologia. Mas ele diz que a nova linguagem não concede a todas as questões levantadas pela indústria.
“Este é um projeto de lei razoável e leve que não vai de forma alguma impedir a inovação, mas nos ajudará a nos antecipar aos riscos presentes em qualquer tecnologia poderosa”, disse Wiener a repórteres durante uma entrevista coletiva na segunda-feira.
O que o projeto de lei faria?
O projeto de lei exigiria que as empresas que construíssem grandes modelos de IA, aqueles que custam mais de US$ 100 milhões para treinar, limitassem quaisquer riscos significativos no sistema que encontrassem por meio de testes de segurança. Isso incluiria a criação de uma capacidade de “desligamento total” — ou uma maneira de desligar um modelo potencialmente inseguro em circunstâncias terríveis.
Os desenvolvedores também seriam obrigados a criar um plano técnico para abordar riscos de segurança e manter uma cópia desse plano enquanto o modelo estiver disponível, mais cinco anos. Empresas como Google, Meta e OpenAI com grandes operações de IA já fizeram compromissos voluntários com a administração Biden para gerenciar riscos de IA, mas a legislação da Califórnia introduziria obrigações legais e execução a elas.
Todo ano, um auditor terceirizado avaliaria se a empresa está cumprindo a lei. Além disso, as empresas teriam que documentar a conformidade com a lei e relatar quaisquer incidentes de segurança ao Procurador-Geral da Califórnia. O gabinete do Procurador-Geral poderia aplicar penalidades civis de até $ 50.000 para as primeiras violações e mais $ 100.000 para violações subsequentes.
Quais são as críticas?
Uma grande parte da indústria de tecnologia criticou o projeto de lei proposto por ser muito oneroso. A Anthropic, uma empresa de IA badalada que se autodenomina focada em segurança, argumentou que uma versão anterior da legislação teria criado obrigações legais complexas que sufocariam a inovação em IA, como a capacidade do Procurador-Geral da Califórnia de processar por negligência, mesmo que nenhum desastre de segurança tenha ocorrido.
A OpenAI sugeriu que as empresas deixarão a Califórnia se o projeto de lei for aprovado para evitar suas exigências. Ela também insistiu que a regulamentação da IA deveria ser deixada para o Congresso para evitar que uma colcha de retalhos confusa de legislação fosse promulgada nos estados.
Wiener respondeu à ideia de empresas fugirem da Califórnia como um “argumento cansado”, observando que as disposições do projeto de lei ainda se aplicariam a empresas que oferecem seus serviços aos californianos, mesmo que não tenham sede lá.
Na semana passada, oito membros do Congresso dos EUA pediram ao governador Gavin Newsom que vetasse o SB-1047 devido às obrigações que ele criaria para empresas que produzem e usam IA. A deputada Nancy Pelosi se juntou a seus colegas na oposição, chamando a medida de “bem-intencionada, mas mal informada”. (Wiener está de olho na cadeira da presidente emérita na Câmara, o que pode implicar um futuro confronto com sua filha, Christine Pelosi, segundo o Politico.)
Pelosi e outros membros do Congresso estão do lado da “Madrinha da IA”, Dra. Fei-Fei Li, uma cientista da computação da Universidade de Stanford e ex-pesquisadora do Google. Em um artigo de opinião recente, Li disse que a legislação “prejudicará nosso ecossistema de IA em desenvolvimento”, especificamente desenvolvedores menores que “já estão em desvantagem em relação aos gigantes da tecnologia de hoje”.
O que os apoiadores dizem?
O projeto de lei recebeu apoio de várias startups de IA, do cofundador da Notion, Simon Last, e dos “padrinhos” da IA, Yoshua Bengio e Geoffrey Hinton. Bengio disse que a legislação seria “um passo positivo e razoável” para tornar a IA mais segura, ao mesmo tempo em que incentiva a inovação.
Sem medidas de segurança suficientes, os defensores do projeto de lei temem que as consequências graves da IA descontrolada possam representar ameaças existenciais, como riscos maiores à infraestrutura crítica e a criação de armas nucleares.
Wiener defendeu sua legislação de “senso comum, toque leve”, observando que ela exigiria apenas que as maiores empresas de IA adotassem medidas de segurança. Ele também elogiou a liderança da Califórnia na política de tecnologia dos EUA, lançando dúvidas de que o Congresso aprovaria qualquer legislação substancial de IA no futuro próximo.
“A Califórnia interveio repetidamente para proteger nossos residentes e preencher o vazio deixado pela inação do Congresso”, respondeu Wiener, observando a falta de ação federal sobre privacidade de dados e regulamentação de mídia social.
O que vem depois?
As emendas mais recentes levam em conta muitas das preocupações expressas pela indústria de IA, disse Wiener em sua última declaração sobre o projeto de lei. A versão atual propõe uma penalidade civil em vez de criminal, como estava originalmente no projeto de lei, por mentir para o governo. Ela também remove uma proposta para um novo órgão regulador estadual que supervisionaria os modelos de IA.
A Anthropic disse em uma carta a Newsom que os benefícios da legislação conforme alterada provavelmente superam os possíveis danos à indústria de IA, com os principais benefícios sendo a transparência com o público sobre a segurança da IA e um incentivo para que as empresas invistam na redução de riscos. Mas a Anthropic ainda está cautelosa quanto ao potencial de aplicação excessivamente ampla e requisitos de relatórios expansivos.
“Acreditamos que é essencial ter alguma estrutura para gerenciar sistemas de IA de fronteira que atenda aproximadamente a esses três requisitos”, independentemente de essa estrutura ser ou não SB-1047, disse o CEO da Anthropic, Dario Amodei, ao governador.
Os legisladores da Califórnia têm até 31 de agosto, o fim da sessão, para aprovar o projeto de lei. Se aprovado, ele irá para o governador Gavin Newsom para aprovação final até o final de setembro. O governador não indicou se planeja assinar a legislação.
#hotnews #noticias #AtualizaçõesDiárias #SigaHotnews #FiquePorDentro #ÚltimasNotícias #InformaçãoAtual