Junho 8, 2025
Democratas pressionam Sam Altman sobre o histórico de segurança do OpenAI
 #ÚltimasNotícias #tecnologia

Democratas pressionam Sam Altman sobre o histórico de segurança do OpenAI #ÚltimasNotícias #tecnologia

Continue apos a publicidade

Hot News

“Dada a discrepância entre seus comentários públicos e os relatórios das ações da OpenAI, solicitamos informações sobre as proteções de denunciantes e conflitos de interesse da OpenAI para entender se a intervenção federal pode ser necessária”, escreveram Warren e Trahan em uma carta compartilhada exclusivamente com A Beira.

Os legisladores citaram várias instâncias em que os procedimentos de segurança da OpenAI foram questionados. Por exemplo, eles disseram que, em 2022, uma versão não lançada do GPT-4 estava sendo testada em uma nova versão do mecanismo de busca Microsoft Bing na Índia antes de receber a aprovação do conselho de segurança da OpenAI. Eles também se lembraram da breve saída do CEO da OpenAI, Sam Altman, da empresa em 2023 como resultado das preocupações do conselho, em parte, “sobre a comercialização de avanços antes de entender as consequências”.

A carta de Warren e Trahan para Altman chega enquanto a empresa é atormentada por uma longa lista de preocupações de segurança, que muitas vezes estão em desacordo com as declarações públicas da empresa. Por exemplo, uma fonte anônima disse O Washington Post que a OpenAI apressou os testes de segurança, a equipe de Superalignment (que era parcialmente responsável pela segurança) foi dissolvida e um executivo de segurança pediu demissão, alegando que “a cultura e os processos de segurança ficaram em segundo plano em relação aos produtos brilhantes”. Lindsey Held, porta-voz da OpenAI, negou as alegações em O Washington PostO relatório da empresa, dizendo que a empresa “não economizou em nosso processo de segurança, embora reconheçamos que o lançamento foi estressante para nossas equipes”.

Outros legisladores também buscaram respostas sobre as práticas de segurança da empresa, incluindo um grupo de senadores liderados por Brian Schatz (D-HI) em julho. Warren e Trahan pediram mais clareza sobre as respostas da OpenAI a esse grupo, incluindo sobre sua criação de uma nova “Linha de Integridade” para os funcionários relatarem preocupações.

Continue após a publicidade

Enquanto isso, a OpenAI parece estar na ofensiva. Em julho, a empresa anunciou uma parceria com o Laboratório Nacional de Los Alamos para explorar como modelos avançados de IA podem auxiliar com segurança em pesquisas biocientíficas. Na semana passada, Altman anunciou via X que a OpenAI está colaborando com o Instituto de Segurança de Inteligência Artificial dos EUA e enfatizou que 20% dos recursos de computação da empresa serão dedicados à segurança (uma promessa feita originalmente à extinta equipe Superalignment). No mesmo post, Altman disse que a OpenAI removeu cláusulas de não depreciação para funcionários e disposições que permitem o cancelamento de patrimônio adquirido, uma questão fundamental na carta de Warren e Trahan.

Warren e Trahan pediram a Altman para fornecer informações sobre como sua nova linha direta de segurança de IA para funcionários estava sendo usada e como a empresa acompanha os relatórios. Eles também pediram “uma contabilidade detalhada” de todas as vezes que os produtos OpenAI “ignoraram os protocolos de segurança” e em quais circunstâncias um produto teria permissão para pular uma revisão de segurança. Os legisladores também estão buscando informações sobre a política de conflitos da OpenAI. Eles perguntaram a Altman se ele foi obrigado a se desfazer de quaisquer participações externas e “quais proteções específicas estão em vigor para proteger a OpenAI de seus conflitos de interesse financeiro”. Eles pediram que Altman respondesse até 22 de agosto.

Continue após a publicidade

Warren também observa o quão vocal Altman tem sido sobre suas preocupações em relação à IA. Ano passado, diante do Senado, Altman alertou que as capacidades da IA ​​poderiam ser “significativamente desestabilizadoras para a segurança pública e nacional” e enfatizou a impossibilidade de antecipar todo abuso ou falha potencial da tecnologia. Esses avisos pareceram ressoar com os legisladores — no estado natal da OpenAI, Califórnia, o senador estadual Scott Wiener está pressionando por um projeto de lei para regular grandes modelos de linguagem, incluindo restrições que responsabilizariam legalmente as empresas se sua IA fosse usada de maneiras prejudiciais.

Continue após a publicidade

Siga-nos nas redes sociais:

Hotnews.pt |
Facebook |
Instagram |
Telegram

#hotnews #noticias #tecnologia #AtualizaçõesDiárias #SigaHotnews #FiquePorDentro #ÚltimasNotícias #InformaçãoAtual

Continue após a publicidade

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *