Abril 16, 2025
Funcionários da OpenAI dizem que ela “falhou” em seu primeiro teste para tornar sua IA segura
 #ÚltimasNotícias

Funcionários da OpenAI dizem que ela “falhou” em seu primeiro teste para tornar sua IA segura #ÚltimasNotícias

Continue apos a publicidade

Hot News

No verão pretérito, a potência da lucidez sintético OpenAI prometeu à Moradia Branca que testaria rigorosamente a segurança de novas versões de sua tecnologia inovadora para prometer que a IA não causaria danos — porquê ensinar usuários a erigir armas biológicas ou ajudar hackers a desenvolver novos tipos de ataques cibernéticos.

Mas nesta primavera, alguns membros da equipe de segurança da OpenAI se sentiram pressionados a açodar um novo protocolo de testes, projetado para evitar que a tecnologia causasse danos catastróficos, para satisfazer a data de lançamento de maio definida pelos líderes da OpenAI, de harmonia com três pessoas familiarizadas com o ponto que falaram sob quesito de anonimato por terror de retaliação.

Mesmo antes do início dos testes no protótipo, GPT-4 Omni, a OpenAI convidou os funcionários para comemorar o resultado, que daria robustez ao ChatGPT, com uma sarau em um dos escritórios da empresa em São Francisco. “Eles planejaram a sarau pós-lançamento antes de saber se era seguro lançar”, disse uma das pessoas, falando sob quesito de anonimato para discutir informações confidenciais da empresa. “Basicamente falhamos no processo.”

O incidente não relatado anteriormente lança luz sobre a mudança de cultura na OpenAI, onde os líderes da empresa, incluindo o CEO Sam Altman, foram acusados ​​de priorizar interesses comerciais em detrimento da segurança pública — um retiro gritante das raízes da empresa porquê uma organização sem fins lucrativos altruísta. Também levanta questões sobre a submissão do governo federalista no autopoliciamento por empresas de tecnologia — por meio da promessa da Moradia Branca, muito porquê de uma ordem executiva sobre IA aprovada em outubro — para proteger o público de abusos de IA generativa, que os executivos dizem ter o potencial de refazer virtualmente todos os aspectos da sociedade humana, do trabalho à guerra.

Continue após a publicidade

Andrew Strait, ex-pesquisador de moral e políticas do Google DeepMind, agora diretor associado do Instituto Ada Lovelace em Londres, disse que permitir que as empresas estabeleçam seus próprios padrões de segurança é inerentemente perigoso.

FIQUE POR DENTRO

Histórias para mantê-lo informado

“Não temos garantias significativas de que as políticas internas estejam sendo seguidas fielmente ou apoiadas por métodos confiáveis”, disse Strait.

Biden disse que o Congresso precisa fabricar novas leis para proteger o público dos riscos da IA.

Continue após a publicidade

“O presidente Biden tem sido simples com as empresas de tecnologia sobre a prestígio de prometer que seus produtos sejam seguros, protegidos e confiáveis ​​antes de liberá-los ao público”, disse Robyn Patterson, porta-voz da Moradia Branca. “As empresas líderes fizeram compromissos voluntários relacionados a testes de segurança independentes e transparência pública, que ele espera que cumpram.”

A OpenAI é uma das mais de uma dúzia de empresas que fizeram compromissos voluntários com a Moradia Branca no ano pretérito, um precursor da ordem executiva de IA. Entre as outras estão a Anthropic, a empresa por trás do chatbot Claude; a Nvidia, o gigante dos chips de US$ 3 trilhões; a Palantir, a empresa de estudo de dados que trabalha com militares e governos; o Google DeepMind; e a Meta. O compromisso exige que eles protejam modelos de IA cada vez mais capazes; a Moradia Branca disse que permaneceria em vigor até que uma regulamentação semelhante entrasse em vigor.

O mais novo protótipo da OpenAI, GPT-4o, foi a primeira grande chance da empresa de infligir a estrutura, que exige o uso de avaliadores humanos, incluindo profissionais pós-doutorados treinados em biologia e auditores terceirizados, se os riscos forem considerados suficientemente altos. Mas os testadores compactaram as avaliações em uma única semana, apesar das reclamações dos funcionários.

Embora esperassem que a tecnologia passasse nos testes, muitos funcionários ficaram consternados ao ver a OpenAI tratar seu alardeado novo protocolo de preparação porquê uma reflexão tardia. Em junho, vários funcionários atuais e antigos da OpenAI assinaram uma epístola ensejo enigmática exigindo que as empresas de IA isentassem seus trabalhadores de acordos de confidencialidade, liberando-os para alertar os reguladores e o público sobre os riscos de segurança da tecnologia.

Continue após a publicidade

Enquanto isso, o ex-executivo da OpenAI Jan Leike renunciou dias posteriormente o lançamento do GPT-4o, escrevendo no X que “a cultura e os processos de segurança ficaram em segundo projecto em relação aos produtos brilhantes”. E o ex-engenheiro de pesquisa da OpenAI William Saunders, que renunciou em fevereiro, disse em uma entrevista de podcast que havia notado um padrão de trabalho de segurança “apressado e não muito sólido” “a serviço do cumprimento da data de envio” de um novo resultado.

Um representante da equipe de preparação da OpenAI, que falou sob quesito de anonimato para discutir informações confidenciais da empresa, disse que as avaliações ocorreram durante uma única semana, o que foi suficiente para concluir os testes, mas reconheceu que o tempo havia sido “espremido”.

“Estamos repensando toda a nossa maneira de fazer isso”, disse o representante. “Isso [was] simplesmente não é a melhor maneira de fazer isso.”

Em uma enunciação, a porta-voz da OpenAI, Lindsey Held, disse que a empresa “não cortou atalhos em nosso processo de segurança, embora reconheçamos que o lançamento foi estressante para nossas equipes”. Para satisfazer com os compromissos da Moradia Branca, a empresa “conduziu testes internos e externos extensivos” e reteve alguns recursos multimídia “inicialmente para continuar nosso trabalho de segurança”, acrescentou ela.

Continue após a publicidade

A OpenAI anunciou a iniciativa de preparação porquê uma tentativa de trazer rigor científico ao estudo de riscos catastróficos, que ela definiu porquê incidentes “que podem resultar em centenas de bilhões de dólares em danos econômicos ou levar a danos graves ou morte de muitos indivíduos”.

Continue após a publicidade

O termo foi popularizado por uma partido influente dentro do campo da IA ​​que está preocupada que tentar erigir máquinas tão inteligentes quanto os humanos pode enfraquecer ou destruir a humanidade. Muitos pesquisadores de IA argumentam que esses riscos existenciais são especulativos e distraem de danos mais urgentes.

“Nosso objetivo é estabelecer um novo marco para o trabalho quantitativo e fundamentado em evidências”, Altman postou no X em outubro, anunciando a novidade equipe da empresa.

A OpenAI lançou duas novas equipes de segurança no ano pretérito, que se juntaram a uma ramificação de longa data focada em danos concretos, porquê preconceito racial ou desinformação.

Continue após a publicidade

A equipe Superalignment, anunciada em julho, era dedicada a prevenir riscos existenciais de sistemas de IA muito avançados. Desde portanto, ela foi redistribuída para outras partes da empresa.

Leike e o cofundador da OpenAI, Ilya Sutskever, um ex-membro do juízo que votou para alongar Altman do incumbência de CEO em novembro antes de se retratar rapidamente, lideraram a equipe. Ambos renunciaram em maio. Sutskever esteve ausente da empresa desde a reintegração de Altman, mas a OpenAI não anunciou sua repúdio até o dia seguinte ao lançamento do GPT-4o.

De harmonia com o representante da OpenAI, no entanto, a equipe de preparação teve totalidade espeque dos principais executivos.

Percebendo que o prazo para testar o GPT-4o seria apertado, o representante disse que falou com os líderes da empresa, incluindo a diretora de tecnologia Mira Murati, em abril e eles concordaram com um “projecto de contingência”. Se as avaliações revelassem um pouco alarmante, a empresa lançaria uma iteração anterior do GPT-4o que a equipe já havia testado.

Continue após a publicidade

Algumas semanas antes da data de lançamento, a equipe começou a fazer “testes de simulação”, planejando ter “todos os sistemas funcionando no momento em que tivermos o protótipo”, disse o representante. Eles agendaram avaliadores humanos em diferentes cidades para estarem prontos para executar os testes, um processo que custou centenas de milhares de dólares, de harmonia com o representante.

O trabalho de preparação também envolveu alertar o Grupo Consultivo de Segurança da OpenAI — um juízo de consultores recém-criado que recebe um scorecard de riscos e aconselha os líderes se mudanças são necessárias — de que teria tempo restringido para averiguar os resultados.

Held, da OpenAI, disse que a empresa se comprometeu a alocar mais tempo para o processo no porvir.

“Eu definitivamente não acho que nós contornamos [the tests]”, disse o representante. Mas o processo foi intenso, ele reconheceu. “Depois disso, dissemos: ‘Não vamos fazer isso de novo.’”

Continue após a publicidade

Razzan Nakhlawi contribuiu para esta reportagem.

Siga-nos nas redes sociais:

Hotnews.pt |
Facebook |
Instagram |
Telegram

Continue após a publicidade

#hotnews #noticias #AtualizaçõesDiárias #SigaHotnews #FiquePorDentro #ÚltimasNotícias #InformaçãoAtual

Continue após a publicidade

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *