Hot News
A OpenAI é líder na corrida para desenvolver uma IA tão inteligente quanto um ser humano. No entanto, os funcionários continuam a brotar na prensa e em podcasts para expressar suas graves preocupações sobre a segurança no laboratório de pesquisa sem fins lucrativos de US$ 80 bilhões. As últimas novidades vêm de O Washington Postonde uma manancial anônima afirmou que a OpenAI apressou os testes de segurança e comemorou seu resultado antes de prometer sua segurança.
“Eles planejaram a sarau de lançamento antes de saber se era seguro decolar”, disse um funcionário anônimo O Washington Post. “Basicamente falhamos no processo.”
Problemas de segurança são grandes na OpenAI — e parecem continuar surgindo. Funcionários atuais e antigos da OpenAI assinaram recentemente uma missiva ensejo exigindo melhores práticas de segurança e transparência da startup, pouco depois de sua equipe de segurança ter sido dissolvida depois a saída do cofundador Ilya Sutskever. Jan Leike, um pesquisador-chave da OpenAI, renunciou logo depois, alegando em um post que “a cultura e os processos de segurança ficaram em segundo projecto em relação aos produtos brilhantes” na empresa.
A segurança é principal para o regimento da OpenAI, com uma cláusula que afirma que a OpenAI ajudará outras organizações a continuar a segurança se o AGI for obtido em um concorrente, em vez de continuar a competir. Ela afirma ser dedicada a resolver os problemas de segurança inerentes a um sistema tão grande e multíplice. A OpenAI até mantém seus modelos proprietários privados, em vez de abertos (causando golpes e processos), por uma questão de segurança. Os avisos fazem parecer que a segurança foi despriorizada, apesar de ser tão primordial para a cultura e estrutura da empresa.
É evidente que a OpenAI está em apuros — mas os esforços de relações públicas por si só não serão suficientes para salvaguardar a sociedade
“Estamos orgulhosos do nosso histórico de fornecimento dos sistemas de IA mais capazes e seguros e acreditamos na nossa abordagem científica para mourejar com riscos”, disse a porta-voz da OpenAI, Taya Christianson, em uma enunciação à A Borda. “Um debate rigoroso é principal, dada a valor desta tecnologia, e continuaremos a nos envolver com governos, sociedade social e outras comunidades ao volta do mundo a serviço de nossa missão.”
As apostas em torno da segurança, de combinação com a OpenAI e outros que estudam a tecnologia emergente, são imensas. “O desenvolvimento atual da IA de fronteira apresenta riscos urgentes e crescentes para a segurança pátrio”, disse um relatório encomendado pelo Departamento de Estado dos EUA em março. “A subida da IA avançada e da AGI [artificial general intelligence] tem o potencial de desestabilizar a segurança global de maneiras que lembram a introdução de armas nucleares”.
Os alarmes na OpenAI também seguem o golpe da diretoria no ano pretérito que brevemente demitiu o CEO Sam Altman. O recomendação disse que ele foi removido devido a uma omissão em ser “consistentemente sincero em suas comunicações”, levando a uma investigação que pouco fez para tranquilizar a equipe.
O porta-voz da OpenAI, Lindsey Held, disse ao Publicar o lançamento do GPT-4o “não cortou atalhos” na segurança, mas outro representante não identificado da empresa reconheceu que o cronograma de revisão de segurança foi comprimido para uma única semana. “Estamos repensando toda a nossa maneira de fazer isso”, disse o representante anônimo ao Publicar. “Esse [was] simplesmente não é a melhor maneira de fazer isso.”
Diante de controvérsias constantes (lembre-se do Dela incidente?), a OpenAI tentou acalmar os medos com alguns anúncios muito cronometrados. Esta semana, anunciou que está se unindo ao Laboratório Vernáculo de Los Alamos para explorar uma vez que modelos avançados de IA, uma vez que o GPT-4o, podem facilitar com segurança na pesquisa biocientífica e, no mesmo pregão, apontou repetidamente para o próprio histórico de segurança de Los Alamos. No dia seguinte, um porta-voz anônimo disse Bloomberg que a OpenAI criou uma graduação interna para monitorar o progresso que seus grandes modelos de linguagem estão fazendo em direção à lucidez sintético universal.
Os anúncios focados em segurança desta semana da OpenAI parecem ser uma frontaria defensiva diante das crescentes críticas às suas práticas de segurança. Está evidente que a OpenAI está na berlinda — mas os esforços de relações públicas por si só não serão suficientes para proteger a sociedade. O que realmente importa é o impacto potencial sobre aqueles além da bolha do Vale do Silício se a OpenAI continuar a falhar em desenvolver IA com protocolos de segurança rigorosos, uma vez que afirmam internamente: a pessoa média não tem voz no desenvolvimento da AGI privatizada e, ainda assim, não tem escolha sobre o quão protegida estará das criações da OpenAI.
“As ferramentas de IA podem ser revolucionárias”, disse a presidente da FTC, Lina Khan Bloomberg em novembro. Mas “até agora”, ela disse, há preocupações de que “as entradas críticas dessas ferramentas são controladas por um número relativamente pequeno de empresas”.
Se as inúmeras alegações contra seus protocolos de segurança forem precisas, isso certamente levanta sérias questões sobre a jeito da OpenAI para esse papel uma vez que administradora da AGI, um papel que a organização essencialmente atribuiu a si mesma. Permitir que um grupo em São Francisco controle uma tecnologia potencialmente alteradora da sociedade é motivo de preocupação, e há uma demanda urgente, mesmo dentro de suas próprias fileiras, por transparência e segurança, agora mais do que nunca.
#hotnews #noticias #AtualizaçõesDiárias #SigaHotnews #FiquePorDentro #ÚltimasNotícias #InformaçãoAtual