Hot News
A OpenAI fez com que os funcionários assinassem acordos de funcionários que exigiam que eles renunciassem aos seus direitos federais de ressarcimento de denunciantes, dizia a epístola. Esses acordos também exigiam que os funcionários da OpenAI obtivessem consentimento prévio da empresa se desejassem vulgarizar informações às autoridades federais. A OpenAI não criou isenções em suas cláusulas de não desabono de funcionários para a divulgação de violações de valores mobiliários à SEC.
Esses acordos excessivamente amplos violam leis e regulamentações federais de longa data destinadas a proteger denunciantes que desejam revelar informações prejudiciais sobre suas empresas anonimamente e sem pânico de retaliação, afirma a epístola.
“Esses contratos enviaram uma mensagem de que ‘não queremos… funcionários falando com reguladores federais’”, disse um dos denunciantes, que falou sob quesito de anonimato por pânico de retaliação. “Não acho que as empresas de IA possam edificar tecnologia que seja segura e de interesse público se elas se protegerem do escrutínio e da dissidência.”
FIQUE POR DENTRO
Histórias para mantê-lo informado
Em uma enunciação, Hannah Wong, porta-voz da OpenAI, disse: “Nossa política de denúncia protege os direitos dos funcionários de fazer divulgações protegidas. Outrossim, acreditamos que um debate rigoroso sobre essa tecnologia é principal e já fizemos mudanças importantes em nosso processo de saída para remover termos de não desabono.”
A epístola dos denunciantes surge em meio a preocupações de que a OpenAI, que começou uma vez que uma sem fins lucrativos com uma missão altruísta, está colocando o lucro antes da segurança na geração de sua tecnologia. O Post relatou na sexta-feira que a OpenAI apressou seu mais recente protótipo de IA que alimenta o ChatGPT para satisfazer uma data de lançamento de maio definida pelos líderes da empresa, apesar das preocupações dos funcionários de que a empresa “falhou” em satisfazer seu próprio protocolo de teste de segurança que, segundo ela, manteria sua IA segura de danos catastróficos, uma vez que ensinar os usuários a edificar armas biológicas ou ajudar hackers a desenvolver novos tipos de ataques cibernéticos. Em uma enunciação, o porta-voz da OpenAI, Lindsey Held, disse que a empresa “não economizou em nosso processo de segurança, embora reconheçamos que o lançamento foi estressante para nossas equipes”.
Os acordos de confidencialidade rigorosos das empresas de tecnologia há muito tempo irritam os trabalhadores e os reguladores. Durante o movimento #MeToo e os protestos nacionais em resposta ao assassínio de George Floyd, os trabalhadores alertaram que tais acordos legais limitavam sua capacidade de relatar má conduta sexual ou discriminação racial. Os reguladores, enquanto isso, temem que os termos amordacem os funcionários de tecnologia que podem alertá-los sobre má conduta no opaco setor de tecnologia, mormente em meio a alegações de que os algoritmos das empresas promovem teor que prejudica eleições, a saúde pública e a segurança das crianças.
O rápido progresso da perceptibilidade sintético aguçou preocupações dos formuladores de políticas sobre o poder da indústria de tecnologia, provocando uma enxurrada de pedidos de regulamentação. Nos Estados Unidos, as empresas de IA estão operando em grande segmento em um vácuo lítico, e os formuladores de políticas dizem que não podem efetivamente gerar novas políticas de IA sem a ajuda de denunciantes, que podem ajudar a explicar as ameaças potenciais representadas pela tecnologia de rápido movimento.
“As políticas e práticas da OpenAI parecem ter um efeito inibidor sobre o recta dos denunciantes de se manifestarem e receberem a devida ressarcimento por suas divulgações protegidas”, disse o senador Chuck Grassley (R-Iowa) em uma enunciação ao The Post. “Para que o governo federalista fique um passo primeiro da perceptibilidade sintético, os acordos de confidencialidade da OpenAI devem mudar.”
Uma transcrição da epístola, endereçada ao presidente da SEC, Gary Gensler, foi enviada ao Congresso. O Post obteve a epístola do denunciante do escritório de Grassley.
As queixas oficiais referidas na epístola foram enviadas à SEC em junho. Stephen Kohn, um jurista que representa os denunciantes da OpenAI, disse que a SEC respondeu à reclamação.
Não foi provável estabelecer se a SEC iniciou uma investigação. A filial não respondeu a um pedido de observação.
A SEC deve tomar medidas “rápidas e agressivas” para mourejar com esses acordos ilegais, diz a epístola, pois eles podem ser relevantes para o setor de IA mais extenso e podem violar a ordem executiva da Moradia Branca de outubro que exige que as empresas de IA desenvolvam a tecnologia com segurança.
“No cerne de qualquer esforço de realização desse tipo está o reconhecimento de que os insiders … devem ser livres para relatar preocupações às autoridades federais”, dizia a epístola. “Os funcionários estão na melhor posição para detectar e alertar contra os tipos de perigos referenciados na Ordem Executiva e também estão na melhor posição para ajudar a prometer que a IA beneficie a humanidade, em vez de ter o efeito oposto.”
Esses acordos ameaçavam os funcionários com processos criminais se eles relatassem violações da lei às autoridades federais sob as leis de sigilo mercantil, disse Kohn. Os funcionários eram instruídos a manter as informações da empresa confidenciais e ameaçados com “sanções severas” sem o reconhecimento de seu recta de relatar tais informações ao governo, disse ele.
“Em termos de supervisão de IA, estamos muito no início”, disse Kohn. “Precisamos que os funcionários se apresentem, e precisamos que o OpenAI seja destapado.”
A SEC deve exigir que a OpenAI produza todos os contratos de serviço, rescisão e acordos de investidores que contenham cláusulas de confidencialidade para prometer que não violem as leis federais, dizia a epístola. Os reguladores federais devem exigir que a OpenAI notifique todos os funcionários anteriores e atuais sobre as violações que a empresa cometeu, muito uma vez que notificá-los de que eles têm o recta de relatar confidencialmente e anonimamente quaisquer violações da lei à SEC. A SEC deve enunciar multas à OpenAI por “cada combinação inoportuno” sob a lei da SEC e instruir a OpenAI a sarar o “efeito inibidor” de suas práticas passadas, de combinação com a epístola dos denunciantes.
Vários funcionários de tecnologia, incluindo a denunciante do Facebook, Frances Haugen, registraram queixas na SEC, que estabeleceu um programa de denúncias em seguida a crise financeira de 2008.
Lutar contra o uso de NDAs pelo Vale do Silício para “monopolizar informações” tem sido uma guerra prolongada, disse Chris Baker, um jurista de São Francisco. Ele ganhou um combinação de US$ 27 milhões para funcionários do Google em dezembro contra alegações de que a gigante da tecnologia usou acordos de confidencialidade onerosos para bloquear denúncias e outras atividades protegidas. Agora, as empresas de tecnologia estão cada vez mais lutando com maneiras inteligentes de impedir a sentença, disse ele.
“Os empregadores aprenderam que o dispêndio dos vazamentos às vezes é muito maior do que o dispêndio do litígio, logo eles estão dispostos a decorrer o risco”, disse Baker.
#hotnews #noticias #AtualizaçõesDiárias #SigaHotnews #FiquePorDentro #ÚltimasNotícias #InformaçãoAtual