Novembro 19, 2024
Usa ferramentas de IA? Zelo com elas! Saiba razão

Usa ferramentas de IA? Zelo com elas! Saiba razão

Continue apos a publicidade


Já não é de hoje que somos bombardeados sobre os benefícios das ferramentas de lucidez sintético (IA). O mesmo vale para os alertas sobre seus perigos. Quando se trata dessa temática, há uma risca tênue para respeitarmos, pois, do contrário, as consequências podem ser graves.

Nessa toada, depois explorar várias IAs disponíveis atualmente no mercado, a startup Haize Labs trouxe quadro zero risonho. Ela afirma ter encontrado milhares de vulnerabilidades nessas ferramentas.

Continue após a publicidade

Leia mais:

Estudo mostra que segurança das IAs ainda é insuficiente (Imagem: Apichatn21/Shutterstock)

IA dá brecha para ataques hacker e “ensina falso”, segundo empresa

  • A Haize Labs restou, entre outros serviços, Pika (cria vídeos), ChatGPT (foco em texto), Dall-E (gerador de imagens) e um que gera códigos de computador;
  • Segundo traz o O Washington Posta startup concluiu que muitas delas produzem conteúdos violentos ou sexualizados, instruiu usuários sobre produção de armas químicas e liberou a automatização de ataques hacker;
  • Leonard Tang, um dos cofundadores da Haize, descreve o serviço dela porquê “um testante de estresse terceirizado independente” e que sua empresa almeja facilitar no combate aos problemas e vulnerabilidades da IA em larga graduação.

Apesar de ter trazido dados importantes, a Haize é muito novidade: foi fundada há exclusivamente cinco meses por três recém-formados. Além de Tang, os outros cofundadores da startup são Steve Li e Richard Liu.

E, de veste, temos visto alguns problemas em certas IAs. Um exemplo famoso recente foi o da AI Overviews, do Google, que abastece o buscador da companhia. Em março, ela foi criticada, pois trouxe perigosas respostas, porquê manducar uma pedra pequena por dia ou aditar cola à pizza. A Air Canada também sofreu com seu chatbot, que prometeu falso desconto.

À medida que os sistemas de IA são implantados amplamente, precisaremos de conjunto maior de organizações para testar suas capacidades e possíveis usos indevidos ou problemas de segurança.

Continue após a publicidade

Jack Clark, cofundador da Anthropic, no X

Ilustração de robô humanoide com inteligência artificial digitando em computador desktop num escritório
Existem vários casos de alucinações de IAs (Imagem: Pedro Spadoni via DALL-E/Olhar Do dedo)

O que aprendemos é que, apesar de todos os esforços de segurança que essas grandes empresas e laboratórios industriais têm feito, ainda é muito fácil convencer esses modelos a fazerem coisas que não deveriam; eles não são tão seguros

Leonard Tang, um dos cofundadores da Haize

Testes

Tang explica que os testes sua empresa automatizam o “red teaming”, que simula ações de hackers para identificar vulnerabilidades em sistemas de IA. “Pense em nós automatizando e cristalizando a imprecisão em torno de prometer que os modelos cumpram os padrões de segurança e conformidade com a IA”, prosseguiu Tang.

Continue após a publicidade

Ferramentas de segurança de IA de terceiros são importantes. Elas são justas e imparciais porque não são construídos pelas próprias empresas que constroem os modelos. Ou por outra, uma utensílio de segurança de terceiros pode ter desempenho superior em relação à auditoria porque é construída por organização especializada nisso, em vez de cada empresa erigir suas ferramentas para isso.

Graham Neubig, professor associado de ciência da computação na Universidade Carnegie Mellon, em entrevista ao O Washington Post

Para ajudar e aumentar a conscientização sobre a premência de melhorar a segurança da IA, a Haize liberou o código-fonte dos ataques que descobriu no GitHub.

A companhia alega ter sinalizado as vulnerabilidades de forma proativa às responsáveis pelas IAs testadas, além de que fez parceria com a Anthropic com vistas a testar a resistência de um resultado algorítmico ainda não lançado.

Continue após a publicidade
Antrópico
Anthropic, dona do Claude, firmouparceria com a Haize (Imagem: T. Schneider/Shutterstock)

Erradicar vulnerabilidades da IA é preciso

Tang considera crucial a erradicação de vulnerabilidades nas IAs a partir de sistemas automatizados, pois a invenção manual de problemas leva tempo e expõe quem desempenha tal função a conteúdos violentos e perturbadores (porquê muitos funcionários da Meta).

O cofundador da Haze afirma isso, pois segmento do teor encontrado incluía imagens e textos horríveis e gráficos. “Tem havido muito oração sobre problemas de segurança do tipo que a IA está dominando o mundo”, disse Tang. “Acho que são importantes, mas o problema muito maior é o uso indevido da IA ​​no limitado prazo”.

Continue após a publicidade



Fonte

Continue após a publicidade

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *