Por Pedro Garcia, Repórter de Tecnologia

Muito antes do ChatGPT surgir, os governos estavam interessados em usar chatbots para automatizar seus serviços e aconselhamento.
Esses primeiros chatbots “tendiam a ser mais simples, com habilidades de conversação limitadas”, diz Colin van Noordt, pesquisador sobre o uso de IA no governo, fundamentado na Holanda.
Mas o surgimento da IA generativa nos últimos dois anos reviveu uma visão de serviço público mais eficiente, onde consultores semelhantes a humanos podem trabalhar 24 horas por dia, respondendo a perguntas sobre benefícios, impostos e outras áreas em que o governo interage com o público.
A IA generativa é sofisticada o suficiente para dar respostas semelhantes às humanas e, se treinada com dados de qualidade suficientes, em teoria poderia mourejar com todos os tipos de perguntas sobre serviços governamentais.
Mas a IA generativa se tornou muito conhecida por cometer erros ou até mesmo respostas sem sentido — as chamadas alucinações.
No Reino Unificado, o Government Do dedo Service (GDS) realizou testes em um chatbot fundamentado no ChatGPT chamado GOV.UK Chat, que responderia a perguntas dos cidadãos sobre uma série de questões relacionadas aos serviços governamentais.
Em uma postagem de blog sobre suas primeiras descobertasa dependência observou que quase 70% dos envolvidos no estudo acharam as respostas úteis.
No entanto, houve problemas com “alguns” casos em que o sistema gerou informações incorretas e as apresentou uma vez que fatos.
O blog também levantou preocupações de que pode ter crédito equivocada em um sistema que pode estar inexacto algumas vezes.
“No universal, as respostas não atingiram o mais cimo nível de precisão exigido para um site uma vez que o GOV.UK, onde a precisão dos fatos é crucial. Estamos iterando rapidamente leste experimento para abordar as questões de precisão e confiabilidade.”

Outros países também estão experimentando sistemas baseados em IA generativa.
Portugal lançou o Guia Prático de Justiça em 2023, um chatbot concebido para responder a perguntas básicas sobre assuntos simples uma vez que himeneu e divórcio. O chatbot foi desenvolvido com fundos do Mecanismo de Recuperação e Resiliência (RRF) da União Europeia.
O projeto de € 1,3 milhões (US$ 1,4 milhões; £ 1,1 milhões) é fundamentado no protótipo de linguagem GPT 4.0 da OpenAI. Além de tapulhar himeneu e divórcio, ele também fornece informações sobre uma vez que perfurar uma empresa.
Segundo dados do Ministério da Justiça português, 28.608 questões foram colocadas através do guia nos primeiros 14 meses do projeto.
Quando fiz a pergunta básica: “Uma vez que posso montar uma empresa”, ele teve um bom desempenho.
Mas quando perguntei um pouco mais complicado: “Posso perfurar uma empresa se tiver menos de 18 anos, mas for casado?”, ele se desculpou por não ter as informações para responder a essa pergunta.
Uma manadeira do ministério admite que eles ainda carecem de confiabilidade, embora respostas erradas sejam raras.
“Esperamos que essas limitações sejam superadas com um aumento decisivo no nível de crédito das respostas”, me diz a manadeira.

Tais falhas significam que muitos especialistas estão aconselhando cautela – incluindo Colin van Noordt. “Dá inexacto quando o chatbot é implantado uma vez que uma forma de substituir pessoas e reduzir custos.”
Seria uma abordagem mais sensata, ele acrescenta, se eles fossem vistos uma vez que “um serviço suplementar, uma maneira rápida de encontrar informações”.
Sven Nyholm, professor de moral da perceptibilidade sintético na Universidade Ludwig Maximilians de Munique, destaca o problema da responsabilização.
“Um chatbot não é intercambiável com um funcionário público”, ele diz. “Um ser humano pode ser responsabilizado e moralmente responsável por suas ações.
“Os chatbots de IA não podem ser responsabilizados pelo que fazem. A governo pública requer responsabilização e, portanto, requer seres humanos.”
O Sr. Nyholm também destaca o problema da confiabilidade.
“Novos tipos de chatbots criam a ilusão de serem inteligentes e criativos de uma forma que os tipos mais antigos de chatbots não costumavam fazer.
“De vez em quando, essas novas e mais impressionantes formas de chatbots cometem erros bobos e estúpidos. Isso às vezes pode ser engraçado, mas também pode ser potencialmente perigoso, se as pessoas confiarem em suas recomendações.”

Se o ChatGPT e outros Large Language Models (LLMs) não estiverem prontos para dar conselhos importantes, logo talvez pudéssemos olhar para a Estônia uma vez que uma opção.
Quando se trata de digitalização de serviços públicos, a Estônia tem sido uma das líderes. Desde o início dos anos 1990, ela vem construindo serviços digitais e, em 2002, introduziu um cartão de identificação do dedo que permite aos cidadãos acessar serviços estatais.
Portanto, não é surpresa que a Estônia esteja na vanguarda da introdução de chatbots.
Atualmente, o país está desenvolvendo um conjunto de chatbots para serviços estaduais sob o nome de Bürokratt.
No entanto, os chatbots da Estônia não são baseados em Large Language Models (LLM) uma vez que o ChatGPT ou o Gemini do Google.
Em vez disso, eles usam Processamento de Linguagem Originário (PLN), uma tecnologia que precedeu a última vaga de IA.
Os algoritmos de PNL da Estônia dividem uma solicitação em pequenos segmentos, identificam palavras-chave e, a partir disso, inferem o que o usuário deseja.
Na Bürokratt, os departamentos usam seus dados para treinar chatbots e verificar suas respostas.
“Se Bürokratt não souber a resposta, o chat será entregue ao agente de suporte ao cliente, que assumirá o chat e responderá manualmente”, diz Kai Kallas, superintendente do Departamento de Serviços Pessoais da Domínio de Sistemas de Informação da Estônia.
É um sistema de potencial mais restringido do que aquele fundamentado no ChatGPT, pois os modelos de PNL são limitados em sua capacidade de imitar a fala humana e detectar indícios de nuances na linguagem.
No entanto, é improvável que eles dêem respostas erradas ou enganosas.
“Alguns chatbots iniciais forçavam os cidadãos a escolher opções para perguntas. Ao mesmo tempo, permitiam maior controle e transparência de uma vez que o chatbot opera e responde”, explica Colin van Noordt.
“Os chatbots baseados em LLM geralmente têm muito mais qualidade de conversação e podem fornecer respostas mais detalhadas.
“No entanto, isso tem o dispêndio de menos controle do sistema e também pode fornecer respostas diferentes para a mesma pergunta”, acrescenta.