Inscreva-se no The Brief, o boletim informativo quotidiano do The Texas Tribune que mantém os leitores atualizados sobre as notícias mais essenciais do Texas.
Quando a Texas Workforce Commission foi inundada com pedidos de subvenção de desemprego em março de 2020, recorreu à perceptibilidade sintético.
Carinhosamente nomeado em homenagem ao ex-chefe da filial, Larry Temple, que havia morrido um ano antes, “Larry”, o chatbot, foi projetado para ajudar os texanos a se inscreverem para receber seguro-desemprego.
Uma vez que uma página de perguntas frequentes da próxima geração, Larry responderia a perguntas geradas por usuários sobre casos de desemprego. Usando o processamento de linguagem de IA, o bot determinaria qual resposta pré-escrita pela equipe humana se ajustaria melhor à formulação exclusiva da pergunta do usuário. O chatbot respondeu a mais de 21 milhões de perguntas antes de ser substituído pelo Larry 2.0 em março pretérito.
Larry é um exemplo de porquê a perceptibilidade sintético tem sido usada por agências estatais. A adaptação da tecnologia no governo estadual tem desenvolvido nos últimos anos. Mas essa aceleração também suscitou receios de consequências não intencionais, porquê preconceito, perda de privacidade ou perda de controlo da tecnologia. Levante ano, o Legislativo comprometeu-se a assumir um papel mais ativo no monitoramento de porquê o estado está usando a IA.
“Isto vai revolucionar totalmente a forma porquê governamos”, disse o deputado estadual Giovanni Capriglione, R-Southlake, que redigiu um projeto de lei talhado a ajudar o estado a fazer melhor uso da tecnologia de IA.
Em junho, o governador Greg Abbott sancionou o projeto de lei, House Bill 2060, criando um juízo consultivo de IA para estudar e fazer um inventário das formas porquê as agências estaduais utilizam atualmente a IA e calcular se o estado precisa de um código de moral para a IA. O papel do juízo na monitorização do que o estado está a fazer com a IA não envolve a elaboração de uma política final.
A perceptibilidade sintético descreve uma classe de tecnologia que emula e se baseia no raciocínio humano por meio de sistemas de computador. O chatbot usa processamento de linguagem para entender as perguntas dos usuários e combiná-las com respostas pré-determinadas. Novas ferramentas porquê ChatGPT são categorizadas porquê IA generativa porque a tecnologia gera uma resposta única com base em uma solicitação do usuário. A IA também é capaz de examinar grandes conjuntos de dados e usar essas informações para automatizar tarefas anteriormente executadas por humanos. A tomada de decisão automatizada está no meio do OH 2060.
Mais de um terço das agências estaduais do Texas já utilizam alguma forma de perceptibilidade sintético, de conciliação com um relatório de 2022 do Departamento de Recursos de Informação do Texas. A percentagem de força de trabalho também possui uma utensílio de IA para quem procura tarefa, que fornece recomendações personalizadas de vagas de tarefa. Várias agências estão usando IA para trasladar idiomas para o inglês e ferramentas de call center, porquê fala para texto. A IA também é usada para melhorar a segurança cibernética e a detecção de fraudes.
A automação também é usada para trabalhos demorados, a termo de “aumentar a produção e a eficiência do trabalho”, de conciliação com um expedido do Departamento de Recursos de Informação. Um exemplo disso poderia ser o rastreamento de despesas orçamentárias e faturas. Em 2020, o DIR lançou um Núcleo de Primazia em IA com o objetivo de ajudar agências estaduais a implementar mais tecnologia de IA. A participação no meio do DIR é voluntária e cada filial normalmente tem a sua própria equipa tecnológica, pelo que a extensão da automação e da implantação da IA nas agências estatais não é acompanhada de perto.
Neste momento, as agências estatais do Texas têm de verificar se a tecnologia que utilizam cumpre os requisitos de segurança estabelecidos pela lei estadual, mas não existem requisitos de divulgação específicos sobre os tipos de tecnologia ou porquê são utilizadas. O HB 2060 exigirá que cada filial forneça essas informações ao juízo consultivo de IA até julho de 2024.
“Queremos que as agências sejam criativas”, disse Capriglione. Ele é em prol de encontrar mais casos de uso para IA que vão muito além dos bots de bate-papo, mas reconhece que há preocupações quanto à má qualidade dos dados que impedem o sistema de funcionar conforme planejado: “Teremos que definir algumas regras”.
À medida que a adoção da IA cresceu, também aumentaram as preocupações em torno da moral e da funcionalidade da tecnologia. O juízo consultivo de IA é o primeiro passo para supervisionar porquê a tecnologia está sendo implantada. O juízo de sete membros incluirá um membro da Câmara estadual e do Senado, um diretor executivo e quatro indivíduos nomeados pelo governador com experiência em IA, moral, emprego da lei e recta constitucional.
Samantha Shorey é professora assistente na Universidade do Texas, em Austin, e estudou as implicações sociais da perceptibilidade sintético, principalmente do tipo concebido para aumentar a automação. Ela está preocupada com o facto de que, se a tecnologia for capacitada para tomar mais decisões, irá replicar e aumentar a desigualdade social: “Poderá levar-nos mais rapidamente em direcção ao objectivo final. Mas isso está nos levando em direção ao objetivo final que desejamos?”
Os defensores do uso de mais IA veem a automação porquê uma forma de fazer o governo trabalhar de forma mais eficiente. O aproveitamento da tecnologia mais recente poderia ajudar a correr a gestão de casos para os serviços sociais, fornecer resumos imediatos de extensas análises políticas ou agilizar o processo de contratação e formação de novos funcionários públicos.
No entanto, Shorey é precatado quanto à possibilidade de a perceptibilidade sintético ser incluída nos processos de tomada de decisão, porquê instituir quem se qualifica para benefícios de serviço social ou por quanto tempo alguém deve permanecer em liberdade condicional. No início deste ano, o Departamento de Justiça dos EUA começou a investigar alegações de que o protótipo de IA de um condado da Pensilvânia, talhado a ajudar a melhorar o bem-estar infantil, discriminava pais com deficiência e resultava na retirada dos seus filhos.
Os sistemas de IA “tendem a haurir quaisquer preconceitos existentes nos dados anteriores”, disse Suresh Venkatasubramanian, diretor do Núcleo de Responsabilidade Tecnológica da Universidade Brown. A perceptibilidade sintético treinada com base em dados que incluem qualquer tipo de preconceito de género, religião, raça ou outro corre o risco de aprender a discriminar.
Além do problema dos dados falhos que reproduzem a desigualdade social, existem também preocupações com a privacidade em torno da obediência da tecnologia na recolha de grandes quantidades de dados. O que a IA poderá estar a fazer com esses dados ao longo do tempo também está a gerar receios de que os humanos percam qualquer controlo sobre a tecnologia.
“À medida que a IA se torna cada vez mais complicada, é muito difícil entender porquê esses sistemas funcionam e por que tomam decisões dessa maneira”, disse Venkatasubramanian.
Esse susto é partilhado por Jason Green-Lowe, diretor executivo do Center for AI Policy, um grupo que tem feito lobby por uma segurança mais rigorosa da IA em Washington DC. Com o ritmo veloz da tecnologia e a falta de supervisão regulatória, disse Green-Lowe, “em breve poderemos nos encontrar em um mundo onde a IA é principalmente a direção. … E o mundo começa a reorientar-se para servir os interesses da IA em vez dos interesses humanos.”
Alguns especialistas técnicos, no entanto, estão mais confiantes de que os humanos permanecerão no comando da crescente implantação da IA. Alex Dimakis, professor de engenharia elétrica e ciência da computação na Universidade do Texas em Austin, trabalhou na percentagem de perceptibilidade sintético da Câmara de Negócio dos EUA.
Na opinião de Dimakis, os sistemas de IA devem ser transparentes e sujeitos a uma avaliação independente conhecida porquê red teaming, um processo no qual os dados subjacentes e o processo de tomada de decisão da tecnologia são examinados por vários especialistas para instituir se são necessárias medidas de segurança mais robustas.
“Você não pode se esconder detrás da IA”, disse Dimakis. Além da transparência e da avaliação, Dimakis disse que o estado deve fazer satisfazer as leis existentes contra quem criou a IA em qualquer caso em que a tecnologia produza um resultado que viole a lei: “utilizar as leis existentes sem permanecer confuso com o facto de um sistema de IA estar no meio”.
O juízo consultivo da IA apresentará as suas conclusões e recomendações ao Legislativo até dezembro de 2024. Entretanto, cresce o interesse na implantação da IA em todos os níveis de governo. O DIR opera um grupo de usuários de perceptibilidade sintético formado por representantes de agências estaduais, ensino superior e governo sítio interessados em implementar IA.
O interesse no grupo de usuários cresce a cada dia, segundo um porta-voz do DIR. O grupo tem mais de 300 membros representando mais de 85 entidades diferentes.
Divulgação: A Universidade do Texas em Austin e a Câmara de Negócio dos EUA têm bem financeiramente o The Texas Tribune, uma organização de notícias sem fins lucrativos e apartidária que é financiada em segmento por doações de membros, fundações e patrocinadores corporativos. Os apoiadores financeiros não desempenham nenhum papel no jornalismo do Tribune. Encontre uma lista completa deles cá.