Os chatbots complementares criados por lucidez sintético generativa oferecem aos consumidores uma oportunidade que nunca tiveram antes.
Com alguns cliques e, muitas vezes, um pagamento com cartão de crédito, você pode gerar um companheiro de IA personalizado exatamente de harmonia com sua preferência.
Quer um namorado de origem latina, com olhos castanhos, constituição musculosa e cabelo pequeno, que goste de fazer caminhadas e seja, entre todas as coisas, ginecologista? Candy.ai oferece essa opção e inúmeras outras.
Em universal, as plataformas complementares de IA, incluindo Replika, Anima: AI Friend e Kindroid, prometem aos consumidores uma experiência de conversação realista com um chatbot cujas características também podem realizar uma fantasia ou sossegar a solidão persistente.
Seu treinador de saúde mental está pronto para enviar uma mensagem para você agora
Tal uma vez que muitas tecnologias emergentes, é fácil imaginar companheiros de IA a viver à profundeza do seu profundo potencial. Na melhor das hipóteses, um usuário poderia melhorar suas habilidades sociais, tornar-se mais positivo e sentir-se mais conectado à sua rede humana. Mas há poucas pesquisas que sugiram que isso acontecerá com a maioria dos usuários, na maioria das vezes.
Se você está pensando em projetar o chatbot dos seus sonhos, cá está o que você deve saber antes de gastar seu tempo – e seu quantia – projetando um:
Os companheiros de IA ajudam as pessoas?
A investigação sobre companheiros de IA é tão novidade que não podemos tirar quaisquer conclusões sobre a sua utilidade, diz Michael SA Graziano, professor de neurociência no Instituto de Neurociências de Princeton.
Graziano foi coautor de um estudo com 70 usuários do Replika e 120 pessoas que não usaram um chatbot complementar para entender melhor suas experiências. O estudo, que apareceu no outono pretérito uma vez que uma pré-impressão na plataforma de compartilhamento de pesquisas arXiv, está sob revisão por pares.
Os usuários do Replika quase sempre avaliaram as interações com seus companheiros uma vez que positivas. Eles avaliaram seus relacionamentos com chatbots uma vez que úteis para interações sociais gerais com outras pessoas, muito uma vez que com amigos e familiares. Eles também sentiram que o chatbot afetou positivamente a sua autoestima.
Graziano alerta que o estudo fornece somente um retrato das experiências dos usuários. Aliás, ele observa que as pessoas em posição de se beneficiarem ao supremo, por serem intensamente solitárias, podem constituir a maioria dos usuários, criando assim um viés não premeditado nos resultados.
Graziano está atualmente trabalhando em um estudo longitudinal para rastrear os efeitos das interações de companheiros de IA ao longo do tempo. Os participantes foram designados aleatoriamente para usar ou não um chatbot complementar, e Graziano e seus coautores estão medindo aspectos de sua saúde mental e bem-estar.
Notícias principais do Mashable
Ele ficou surpreso ao deslindar que tanto entre os usuários do chatbot quanto entre os participantes de controle, a percepção de que o acompanhante era mais humano levou a opiniões mais positivas sobre ele.
“Quanto mais tendiam a pensar que a IA era consciente, mais positivos eram sobre o seu potencial para o horizonte… sobre o impacto que teria sobre eles pessoalmente ou sobre a sociedade em universal”, diz Graziano.
Portanto, é provável que sua atitude em relação às características humanas de um companheiro de IA possa afetar sua experiência de interação com ele.
Conversando com um companheiro de IA
Depois de fazer seu companheiro, você precisa iniciar uma conversa. Esses chatbots normalmente contam com um sistema proprietário que combina diálogo com script e um grande padrão de linguagem. As empresas que hospedam parceiros de IA não são necessariamente transparentes sobre quais dados usaram.
Um cláusula recente, também uma pré-impressão no arXiv, descobriu que vários grandes modelos de linguagem usados para cuidados de saúde mental foram treinados em conjuntos de dados de mídia social, incluindo X (idoso Twitter) e Reddit. É perfeitamente provável que os companheiros também tenham sido treinados nas redes sociais, talvez entre outras fontes.
Essa possibilidade é relevante quando se considera se devemos incumbir em plataformas digitais para conexões ou erigir um chatbot, embora Graziano diga que os conjuntos de dados usados para companheiros podem ser tão vastos que isso não importa.
Ele observa que as plataformas complementares podem modificar os parâmetros de fala para o envolvimento com chatbots para reduzir a incidência de comportamento indesejado.
Replika, por exemplo, bloqueou “recursos de sexting” não seguros para o trabalho em 2023, supostamente depois que alguns usuários reclamaram que seu companheiro os havia “sitiado sexualmente”. O CEO da empresa disse ao Business Insider que a plataforma nunca foi concebida uma vez que um “brinquedo adulto”. Muitos usuários ficaram indignados e sentiram uma angústia genuína quando seu companheiro não parecia ter a personalidade que haviam espargido. A empresa controladora da Replika, Luka, agora oferece um simulador de namoro com tecnologia de IA chamado Blush, talhado à “exploração romântica”.
Um estudo de 2020 com usuários do Replika, no qual Graziano não esteve envolvido, descobriu que alguns apreciavam poder falar francamente “sem pânico de julgamento ou retaliação”. Graziano diz que os usuários que desejam falar livremente sobre qualquer coisa, o que pode ser mais gratificante do que medir palavras, podem encontrar seu companheiro menos responsivo, dependendo do objecto e do linguagem.
É evidente que não é isento de riscos compartilhar seus pensamentos e sentimentos mais íntimos com um companheiro de IA, principalmente quando ele não está sujeito às leis de privacidade médica. Embora algumas empresas garantam a privacidade, os usuários devem tomar desvelo com políticas de privacidade densas, que podem sofrear lacunas difíceis de entender.
As plataformas podem modificar suas políticas a qualquer momento
Embora a companhia da IA possa ter um efeito positivo profundo sobre os utilizadores, continua a ser uma relação transacional. As empresas que prestam o serviço ainda deverão responder aos acionistas ou investidores, que poderão exigir mais lucro.
As plataformas mais populares dependem de modelos de assinatura mensal ou anual para gerar receita. Alguns juraram que não venderiam dados de usuários a profissionais de marketing.
Mas os anunciantes certamente considerariam estes dados altamente valiosos, e um padrão em que um companheiro de IA apresentasse os seus produtos favoritos a um utilizador, naturalmente no decurso de uma conversa relacionada, parece inteiramente viável. Porquê consequência, alguns usuários podem se revoltar, mas outros podem gostar das recomendações personalizadas. Independentemente disso, a empresa poderia fazer essa mudança se desejasse.
Manter um tá nível de engajamento também é provavelmente ideal para plataformas complementares. Assim uma vez que a mídia social é projetada para manter as pessoas navegando, pode possuir elementos de design de chatbot complementar de IA que exploram tendências psicológicas naturais para maximizar o envolvimento.
Por exemplo, os usuários do Replika que abrem o aplicativo diariamente podem lucrar uma recompensa. Eles também podem lucrar “moedas” e “joias”, que podem ser usadas na loja do aplicativo Replika para comprar itens que personalizam a figura do seu companheiro.
Quer o seu chatbot companheiro de IA saiba disso ou não, eles podem ser programados para mantê-lo falando ou voltando para eles pelo maior tempo provável.
Tópicos
Saúde Mental com Lucidez Sintético