Hot News
A Meta explicou por que seu chatbot de IA não quis responder a perguntas sobre a tentativa de assassinato de Trump e, em alguns casos, negou que o evento tenha ocorrido. A empresa disse que programou a Meta AI para não responder a perguntas sobre um evento logo após ele acontecer, porque normalmente há “uma enorme quantidade de confusão, informações conflitantes ou teorias de conspiração de domínio público”. Quanto ao motivo pelo qual a Meta AI finalmente começou a afirmar que a tentativa não aconteceu “em um pequeno número de casos”, foi aparentemente devido a alucinações.
Uma IA “alucina” quando gera respostas falsas ou enganosas a perguntas que exigem respostas factuais devido a vários fatores, como dados de treinamento imprecisos e modelos de IA com dificuldades para analisar várias fontes de informação. A Meta diz que atualizou as respostas de sua IA e admite que deveria ter feito isso antes. No entanto, ela ainda está trabalhando para resolver seu problema de alucinação, então seu chatbot ainda pode estar dizendo às pessoas que não houve nenhuma tentativa de assassinato do ex-presidente.
Além disso, a Meta também explicou por que suas plataformas de mídia social estavam aplicando incorretamente o rótulo de verificação de fatos à foto de Trump com o punho no ar tirada logo após a tentativa de assassinato. Uma versão adulterada daquela imagem fez parecer que seus agentes do Serviço Secreto estavam sorrindo, e a empresa aplicou um rótulo de verificação de fatos a ela. Como as fotos originais e adulteradas eram quase idênticas, os sistemas da Meta aplicaram o rótulo à imagem real também. A empresa corrigiu o erro desde então.
Os apoiadores de Trump têm chorado muito pelas ações da Meta AI e têm acusado a empresa de suprimir a história. O Google teve que emitir uma resposta própria depois que Elon Musk alegou que o mecanismo de busca da empresa impôs uma “proibição de busca” ao ex-presidente. Musk compartilhou uma imagem que mostrava o preenchimento automático do Google sugerindo “presidente pato donald” quando alguém digita “presidente donald”. O Google explicou que era devido a um bug que afetava seu recurso de preenchimento automático e disse que os usuários podem pesquisar o que quiserem a qualquer momento.
Siga-nos nas redes sociais:
Hotnews.pt |
Facebook |
Instagram |
Telegram
#hotnews #noticias #tecnologia #AtualizaçõesDiárias #SigaHotnews #FiquePorDentro #ÚltimasNotícias #InformaçãoAtual