A Meta não vai, por enquanto, utilizar conteúdos públicos dos utilizadores do Facebook e do Instagram na União Europeia (UE) e no Reino Uno para treinar modelos de perceptibilidade sintético (IA). Trata-se de uma medida temporária adotada pela empresa tecnológica norte-americana em resposta à pressão de várias entidades reguladoras europeias.
Meta forçada a modificar o seu projecto
O proclamação surge dias depois de a Percentagem de Proteção de Dados (Percentagem de Proteção de Dados - DPC) da Irlanda ter pedido a suspensão da controversa iniciativa da Meta, em nome de várias autoridades de proteção de dados do conjunto. O Gabinete do Comissário de Informação (ICO) do Reino Uno também manifestou a sua preocupação.
A empresa liderada por Mark Zuckerberg deixou evidente, num transmitido publicado na sexta-feira, que está "desapontada" com o pedido da DPC. Neste sentido, salientou também que o atual cenário é "um passo detrás para a inovação e concorrência europeias no desenvolvimento da IA".
Estava previsto que a gigante das redes sociais começasse a utilizar as atualizações de estado, imagens, comentários e interações públicas dos utilizadores do Facebook e do Instagram a partir de 26 de junho para treinar modelos de IA. Porquê podemos ver, nascente projeto está agora suspenso até novidade ordem.
É de notar que a Meta está convencida de que a atividade supra mencionada está em conformidade com os regulamentos atuais, especificamente o Regulamento Universal de Proteção de Dados (Regulamento Universal de Proteção de Dados - GDPR). De harmonia com a empresa, estão a basear-se nos "interesses legítimos" que outros intervenientes da indústria também utilizaram para treinar os seus modelos de IA.
A Meta diz que precisa de dados de utilizadores europeus para que os seus modelos de IA possam refletir "as diversas línguas, geografia e referências culturais das pessoas na Europa".
Se a empresa americana transpor vitoriosa na UE e conseguir contornar os obstáculos que encontrou pelo caminho, os utilizadores deverão ter ainda a hipótese de fazer uma série de ajustes nos seus perfis para evitar que os seus dados sejam utilizados para treinar modelos de perceptibilidade sintético.
Leia também: