A Meta informou, nesta sexta-feira (5), mudanças importantes em suas políticas sobre mídias digitalmente criadas e alteradas, meses antes das eleições estadunidenses, de modo a testar sua capacidade de policiar conteúdos enganosos gerados pela inteligência artificial (IA).

A companhia seguirá aplicando rótulos com a inscrição “Feito com IA” (Made with AI, em inglês) para vídeos, imagens e áudios gerados por IA e postado em suas plataformas, expandindo política inserida anteriormente apenas em pequena parcela de vídeos modificados.

Leia mais:

O comunicado foi publicado em blog da empresa pela vice-presidente de política de conteúdo da companhia, Monika Bickert, informou a Reuters.

Bickert informou ainda que a Meta deve aplicar rótulos separados e mais proeminentes às mídias digitalmente alteradas que representam “risco particularmente alto de enganar materialmente o público sobre uma questão importante”, o conteúdo tendo sido criado por IA ou outras ferramentas.

A mudança vem após críticas do Conselho de Supervisão da empresa, que chamou as políticas então usadas de “incoerentes”. O Oversight Board, um grupo externo financiado pela Meta, pediu à empresa que estendesse a política para lidar com áudio e vídeos alterados quando eles retratam falsamente pessoas fazendo coisas, informa o The Washington Post.

“Concordamos com o argumento do Conselho de Supervisão de que nossa abordagem existente é muito restrita” porque se aplica apenas a discursos falsos e não a ações alteradas, disse Bickert.

“Nossa política de mídia manipulada foi escrita em 2020, quando o conteúdo realista gerado por IA era raro e a preocupação geral era com os vídeos.”

Meta e suas regras contra deepfakes

  • A nova abordagem da Meta, segundo a Reuters, irá mudar o tratamento da companhia com relação aos conteúdos manipulados;
  • O foco sairá da remoção de conjunto limitado de publicações para um que mantém o conteúdo no ar enquanto indica aos usuários como ele foi feito;
  • Um porta-voz da Meta indicou à Reuters que a nova abordagem de rotulação será utilizada no Facebook, Instagram e Threads, enquanto WhatsApp, Meta Quest e outros serviços da empresa serão abarcados por outras regras;
  • A nova abordagem passará a ser aplicada imediatamente, segundo o porta-voz;
  • A política pode ser aplicada a conteúdos que não sejam feitos por IA, os quais “não é necessariamente menos enganoso” do que o que é gerado pela IA, além de conteúdos de áudio e vídeos retratando pessoas realizando algo que, na verdade, não fizeram.

O post Meta remodela suas regras contra deepfakes e similares apareceu primeiro em Olhar Digital.