YouTube obriga usuários a identificar vídeos feitos com Inteligência Artificial que simulam pessoas reais

O sistema, assim como a confirmação de idade, está baseado na honestidade do usuário ao assinalar sim ou não

O YouTube criou um novo protocolo que exige dos usuários a inclusão de um aviso na publicação de conteúdos realistas feitos com inteligência artificial (IA). Com isso, a plataforma pretende evitar a confusão de vídeos manipulados e fictícios com eventos, locais e pessoas reais.

Para isso, durante a publicação de vídeos, o canal é obrigado a indicar, com sim ou não, se o conteúdo faz uma pessoa real dizer ou fazer algo que ela não fez, se altera algum registro visual, evento real ou lugar e se gera uma cena realista que nunca existiu. Ao clicar no “SIM”, um aviso de que o conteúdo é sintético ou alterado aparece na descrição do vídeo em questão.

A eficácia do sistema é questionável, pois se baseia na honestidade do usuário em declarar o conteúdo de seu vídeo. E o mesmo não funciona na confirmação da idade, onde pessoas menores simplesmente clicam afirmando ser +18 e, com isso, acessam conteúdos que lhes são (ou deveriam ser) censurados.

Porém, o YT afirma que pode adicionar um aviso mesmo se o criador não o fizer. Além disso, outros rótulos serão incluídos em vídeos com conteúdos sensíveis como saúde, eleições e finanças.

A medida foi implementada nesta segunda-feira (18), mas já tinha sido anunciada em novembro do ano passado, na forma de uma atualização das políticas da plataforma para conteúdos baseados em IA. Vídeos gerados por IA, mas que não usam a aparência ou voz de uma pessoa real nem alteram eventos ou locais reais, não são afetados pela medida.

Outro recurso mencionado em novembro, mas ainda não implementado na última atualização da plataforma, é a possibilidade de uma pessoa comum solicitar um pedido de avaliação em vídeos de deepfake que usam sua imagem.

google news