YouTube leva detecção de deepfakes a artistas e mira uso indevido de imagem no entretenimento

Ferramenta de detecção do YouTube mira deepfakes com rosto de artistas e chega a agências como CAA, UTA e WME, sem exigir canal próprio.
Foto de Nathália Pandeló
Nathália Pandeló
Deepfake (Crédito Marks Winkler)
Crédito: Marks Winkler

A detecção de deepfakes entrou em uma nova etapa no YouTube. A plataforma anunciou a expansão da sua tecnologia de identificação de semelhança para a indústria do entretenimento, incluindo agências de talentos, empresas de gerenciamento artístico e celebridades representadas por essas companhias. O sistema busca vídeos gerados por inteligência artificial (IA) que usem o rosto de uma pessoa sem autorização.

O movimento aproxima a discussão sobre IA de um ponto sensível para artistas, atores, apresentadores e influenciadores: a imagem passou a ser um ativo tão vulnerável quanto uma música, um clipe ou um catálogo. Com ferramentas de IA mais acessíveis, ficou mais fácil criar vídeos falsos, anúncios enganosos e conteúdos que simulam a presença de figuras públicas em situações nas quais elas nunca estiveram.

A tecnologia funciona de forma parecida com o Content ID, sistema já usado pelo YouTube para localizar conteúdo protegido por direitos autorais. A diferença é que, neste caso, a busca não é por uma música ou por um trecho de vídeo protegido, mas por uma semelhança visual. Quando encontra um possível deepfake, a ferramenta permite que a pessoa ou sua equipe avalie o caso e solicite a remoção do conteúdo.

Como a ferramenta chega ao entretenimento

A expansão foi feita com apoio de grandes empresas do setor, como CAA, UTA, WME e Untitled Management. Segundo o YouTube, essas companhias ajudaram a ajustar o funcionamento da ferramenta para atender melhor às demandas de artistas e celebridades. Um ponto importante é que o acesso não depende de a pessoa ter um canal na plataforma, o que torna o recurso útil também para atores, músicos e personalidades que não produzem conteúdo diretamente para o YouTube.

A decisão vem depois de outras fases de teste. A tecnologia foi disponibilizada primeiro para um grupo de criadores, depois chegou a políticos, autoridades e jornalistas. Agora, entra no campo do entretenimento, onde a relação entre imagem, reputação e negócio é ainda mais direta. Para um artista, um vídeo falso pode afetar campanhas publicitárias, turnês, contratos de licenciamento e até a percepção do público sobre sua trajetória.

A ferramenta também mostra como as plataformas estão tentando transformar problemas de IA em processos de moderação mais estruturados. Antes, a resposta a um deepfake dependia muito de denúncias pontuais e da capacidade das equipes de encontrar manualmente o conteúdo. Com a detecção automatizada, a busca passa a acontecer de forma mais parecida com o monitoramento de obras protegidas.

O que muda para artistas e representantes

YouTube, detecção, deepfake
Crédito: Freepik

Para artistas, a novidade pode reduzir o tempo entre a publicação de um conteúdo falso e a reação da equipe. Isso é especialmente relevante em casos de golpes com anúncios, vídeos que simulam declarações públicas ou conteúdos que usam o rosto de uma celebridade para promover produtos sem autorização. O YouTube informa que a ferramenta permite solicitar remoção por violação de privacidade, pedido de remoção por direitos autorais ou simplesmente não tomar nenhuma ação.

Ainda assim, a detecção não significa remoção automática em todos os casos. A plataforma mantém exceções para conteúdos como paródia e sátira, o que indica que cada solicitação deve passar por avaliação. Esse ponto é importante porque separa dois debates diferentes: o combate a usos enganosos da imagem e a preservação de conteúdos de comentário, crítica ou humor.

Para o mercado musical, o tema conversa com uma preocupação mais complexa: a identidade do artista está se tornando um campo de disputa digital. Não se trata apenas de impedir músicas falsas em perfis oficiais, mas de controlar o uso da voz, do rosto e do nome em ambientes onde a IA consegue simular presença e performance. O YouTube já indicou que a tecnologia deve dar suporte a áudio no futuro, o que pode aproximar ainda mais a ferramenta das demandas de músicos e cantores.

A corrida das plataformas contra conteúdos falsos

A medida do YouTube surge em um momento em que outras plataformas também tentam lidar com conteúdos artificiais em escala. A Deezer, por exemplo, informou em abril que recebe quase 75 mil faixas totalmente geradas por IA por dia, o equivalente a 44% das entregas diárias de novas músicas na plataforma. A empresa também afirma que usa tecnologia própria de detecção desde o início de 2025.

O Spotify também entrou nesse debate ao lançar, em fase beta, o Artist Profile Protection, recurso que permite a artistas revisar lançamentos elegíveis antes que apareçam em seus perfis. A empresa afirma que músicas têm sido associadas a páginas erradas em serviços de streaming e que faixas fáceis de produzir com IA agravaram esse problema.

Essas iniciativas apontam para uma mudança de lógica. Durante anos, a prioridade das plataformas foi organizar catálogos e lidar com direitos autorais de obras. Agora, o foco passa também pela proteção da identidade. Para artistas, managers e gravadoras, isso pode criar uma nova rotina de vigilância, com menos improviso e mais ferramentas para reagir a usos indevidos.

O desafio é que a mesma tecnologia que facilita a criação de conteúdos sintéticos também torna mais difícil separar uso criativo, paródia, golpe e violação de imagem. A detecção do YouTube não encerra essa discussão, mas coloca as plataformas no centro da responsabilidade sobre como esses deepfakes circulam, são avaliados e podem ser retirados do ar.

Leia mais: