2 pontos por baeba 2025-07-14 | 5 comentários | Compartilhar no WhatsApp

Pontos principais:

  • O YouTube tenta regular conteúdo de baixa qualidade gerado por IA, mas ao mesmo tempo oferece diretamente ferramentas de geração.
  • Foi anunciada uma nova política para proibir conteúdo repetitivo e sem autenticidade.
  • A responsabilidade do Google também existe no contexto da disseminação de conteúdo por IA.
  • A regulação centrada em autodeclaração dos usuários tem limitações de efetividade.
  • O Google espera lucrar com conteúdo de IA, enquanto o YouTube tenta se manter limpo, em uma postura contraditória.

Introdução: o problema de conteúdo de IA enfrentado pelo YouTube

  • O volume de conteúdo de baixa qualidade gerado por IA no YouTube está crescendo rapidamente.
  • O Google tenta regulá-lo, mas também contribui para sua expansão ao fornecer ferramentas de IA.
  • A disseminação de AI slop (conteúdo lixo) prejudica a credibilidade da plataforma.

Desenvolvimento

1. Anúncio da nova política do YouTube
  • A partir de 15 de julho de 2025, o YouTube reforçará os critérios de monetização do Programa de Parcerias do YouTube (YPP).
  • “Conteúdo produzido em massa e repetitivo” e “conteúdo sem autenticidade” poderão ter a monetização limitada ou resultar na expulsão da conta.
  • Criadores focados em reactions ou clips não serão afetados diretamente.
2. Uma medida na continuidade da política existente
  • Mesmo antes, conteúdo editado sem autorização e reupload não era elegível para monetização.
  • Desta vez, apenas passou a incluir explicitamente também “conteúdo gerado por IA”.
3. A realidade do conteúdo gerado por IA
  • Vídeos gerados por IA estão inundando especialmente os Shorts, com uso de IA em imagens, roteiro e até voz.
  • Há upload de faixas em nome de cantores falsos e sistemas automatizados que publicam dezenas de posts por dia.
  • O modelo de buscar lucro ao ser capturado pelo algoritmo se tornou comum.
4. O problema de desinformação e conteúdo manipulado
  • Parte do conteúdo busca visualizações com trailers falsos e materiais semelhantes.
  • O YouTube já aplica uma política de rotulagem para conteúdo gerado por IA, mas depende da autodeclaração.
  • Usuários mal-intencionados estão driblando esses rótulos.
5. O conteúdo artificial dos “podcasts de IA”
  • Resumos de notícias são lidos com voz de IA, com encenação de conversas falsas.
  • O resultado é estranho e sem autenticidade.
  • Isso viola as políticas do YouTube, mas a produção usa o Gemini, do Google.
6. Divulgação da ferramenta de geração de vídeo por IA do Google
  • Veo 3: recurso de geração de vídeo por IA em alta qualidade com até 8 segundos, em integração ao YouTube.
  • Há possibilidade de se tornar um serviço pago.
  • Existe um sistema automático de tags, mas há grande possibilidade de contorno ao reenviar o vídeo.

Conclusão: a contradição entre lucro e regulação

  • O Google oferece ferramentas de IA e incentiva a criação de conteúdo,
    enquanto no YouTube tenta excluir conteúdo de baixa qualidade, mostrando uma postura ambígua.
  • Do ponto de vista do público, é difícil que esses dois objetivos sejam atendidos ao mesmo tempo.
  • No fim, é necessária uma estratégia consistente para a credibilidade do YouTube e a saúde do seu ecossistema.

5 comentários

 
kylian 2025-07-18

Mesmo sem isso, hoje em dia quando vejo os Shorts, está tudo inundado de conteúdo de baixa qualidade cheio de TTS, imagens cuspidas por IA e até legendas feitas por IA errando frases simples, então acho que é a direção certa..!

 
sinbumu 2025-07-15

Será que a pessoa que escreveu aquele texto ficou suspensa depois de fazer uns Shorts genéricos no clique, kkk

 
dbs0829 2025-07-14

Não seria justamente uma postura de assumir responsabilidade? Eu até concordo com a direção que o Google está tomando.

 
zetbouaka 2025-07-14

Não sei por que isso seria considerado uma postura dupla...

 
reagea0 2025-07-14

Também concordo. Não sei se isso é uma postura dupla. Mas eles parecem deixar em paz os que são bem feitos.