A contradição do YouTube: lucrar com IA e combater IA
(itworld.co.kr)Pontos principais:
- O YouTube tenta regular conteúdo de baixa qualidade gerado por IA, mas ao mesmo tempo oferece diretamente ferramentas de geração.
- Foi anunciada uma nova política para proibir conteúdo repetitivo e sem autenticidade.
- A responsabilidade do Google também existe no contexto da disseminação de conteúdo por IA.
- A regulação centrada em autodeclaração dos usuários tem limitações de efetividade.
- O Google espera lucrar com conteúdo de IA, enquanto o YouTube tenta se manter limpo, em uma postura contraditória.
Introdução: o problema de conteúdo de IA enfrentado pelo YouTube
- O volume de conteúdo de baixa qualidade gerado por IA no YouTube está crescendo rapidamente.
- O Google tenta regulá-lo, mas também contribui para sua expansão ao fornecer ferramentas de IA.
- A disseminação de AI slop (conteúdo lixo) prejudica a credibilidade da plataforma.
Desenvolvimento
1. Anúncio da nova política do YouTube
- A partir de 15 de julho de 2025, o YouTube reforçará os critérios de monetização do Programa de Parcerias do YouTube (YPP).
- “Conteúdo produzido em massa e repetitivo” e “conteúdo sem autenticidade” poderão ter a monetização limitada ou resultar na expulsão da conta.
- Criadores focados em reactions ou clips não serão afetados diretamente.
2. Uma medida na continuidade da política existente
- Mesmo antes, conteúdo editado sem autorização e reupload não era elegível para monetização.
- Desta vez, apenas passou a incluir explicitamente também “conteúdo gerado por IA”.
3. A realidade do conteúdo gerado por IA
- Vídeos gerados por IA estão inundando especialmente os Shorts, com uso de IA em imagens, roteiro e até voz.
- Há upload de faixas em nome de cantores falsos e sistemas automatizados que publicam dezenas de posts por dia.
- O modelo de buscar lucro ao ser capturado pelo algoritmo se tornou comum.
4. O problema de desinformação e conteúdo manipulado
- Parte do conteúdo busca visualizações com trailers falsos e materiais semelhantes.
- O YouTube já aplica uma política de rotulagem para conteúdo gerado por IA, mas depende da autodeclaração.
- Usuários mal-intencionados estão driblando esses rótulos.
5. O conteúdo artificial dos “podcasts de IA”
- Resumos de notícias são lidos com voz de IA, com encenação de conversas falsas.
- O resultado é estranho e sem autenticidade.
- Isso viola as políticas do YouTube, mas a produção usa o Gemini, do Google.
6. Divulgação da ferramenta de geração de vídeo por IA do Google
- Veo 3: recurso de geração de vídeo por IA em alta qualidade com até 8 segundos, em integração ao YouTube.
- Há possibilidade de se tornar um serviço pago.
- Existe um sistema automático de tags, mas há grande possibilidade de contorno ao reenviar o vídeo.
Conclusão: a contradição entre lucro e regulação
- O Google oferece ferramentas de IA e incentiva a criação de conteúdo,
enquanto no YouTube tenta excluir conteúdo de baixa qualidade, mostrando uma postura ambígua. - Do ponto de vista do público, é difícil que esses dois objetivos sejam atendidos ao mesmo tempo.
- No fim, é necessária uma estratégia consistente para a credibilidade do YouTube e a saúde do seu ecossistema.
5 comentários
Mesmo sem isso, hoje em dia quando vejo os Shorts, está tudo inundado de conteúdo de baixa qualidade cheio de TTS, imagens cuspidas por IA e até legendas feitas por IA errando frases simples, então acho que é a direção certa..!
Será que a pessoa que escreveu aquele texto ficou suspensa depois de fazer uns Shorts genéricos no clique, kkk
Não seria justamente uma postura de assumir responsabilidade? Eu até concordo com a direção que o Google está tomando.
Não sei por que isso seria considerado uma postura dupla...
Também concordo. Não sei se isso é uma postura dupla. Mas eles parecem deixar em paz os que são bem feitos.