1 pontos por GN⁺ 2025-08-27 | 1 comentários | Compartilhar no WhatsApp
  • O vídeo do show de Will Smith foi acusado de mostrar um público falso gerado por IA, mas na realidade era baseado em gravações feitas por fãs reais
  • O vídeo em questão foi montado misturando cenas do show com fotos reais do público em festivais, e alguns cortes da plateia foram animados com um modelo de IA de imagem para vídeo
  • Porém, um experimento de pós-processamento do YouTube Shorts (desfoque reverso e redução de ruído) foi acrescentado, fazendo com que os rostos da plateia ficassem estranhamente deformados e os cartazes distorcidos, o que fez parecer manipulação por IA
  • O mesmo vídeo publicado no Instagram e no Facebook apresentava menos distorções, mostrando que a correção automática do YouTube agravou a situação
  • Em resumo, o público era real, mas a combinação do ajuste por IA feito pela equipe do artista com os filtros do YouTube gerou a polêmica entre o que é real e o que é falso

O início da polêmica

  • Quando o vídeo de 1 minuto foi divulgado, grandes veículos como Rolling Stone, NME e Mashable noticiaram as suspeitas de manipulação por IA
  • Os rostos da plateia no vídeo exibiam deformações típicas de IA, múltiplos dedos e marcas bizarras
  • Em especial, um cartaz com a frase “From West Philly to West Swizzy” foi reconhecido incorretamente, aumentando ainda mais a controvérsia

Confirmação das cenas reais do show

  • O vídeo foi editado alternando cenas do público do Positiv Festival, em Orange, na França, do Gurtenfestival e do Paléo Festival, na Suíça, e do Ronquieres Festival, na Bélgica
  • Fotos desses shows e vídeos feitos por fãs confirmaram as mesmas pessoas e os mesmos cartazes, comprovando que o público era real
  • Também existe o cartaz com a história de um casal em tratamento contra o câncer, e várias fotos e vídeos permanecem no Instagram de Will Smith

As duas etapas da manipulação por IA

  1. A equipe de Will Smith usou fotos oficiais do show em um modelo de IA de imagem para vídeo (Runway, Veo 3 etc.) para gerar clipes curtos
  2. O pós-processamento automático do YouTube Shorts (unblur e denoise) foi aplicado por cima, deixando o vídeo ainda mais borrado e artificial

O experimento do YouTube Shorts

  • As versões publicadas no Instagram e no Facebook são relativamente nítidas, mas o YouTube aplicou um “experimento de tecnologia de aprimoramento por IA”, produzindo um efeito geral de imagem amassada
  • O YouTube explicou que se trata de uma “tecnologia de nitidez baseada em aprendizado de máquina tradicional”, mas a aplicação sem aviso prévio ampliou a polêmica
  • Depois da reação negativa dos criadores, a empresa anunciou que adicionará uma função de opt-out

Conclusão

  • A maioria dos usuários de YouTube, Reddit e X acredita que se trata de “um vídeo com fãs falsos criados por IA generativa”
  • Na realidade, pessoas reais aparecem no público, mas a transformação de imagem para vídeo feita pela equipe de Will Smith e o pós-processamento do YouTube maximizaram a aparência artificial
  • Isso levanta a necessidade de uma distinção ética entre aplicar um curto efeito de animação a fotos de shows com modelos de imagem para vídeo e gerar uma multidão completamente fictícia
  • Em última análise, este caso mostra como um show real pode parecer ‘menos real’ por causa de ferramentas de IA

1 comentários

 
GN⁺ 2025-08-27
Comentários do Hacker News
  • Vídeos com upscaling por IA têm uma aparência irritante, tão estranha quanto a sensação de uma TV nova antes de desligar a interpolação de quadros. Fico me perguntando quem acha esse tipo de nitidez artificial e errada mais bonito. Recentemente vi uma versão com upscaling por IA de um show do David Bowie & Nine Inch Nails e, especialmente na marca de 2 minutos, deu uma sensação de desalinhamento com a realidade que me deixou psicologicamente muito desconfortável. O vídeo original é de baixa resolução, mas ainda assim acho que preserva muito melhor a atmosfera e a sensação intencional. Hoje já existem câmeras e lentes excelentes, então não há necessidade de forçar melhora de qualidade com IA
    • O mais surpreendente é que parece que as pessoas realmente gostam desse tipo de imagem. Ontem minha parceira estava escolhendo um celular novo e disse que a qualidade da câmera era importante, adorando o fato de continuar nítido ao dar zoom. Mas, depois de um pequeno atraso após o zoom, vendo aquela imagem artificialmente reconstruída e distorcida, parecendo um filtro de upscaling usado em emuladores de consoles antigos, fiquei meio triste ao perceber que alguém de quem eu realmente gosto prefere selfies com o rosto “embelezado” e um bokeh falso no fundo, em vez de fotos naturais e realistas
    • Essa imagem é realmente hilária
    • Uma vez assisti a uma série de que gosto na TV nova dos meus pais e fiquei tentando entender por que tudo parecia estranho, barato e com atuação pior, como se os diálogos fossem ruins. Com o tempo, descobri que o motivo era o auto smoothing daquela TV. É o fenômeno chamado Soap Opera Effect
    • Continuar empurrando tecnologias que o consumidor não quer é algo que nasce de pressão para sustentar o preço das ações -> pressão da gestão para aumentar participação de mercado -> exigência para que PMs adicionem recursos novos -> desenvolvedores querendo testar novas tecnologias -> e disso surgem coisas que não queremos, como chatbots de IA, resumos por IA, telas sensíveis ao toque em carros e upscaling por IA
    • A maioria das pessoas não percebe bem essas diferenças. Não tenho TV em casa, mas quando vou à casa de amigos noto o Soap Opera Effect na hora. Nas duas vezes pedi para desligarem esse recurso, e depois disso eles concordaram e não ligaram de novo. Mas, na verdade, a maioria provavelmente só confiou em mim; não tenho certeza se realmente percebe a diferença. Se você quiser desligar isso, procurar por “marca da TV soap opera effect” costuma mostrar como encontrar a configuração. Vale prestar atenção porque os fabricantes usam nomes estranhos para isso. Na parte de 2 minutos e 6 segundos o rosto muda especialmente, e o original está bem borrado naquele trecho. A versão com IA simplesmente não entende os efeitos da câmera. Comparando a versão com upscaling por IA com o original, fica muito claro. Foi ótimo terem colocado os links dos dois vídeos para facilitar a comparação
  • Muitos comentários estão falando do YouTube, mas, segundo a matéria, a maior parte do trabalho com IA foi feita pela equipe do Will usando IA para transformar fotos estáticas em vídeo. Na prática, o YouTube só deixa o resultado final um pouco menos borrado, e os artefatos realmente estranhos de IA surgem principalmente na etapa de produção do vídeo. Isso se aplica apenas aos Shorts. Veja o vídeo de comparação
    • Nesse vídeo a diferença não aparece muito bem
  • Fico imaginando como teria sido se o Coldplay tivesse usado essa tecnologia neste verão. Falando sério, essa tendência de enfiar IA em tudo é bem preocupante. Antigamente eu adorava descobrir música nova no Spotify Discover Weekly, mas hoje a experiência perde a graça porque há músicas geradas por IA demais
    • Dá vontade de largar o Spotify, comprar CDs numa loja de música do bairro e montar minha própria coleção com um leitor de CD USB. Nessa busca constante pelas novidades e por “ter todas as músicas”, parece que perdemos aquele elemento emocional de pessoas reais compartilhando música
    • Pode ser mesmo. Parte importante da recomendação musical é a alegria de tropeçar em uma joia inesperada, e acho que essa magia desaparece quando entram músicas geradas por IA no meio. O Spotify nunca disse oficialmente que está recomendando mais faixas de IA de propósito, mas no último ano houve uma explosão de música por IA em todas as plataformas de streaming. Os algoritmos do Spotify muitas vezes recomendam sem distinguir músicas humanas e de IA, especialmente em gêneros que a IA imita com facilidade, como ambient, lo-fi, EDM e pop genérico. No fim, muita gente está desconfortável com a IA invadindo áreas que antes dependiam de curadoria humana ou de uma abordagem artística. Se quiser, posso até procurar se existem formas de filtrar músicas de IA ou receber só recomendações de artistas humanos em cada serviço
  • A verdadeira questão central aqui é o <i>consentimento</i>. Todo mundo entende que, ao entrar num local de show, está concordando com fotos e filmagens, mas será que alguém realmente deu consentimento claro para que a equipe do artista transformasse seu rosto em vídeo falso com IA? Também fico muito curioso para saber se isso é legal em todos os países
    • Provavelmente havia alguma cláusula na página de compra do ingresso, algum aviso na entrada do local, algo do tipo “ao entrar você concorda com ser filmado” etc. Moralmente é ruim, mas juridicamente imagino que esteja relativamente bem coberto
  • Se eu fosse de marketing, faria imagens reais parecerem feitas por IA só para buscar efeito viral de graça. Nada chama mais atenção do que erro ou polêmica sobre montagem. Se não for realmente falso, não há prejuízo algum para o artista ou para a equipe. Já conversei com gerentes de redes sociais de grandes marcas, e me disseram que às vezes publicam textos com erro de propósito para gerar mais comentários e reação
    • Isso é chamado de ragebait. No marketing, já é uma tática bastante comum
    • O novo filme Naked Gun também é um caso assim, com dedos extras desenhados de propósito no pôster
  • Não sei se meu hardware/software ou meus olhos estão com problema, mas mesmo comparando YouTube e Instagram lado a lado não noto grande diferença. Se o problema não for minha visão, queria saber o que deveria verificar, ou se preciso trocar de monitor. Minha GPU não é ruim, mas também estou usando um adaptador HDMI-VGA. As fotos, no entanto, estavam realmente horríveis. Imagino que, nos vídeos, também haja muita distorção artificial nesse nível
    • Nos vídeos a diferença está em coisas mais sutis. Não aparece de forma gritante em todos os frames; é mais o fundo ficando de repente em foco e depois desfocado, texturas estranhas surgindo no cabelo e no pescoço das pessoas, e contornos do rosto muito nítidos enquanto a pele fica lisa de um jeito artificial demais. Passa uma vibe meio Max Headroom
  • Não conheço literalmente ninguém ao meu redor que queira de fato esse tipo de recurso. Fico muito curioso para saber por que continuam introduzindo coisas tão complicadas e desnecessárias
    • Assim como alguns países testam armamentos em situações reais para acumular experiência, às vezes imagino se o Google não está só fortalecendo sua capacidade organizacional para o dia em que realmente vá usar isso direito no futuro
    • Há complexidades até nas coisas necessárias, mas se não houver lucro, não existe motivo para levar isso adiante
  • PM do YouTube: “Vamos tornar ainda mais difícil distinguir vídeos feitos por IA de vídeos reais, para que os usuários achem tudo natural!”
    • Nem acho que exista tanta malícia planejada assim. Quem é realmente entusiasmado com IA quer colocar IA em todo produto, e se alguém de cima diz “IA é incrível, coloquem isso”, acabam despejando em tudo. As reuniões deixam de ser “vamos resolver o problema X do usuário” e passam a ser “onde no produto dá para enfiar IA?”
    • Incentivos errados parecem mais realistas do que malícia. O KPI de alguém provavelmente virou “adotar recursos de IA”, e por isso o velho filtro de sharpen + denoise do YouTube acabou sendo substituído por “AI enhancement”
    • O YouTube realmente tem um guia explicando transformações por IA
    • Essa abordagem pode acabar fazendo até imagens reais de notícias serem confundidas com montagens por IA, reduzindo a confiança nelas. As pessoas podem acabar ficando ainda mais desconfiadas e acreditando menos
    • As próximas gerações já vão crescer num ambiente de mídia completamente diferente do das gerações anteriores
  • Fico me perguntando de quem foi a ideia dessa função, uma das tentativas de “tornar a IA útil”. Já existe um original em HD, então não vejo por que gastar dinheiro oferecendo upscaling. Mesmo que isso fosse aplicado só a vídeos de baixa qualidade, a distorção da realidade acaba parecendo ainda mais séria
    • Para o Google, realidade não importa. O que importa é anúncio e engajamento
  • Se venderem camisetas com a frase “AI glitch”, talvez, se esse efeito aparecer em toda foto, fique impossível distinguir o que é real do que é falso
    • Com o tempo, esse tipo de camiseta provavelmente vai virar um acessório passageiro, como a mão com seis dedos (um problema clássico da IA generativa) ou a máscara de 5 óculos (para fugir de reconhecimento facial)
    • Essas camisetas já existem, e muitas vezes imprimem direto frases geradas pelo ChatGPT sem verificação nenhuma