- Meta Platforms anunciou oficialmente que não assinará o Código de Práticas de Inteligência Artificial da União Europeia (UE)
- Joel Kaplan, chefe global de políticas da Meta, enfatizou que o código representa uma regulação excessiva que prejudica a inovação e o crescimento
- O código tem como objetivo fornecer diretrizes de transparência e segurança para o cumprimento do AI Act (promulgado em 2024)
- A Comissão Europeia divulgou na semana passada a versão final do código de práticas para modelos de IA de propósito geral, e cada empresa pode decidir voluntariamente se irá assiná-lo
- Além da Meta, empresas como ASML e Airbus participaram de uma carta pedindo o adiamento da implementação, enquanto a OpenAI manifestou intenção de aderir ao código de práticas
Contexto da recusa da Meta ao código europeu de práticas de IA
- Meta Platforms anunciou oficialmente que decidiu não assinar o código de práticas de inteligência artificial da União Europeia
- O chefe global de políticas, Joel Kaplan, afirmou que “a Europa está seguindo pelo caminho errado em relação à IA”
- Kaplan argumentou que esse código cria incerteza jurídica para os desenvolvedores de modelos e introduz medidas excessivas que vão além do escopo do AI Act
- Esse código de práticas busca detalhar os requisitos de transparência e segurança do AI Act, aprovado no ano passado, e está previsto para entrar em vigor no próximo mês
Visão geral do código europeu de práticas de IA
- A Comissão Europeia divulgou a versão final do código de práticas para modelos de IA de propósito geral
- Cada empresa pode decidir voluntariamente se irá assinar o código
- O objetivo do código é fornecer um framework para o cumprimento do AI Act e garantir a transparência e segurança da tecnologia de IA
Reação da indústria e principais questões
- Kaplan, da Meta, criticou o código dizendo que ele é excessivamente regulatório e será um obstáculo sério ao desenvolvimento de modelos de IA e ao crescimento dos negócios na Europa
- Algumas grandes empresas, como ASML e Airbus, assinaram uma carta pedindo o adiamento de dois anos da implementação, expressando uma posição crítica
- Em contraste, a OpenAI declarou oficialmente sua intenção de participar do código europeu de práticas
Mudança no comando global de políticas da Meta
- Joel Kaplan foi nomeado chefe global de políticas da Meta no início de 2025
- Anteriormente, trabalhou como vice-presidente de políticas dos EUA no Facebook e também no governo de George W. Bush
2 comentários
A explicação do primeiro rascunho do EU AI Act da Latham & Watkins mencionada no comentário abaixo do Hacker News
European Commission Releases First Draft of General-Purpose AI Code of Practice
Principais pontos do rascunho do EU AI Act
Transparência
Conformidade com direitos autorais
Text and Data Mining(TDM)
Transparência na conformidade com direitos autorais
Classificação de risco sistêmico
Framework de gestão de risco sistêmico
Comentários do Hacker News
Além da Meta, 40 empresas europeias pediram à UE um adiamento de 2 anos, alegando falta de clareza na implementação da Lei de IA; este code of practice é um conjunto voluntário de diretrizes e é mais abrangente que a própria lei; a UE indicou que a adesão voluntária a esse padrão pode resultar em menos regulação, mas a Meta entende que, como já estará sujeita à regulação de qualquer forma, há pouco ganho prático nessa adesão voluntária; um ponto importante na lei é que o provedor do modelo pode ser responsabilizado até pelo uso inadequado por parceiros, o que é uma exigência muito difícil para open source; por exemplo, provedores de GPAI devem adotar medidas razoáveis para prevenir violação de direitos autorais e também são incentivados a deixar contratualmente explícito que os parceiros devem cumprir essas medidas; para mais detalhes, veja a análise da Latham & Watkins
Lendo as citações, dá para entender o contexto em que a UE criou uma exceção permitindo o uso de material protegido por direitos autorais como dados de treinamento sem licença; embora haja dificuldades de implementação, acho que tentaram um equilíbrio bastante elegante
Acho esse padrão razoável; até modelos de IA open source podem incluir em sua licença a exigência de “tomar medidas apropriadas para evitar gerar repetidamente resultados idênticos ou semelhantes a conteúdo protegido por direitos autorais”; isto é direito europeu, não direito americano, e o conceito de “razoável(reasonable)” é interpretado por juízes ponderando os interesses dos dois lados, então não se decide só por leitura literal
É muito frustrante ver uma indústria nascente ser regulada com tanta pressa quando ninguém sabe como o mercado vai evoluir
Não acho esse padrão exagerado no ponto em que diz que não se deve permitir a distribuição de um modelo que reproduz diretamente inúmeras obras protegidas por direitos autorais; isso não seria aceitável nem em software comum, então não faz sentido virar exceção só porque é um modelo de IA
A parte sobre o provedor do modelo ser responsável até pelo mau uso de parceiros não está no texto da lei[0], mas sim no capítulo de direitos autorais do Code of Practice; ainda assim, esse Code não impõe exigências adicionais à lei, mas mostra exemplos de “como” cumpri-la; por exemplo, a lei exige respeitar
opt-outlegível por máquina, mas não diz exatamente como, e o código cita o uso derobots.txt; as partes sobre direitos autorais aparecem como measure 1.4: a) adotar medidas técnicas para que o modelo não reproduza conteúdo que viole direitos autorais, b) deixar claro nos termos de uso ou na documentação que uso que viole direitos autorais não é permitido; no caso de modelos open source, basta informar isso na documentação; esse Code of Practice só se aplica a quem o assinar voluntariamente, e outra pessoa assinar usando meu modelo não cria responsabilidade para mim, do mesmo modo que publicar um plugin de Photoshop sob GPL não pode obrigar a divulgação do código-fonte do Photoshop; a lei traz várias exceções para open source; a reação da Meta parece vir do fato de o EU AI Office não reconhecer o Meta AI como open source, então ela não recebe essas exceções; veja o texto original na lei e no Code of PracticeAdmito que só a reação da Meta já me faz ter o viés de achar que essa lei de IA provavelmente contém coisas de que realmente precisamos, mesmo sem eu saber exatamente o que há nela
O “AI Code of Practice” é composto por 3 capítulos e pode ser consultado aqui e no histórico dos rascunhos; ainda não li o texto completo, só conheço melhor a Lei de IA anterior (artificialintelligenceact.eu); meu palpite é que a Meta está reclamando do capítulo 2, sobre direitos autorais, especialmente por conflitar com a prática de rastrear material protegido sem autorização; ainda não está claro se isso realmente se enquadra em “fair use”
Não acho que o fato de uma empresa ser “má” signifique automaticamente que a posição dela esteja errada
Para quem quer um resumo das diretrizes, dá para ver aqui; claramente é uma regulação pesada e, olhando na prática, parece favorecer sobretudo grandes detentores de direitos autorais, advogados e burocratas
Esse tipo de regulação pode acabar sendo uma armadilha para as empresas europeias; no momento em que passam de certo porte, o peso regulatório aumenta bruscamente, então para pequenas/startups europeias de IA surge o medo de ultrapassar esse limiar de crescimento; enquanto isso, big techs dos EUA e da China conseguem inovar muito mais rápido, elevar o nível de IA e acumular capital, e acabam entrando no mercado da UE com produtos mais refinados e muito mais caixa, inclinando a competição real a seu favor
A Europa nunca construiu de fato uma indústria de IA e, ainda assim, tenta regular o setor inteiro com detalhes excessivos; é regulação pela regulação; eu esperava um ponto de virada com o relatório Draghi sobre competitividade da UE, mas a UE não mudou de direção em nada, o que é bastante decepcionante; perdi confiança nas políticas da UE
Você disse que isso é “pesado”, mas queria entender concretamente o que exatamente torna essas regras tão pesadas
Às vezes as regras da UE tiveram força para fazer o mundo inteiro segui-las, como aconteceu com a política de cookies; em geral, para uma minoria impor algo à maioria, o custo de cumprir precisa ser menor que o custo de resistir; mas com IA é diferente, a escala é grande demais e ninguém vai parar; a IA não pode ser interrompida, a menos que haja uma guerra nuclear
Os riscos potenciais da IA são enormes, de armas automatizadas a AGI maliciosa; a Alemanha ainda carrega o trauma histórico das metralhadoras automatizadas da divisão entre Alemanha Oriental e Ocidental, e a Ucrânia também vive um forte impacto psicológico da guerra de drones; os riscos concretos da IA são reais, e regulação e leis são indispensáveis
O resultado da lei dos cookies foi apenas submeter as pessoas a pop-ups intermináveis; sem uBlock, usar a web virou sofrimento; o rastreamento migrou para o lado do servidor e a proteção real da privacidade não melhorou; circula dinheiro demais para que o setor não consiga contornar com facilidade uma regulação tão mal feita
Fiquei surpreso com tantos comentários apoiando sem questionamento a regulação europeia; será que sou a única pessoa que, em princípio, vê a regulação europeia como excessiva e mal desenhada?
Até hoje a Europa nunca criou uma política que realmente quebrasse o monopólio das big techs americanas; a maioria dos usuários da UE ainda depende de Google, Meta e Amazon; o objetivo da UE não parece ser enfrentar diretamente as empresas americanas, mas manter certa civilidade e proteger alguns interesses de segurança nacional; é uma posição excessivamente polida, mas no fundo racional
Se for para proteger os cidadãos, qual seria exatamente o problema de a regulação ser rígida?
Chamar isso de “cego” pressupõe que você está certo e que os outros só decidiram assim por ignorância; como você mesmo disse que “parte desse princípio”, isso acaba sendo uma autocrítica também
Na verdade, parece que há intervenção demais de opiniões externas tentando enfraquecer a Europa
O problema já começa em “partir desse princípio”; em vez de assumir isso, acho melhor ler o material relacionado e formar uma opinião própria; minha sugestão é que cada um tenha uma visão própria, em vez de se basear apenas na opinião de corporações transnacionais
Fico apreensivo com a possibilidade de a UE acabar colocando em LLMs os mesmos pop-ups que existem em todos os sites
A internet já está cheia de pop-ups e padrões de UX chamativos; é curioso que o único tipo apontado como problema seja justamente o pop-up que dá ao usuário a chance de optar diretamente por não ser rastreado
Não foi a UE que obrigou esses pop-ups, e sim as empresas; se os sites simplesmente reduzissem a coleta de dados ou a evitassem por completo, os pop-ups nem seriam necessários, mas preferiram sacrificar a usabilidade e adotar pop-ups sem sentido; daí veio o caos atual; por outro lado, sites que não coletam nada (por exemplo, o blog do Fabien Sanglard) não têm pop-up algum; o erro da UE foi não prever esse tipo de abuso, e o resultado realmente ficou muito ruim
Dá para fazer isso muito bem sem pop-ups, mas todo mundo só quer copiar as big techs; imitar vem antes da experiência do usuário
Odeio esses pop-ups; o fato de essa situação continuar largada assim mostra como os responsáveis são lentos
Imagino que o objetivo seja frear o crescimento da Meta; em post no LinkedIn, a Meta diz que na verdade está preocupada com o crescimento das empresas europeias, afirmando que “esse tipo de regulação excessiva prejudica o desenvolvimento e a distribuição de modelos de IA de fronteira na Europa, e também desestimula as empresas europeias que querem construir negócios em cima deles”
Quando a Meta diz que “compartilha dessas preocupações com outras empresas”, o significado real provavelmente é só usar no momento o argumento que for mais conveniente para sua própria PR; na prática, ela não está nem aí para o interesse público nem para os interesses de outras empresas, só quer coletar mais dados e vender mais anúncios
Folheando o Code of Practice de fato, não há nada particularmente excessivo ou que pareça “abuso exagerado de poder”; no fim, o que se exige é que os provedores de modelos ajam com transparência, e isso apenas entra em choque com a forma como a Meta costuma operar
No post de Kaplan no LinkedIn, não há nenhuma menção concreta sobre qual parte da política seria problemática; a expressão “prejudica o crescimento” pode, na prática, significar apenas algo modesto como exigir
opt-inpara lançamento de novos recursosO ambiente global está ficando cada vez mais polarizado, e acho que a Meta teve sua parcela de responsabilidade em amplificar insatisfação e conflito; um dia quero ir para a Europa e usar LLMs open source livremente
Espero que essa discussão não caminhe para a conclusão de que “se houver regulação, o desenvolvimento da IA para”; também é preciso dar o devido valor à proteção de direitos autorais e à origem das informações