4 pontos por GN⁺ 2025-07-20 | 2 comentários | Compartilhar no WhatsApp
  • Meta Platforms anunciou oficialmente que não assinará o Código de Práticas de Inteligência Artificial da União Europeia (UE)
  • Joel Kaplan, chefe global de políticas da Meta, enfatizou que o código representa uma regulação excessiva que prejudica a inovação e o crescimento
  • O código tem como objetivo fornecer diretrizes de transparência e segurança para o cumprimento do AI Act (promulgado em 2024)
  • A Comissão Europeia divulgou na semana passada a versão final do código de práticas para modelos de IA de propósito geral, e cada empresa pode decidir voluntariamente se irá assiná-lo
  • Além da Meta, empresas como ASML e Airbus participaram de uma carta pedindo o adiamento da implementação, enquanto a OpenAI manifestou intenção de aderir ao código de práticas

Contexto da recusa da Meta ao código europeu de práticas de IA

  • Meta Platforms anunciou oficialmente que decidiu não assinar o código de práticas de inteligência artificial da União Europeia
  • O chefe global de políticas, Joel Kaplan, afirmou que “a Europa está seguindo pelo caminho errado em relação à IA”
  • Kaplan argumentou que esse código cria incerteza jurídica para os desenvolvedores de modelos e introduz medidas excessivas que vão além do escopo do AI Act
  • Esse código de práticas busca detalhar os requisitos de transparência e segurança do AI Act, aprovado no ano passado, e está previsto para entrar em vigor no próximo mês

Visão geral do código europeu de práticas de IA

  • A Comissão Europeia divulgou a versão final do código de práticas para modelos de IA de propósito geral
  • Cada empresa pode decidir voluntariamente se irá assinar o código
  • O objetivo do código é fornecer um framework para o cumprimento do AI Act e garantir a transparência e segurança da tecnologia de IA

Reação da indústria e principais questões

  • Kaplan, da Meta, criticou o código dizendo que ele é excessivamente regulatório e será um obstáculo sério ao desenvolvimento de modelos de IA e ao crescimento dos negócios na Europa
  • Algumas grandes empresas, como ASML e Airbus, assinaram uma carta pedindo o adiamento de dois anos da implementação, expressando uma posição crítica
  • Em contraste, a OpenAI declarou oficialmente sua intenção de participar do código europeu de práticas

Mudança no comando global de políticas da Meta

  • Joel Kaplan foi nomeado chefe global de políticas da Meta no início de 2025
  • Anteriormente, trabalhou como vice-presidente de políticas dos EUA no Facebook e também no governo de George W. Bush

2 comentários

 
xguru 2025-07-20

A explicação do primeiro rascunho do EU AI Act da Latham & Watkins mencionada no comentário abaixo do Hacker News

European Commission Releases First Draft of General-Purpose AI Code of Practice

  • O EU AI Act entrou em vigor em 1º de agosto de 2024, e as obrigações relacionadas serão implementadas de forma gradual
  • O AI Office, vinculado à Comissão, lidera a elaboração do código de prática, com preparação até maio de 2025 e entrada em vigor prevista para 2 de agosto
  • Em 14 de novembro de 2024, a EC divulgou pela primeira vez o rascunho do código de prática para IA de propósito geral
  • O rascunho apresenta objetivos, medidas e indicadores-chave de desempenho (KPI) claros, alinhados aos princípios e valores da UE

Principais pontos do rascunho do EU AI Act

Transparência

  • A transparência é um princípio central do código de prática
  • Provedores de modelos GPAI devem documentar e manter as seguintes informações
    • informações sobre o próprio modelo
    • tipos de sistemas de IA e usos com os quais ele pode ser integrado
    • política de uso permitido
    • elementos centrais da licença do modelo
    • especificações de design e processo de treinamento
    • métodos de teste e validação
  • Essas informações devem ser fornecidas, quando solicitadas, ao AI Office e às autoridades nacionais, ou a provedores de sistemas de IA
  • Sempre que possível, também se recomenda a divulgação pública das informações

Conformidade com direitos autorais

  • Destaca-se a conformidade com os direitos autorais e direitos correlatos da UE
  • Provedores de modelos GPAI devem estabelecer uma política interna abrangente de direitos autorais ao longo de todo o ciclo de vida
  • Antes de firmar contratos de dataset com terceiros, é necessário realizar due diligence de direitos autorais e verificar a conformidade com os detentores de direitos nos termos do Article 4(3)
  • Provedores de GPAI, exceto SMEs, precisam adotar medidas preventivas razoáveis para que o modelo não gere saídas que infrinjam direitos autorais
  • Ao fornecer o modelo, recomenda-se condicionar contratualmente que a contraparte se comprometa com medidas para prevenir infrações recorrentes de direitos autorais

Text and Data Mining(TDM)

  • Ao realizar TDM, há a obrigação de garantir acesso legal a conteúdos protegidos por direitos autorais
  • Usar apenas crawlers que cumpram o Robot Exclusion Protocol
  • Tomar cuidado para que a exclusão de crawlers não afete negativamente a encontrabilidade do conteúdo em mecanismos de busca
  • Responder ativamente a indicações legíveis por máquina feitas por detentores de direitos
  • Cooperar no desenvolvimento de padrões para detentores de direitos
  • São necessárias medidas razoáveis para impedir o crawling de fontes piratas

Transparência na conformidade com direitos autorais

  • Há obrigação de divulgar medidas relacionadas a direitos autorais e conformidade com detentores de direitos
  • É necessário fornecer um ponto único de contato para que detentores de direitos possam apresentar objeções
  • Devem ser fornecidas ao AI Office informações sobre as fontes de dados de treinamento, teste e validação, e sobre os direitos de acesso

Classificação de risco sistêmico

  • Provedores de GPAI devem avaliar e responder continuamente aos riscos com base em uma estrutura de classificação de risco sistêmico
  • Principais categorias de risco:
    • cibercrime
    • riscos químicos, biológicos, radiológicos e nucleares
    • perda de controle sobre o modelo
    • automação com fins de pesquisa e desenvolvimento em IA
    • persuasão e manipulação em larga escala
    • discriminação em larga escala

Framework de gestão de risco sistêmico

  • Provedores de modelos GPAI nos quais tenham sido identificados riscos sistêmicos devem estabelecer um framework de segurança e proteção
  • São necessários documentação e uma estrutura de governança (incluindo avaliação independente por especialistas) para reforçar transparência e responsabilização
  • Também são especificadas medidas como relato de incidentes, proteção a denunciantes e transparência pública
 
GN⁺ 2025-07-20
Comentários do Hacker News
  • Além da Meta, 40 empresas europeias pediram à UE um adiamento de 2 anos, alegando falta de clareza na implementação da Lei de IA; este code of practice é um conjunto voluntário de diretrizes e é mais abrangente que a própria lei; a UE indicou que a adesão voluntária a esse padrão pode resultar em menos regulação, mas a Meta entende que, como já estará sujeita à regulação de qualquer forma, há pouco ganho prático nessa adesão voluntária; um ponto importante na lei é que o provedor do modelo pode ser responsabilizado até pelo uso inadequado por parceiros, o que é uma exigência muito difícil para open source; por exemplo, provedores de GPAI devem adotar medidas razoáveis para prevenir violação de direitos autorais e também são incentivados a deixar contratualmente explícito que os parceiros devem cumprir essas medidas; para mais detalhes, veja a análise da Latham & Watkins

    • Lendo as citações, dá para entender o contexto em que a UE criou uma exceção permitindo o uso de material protegido por direitos autorais como dados de treinamento sem licença; embora haja dificuldades de implementação, acho que tentaram um equilíbrio bastante elegante

    • Acho esse padrão razoável; até modelos de IA open source podem incluir em sua licença a exigência de “tomar medidas apropriadas para evitar gerar repetidamente resultados idênticos ou semelhantes a conteúdo protegido por direitos autorais”; isto é direito europeu, não direito americano, e o conceito de “razoável(reasonable)” é interpretado por juízes ponderando os interesses dos dois lados, então não se decide só por leitura literal

    • É muito frustrante ver uma indústria nascente ser regulada com tanta pressa quando ninguém sabe como o mercado vai evoluir

    • Não acho esse padrão exagerado no ponto em que diz que não se deve permitir a distribuição de um modelo que reproduz diretamente inúmeras obras protegidas por direitos autorais; isso não seria aceitável nem em software comum, então não faz sentido virar exceção só porque é um modelo de IA

    • A parte sobre o provedor do modelo ser responsável até pelo mau uso de parceiros não está no texto da lei[0], mas sim no capítulo de direitos autorais do Code of Practice; ainda assim, esse Code não impõe exigências adicionais à lei, mas mostra exemplos de “como” cumpri-la; por exemplo, a lei exige respeitar opt-out legível por máquina, mas não diz exatamente como, e o código cita o uso de robots.txt; as partes sobre direitos autorais aparecem como measure 1.4: a) adotar medidas técnicas para que o modelo não reproduza conteúdo que viole direitos autorais, b) deixar claro nos termos de uso ou na documentação que uso que viole direitos autorais não é permitido; no caso de modelos open source, basta informar isso na documentação; esse Code of Practice só se aplica a quem o assinar voluntariamente, e outra pessoa assinar usando meu modelo não cria responsabilidade para mim, do mesmo modo que publicar um plugin de Photoshop sob GPL não pode obrigar a divulgação do código-fonte do Photoshop; a lei traz várias exceções para open source; a reação da Meta parece vir do fato de o EU AI Office não reconhecer o Meta AI como open source, então ela não recebe essas exceções; veja o texto original na lei e no Code of Practice

  • Admito que só a reação da Meta já me faz ter o viés de achar que essa lei de IA provavelmente contém coisas de que realmente precisamos, mesmo sem eu saber exatamente o que há nela

    • O “AI Code of Practice” é composto por 3 capítulos e pode ser consultado aqui e no histórico dos rascunhos; ainda não li o texto completo, só conheço melhor a Lei de IA anterior (artificialintelligenceact.eu); meu palpite é que a Meta está reclamando do capítulo 2, sobre direitos autorais, especialmente por conflitar com a prática de rastrear material protegido sem autorização; ainda não está claro se isso realmente se enquadra em “fair use”

    • Não acho que o fato de uma empresa ser “má” signifique automaticamente que a posição dela esteja errada

  • Para quem quer um resumo das diretrizes, dá para ver aqui; claramente é uma regulação pesada e, olhando na prática, parece favorecer sobretudo grandes detentores de direitos autorais, advogados e burocratas

    • Esse tipo de regulação pode acabar sendo uma armadilha para as empresas europeias; no momento em que passam de certo porte, o peso regulatório aumenta bruscamente, então para pequenas/startups europeias de IA surge o medo de ultrapassar esse limiar de crescimento; enquanto isso, big techs dos EUA e da China conseguem inovar muito mais rápido, elevar o nível de IA e acumular capital, e acabam entrando no mercado da UE com produtos mais refinados e muito mais caixa, inclinando a competição real a seu favor

    • A Europa nunca construiu de fato uma indústria de IA e, ainda assim, tenta regular o setor inteiro com detalhes excessivos; é regulação pela regulação; eu esperava um ponto de virada com o relatório Draghi sobre competitividade da UE, mas a UE não mudou de direção em nada, o que é bastante decepcionante; perdi confiança nas políticas da UE

    • Você disse que isso é “pesado”, mas queria entender concretamente o que exatamente torna essas regras tão pesadas

  • Às vezes as regras da UE tiveram força para fazer o mundo inteiro segui-las, como aconteceu com a política de cookies; em geral, para uma minoria impor algo à maioria, o custo de cumprir precisa ser menor que o custo de resistir; mas com IA é diferente, a escala é grande demais e ninguém vai parar; a IA não pode ser interrompida, a menos que haja uma guerra nuclear

    • Os riscos potenciais da IA são enormes, de armas automatizadas a AGI maliciosa; a Alemanha ainda carrega o trauma histórico das metralhadoras automatizadas da divisão entre Alemanha Oriental e Ocidental, e a Ucrânia também vive um forte impacto psicológico da guerra de drones; os riscos concretos da IA são reais, e regulação e leis são indispensáveis

    • O resultado da lei dos cookies foi apenas submeter as pessoas a pop-ups intermináveis; sem uBlock, usar a web virou sofrimento; o rastreamento migrou para o lado do servidor e a proteção real da privacidade não melhorou; circula dinheiro demais para que o setor não consiga contornar com facilidade uma regulação tão mal feita

  • Fiquei surpreso com tantos comentários apoiando sem questionamento a regulação europeia; será que sou a única pessoa que, em princípio, vê a regulação europeia como excessiva e mal desenhada?

    • Até hoje a Europa nunca criou uma política que realmente quebrasse o monopólio das big techs americanas; a maioria dos usuários da UE ainda depende de Google, Meta e Amazon; o objetivo da UE não parece ser enfrentar diretamente as empresas americanas, mas manter certa civilidade e proteger alguns interesses de segurança nacional; é uma posição excessivamente polida, mas no fundo racional

    • Se for para proteger os cidadãos, qual seria exatamente o problema de a regulação ser rígida?

    • Chamar isso de “cego” pressupõe que você está certo e que os outros só decidiram assim por ignorância; como você mesmo disse que “parte desse princípio”, isso acaba sendo uma autocrítica também

    • Na verdade, parece que há intervenção demais de opiniões externas tentando enfraquecer a Europa

    • O problema já começa em “partir desse princípio”; em vez de assumir isso, acho melhor ler o material relacionado e formar uma opinião própria; minha sugestão é que cada um tenha uma visão própria, em vez de se basear apenas na opinião de corporações transnacionais

  • Fico apreensivo com a possibilidade de a UE acabar colocando em LLMs os mesmos pop-ups que existem em todos os sites

    • A internet já está cheia de pop-ups e padrões de UX chamativos; é curioso que o único tipo apontado como problema seja justamente o pop-up que dá ao usuário a chance de optar diretamente por não ser rastreado

    • Não foi a UE que obrigou esses pop-ups, e sim as empresas; se os sites simplesmente reduzissem a coleta de dados ou a evitassem por completo, os pop-ups nem seriam necessários, mas preferiram sacrificar a usabilidade e adotar pop-ups sem sentido; daí veio o caos atual; por outro lado, sites que não coletam nada (por exemplo, o blog do Fabien Sanglard) não têm pop-up algum; o erro da UE foi não prever esse tipo de abuso, e o resultado realmente ficou muito ruim

    • Dá para fazer isso muito bem sem pop-ups, mas todo mundo só quer copiar as big techs; imitar vem antes da experiência do usuário

    • Odeio esses pop-ups; o fato de essa situação continuar largada assim mostra como os responsáveis são lentos

  • Imagino que o objetivo seja frear o crescimento da Meta; em post no LinkedIn, a Meta diz que na verdade está preocupada com o crescimento das empresas europeias, afirmando que “esse tipo de regulação excessiva prejudica o desenvolvimento e a distribuição de modelos de IA de fronteira na Europa, e também desestimula as empresas europeias que querem construir negócios em cima deles”

    • Quando a Meta diz que “compartilha dessas preocupações com outras empresas”, o significado real provavelmente é só usar no momento o argumento que for mais conveniente para sua própria PR; na prática, ela não está nem aí para o interesse público nem para os interesses de outras empresas, só quer coletar mais dados e vender mais anúncios

    • Folheando o Code of Practice de fato, não há nada particularmente excessivo ou que pareça “abuso exagerado de poder”; no fim, o que se exige é que os provedores de modelos ajam com transparência, e isso apenas entra em choque com a forma como a Meta costuma operar

  • No post de Kaplan no LinkedIn, não há nenhuma menção concreta sobre qual parte da política seria problemática; a expressão “prejudica o crescimento” pode, na prática, significar apenas algo modesto como exigir opt-in para lançamento de novos recursos

    • Tenho a impressão de que essa desculpa aparece de forma recorrente diante de qualquer regulação
  • O ambiente global está ficando cada vez mais polarizado, e acho que a Meta teve sua parcela de responsabilidade em amplificar insatisfação e conflito; um dia quero ir para a Europa e usar LLMs open source livremente

  • Espero que essa discussão não caminhe para a conclusão de que “se houver regulação, o desenvolvimento da IA para”; também é preciso dar o devido valor à proteção de direitos autorais e à origem das informações