3 pontos por GN⁺ 2025-07-24 | 1 comentários | Compartilhar no WhatsApp
  • O governo dos Estados Unidos anunciou o ‘Plano Nacional de Ação para IA (AAIAP)’ para o desenvolvimento e uso seguros e responsáveis da inteligência artificial (IA)
  • Apresenta cinco objetivos estratégicos principais, como ampliar o investimento em pesquisa e desenvolvimento de IA, garantir confiabilidade e responsabilidade, formar talentos, fortalecer infraestrutura e acesso a dados, e ampliar a cooperação global
  • Dá ênfase à criação de bases legais e de políticas públicas para que a IA gere benefícios sociais e econômicos ao mesmo tempo em que minimiza riscos
  • Destaca medidas para prevenir o uso indevido e abusivo da IA em contextos militares e não militares, proteger ética e direitos humanos, e resguardar a segurança nacional e o interesse público
  • Promove ao mesmo tempo a inovação em IA e o estabelecimento de normas por meio da cooperação entre setor público e privado

Visão geral do Plano Nacional de Ação para IA

  • O governo dos EUA entendeu que, considerando o impacto da tecnologia de IA em toda a sociedade, é necessária uma estratégia nacional abrangente
  • Apresenta uma diretriz de política pública para alcançar simultaneamente dois eixos: incentivar a inovação e controlar os riscos

1. Fortalecimento do investimento em P&D de IA e da infraestrutura

  • Os Estados Unidos vão ampliar os investimentos federais em P&D para impulsionar o avanço da IA e reforçar a competitividade global
  • Avançam na expansão da infraestrutura pública necessária para a pesquisa em IA, incluindo supercomputação, conjuntos de dados de alta qualidade e ferramentas open source
  • Serão oferecidas oportunidades de acesso a dados e recursos computacionais para pesquisadores, startups e grupos minorizados
  • Em nível nacional, haverá apoio prioritário à pesquisa de aplicação de IA em setores específicos, como saúde, clima, agricultura e energia
  • Ampliação dos investimentos interdisciplinares em P&D em ciência básica, confiabilidade, segurança e IA ética

2. Construção de um ecossistema de IA confiável e responsável

  • O governo vai estabelecer padrões de transparência, segurança e explicabilidade da IA, difundindo-os também para o setor privado
  • A equidade da IA (não discriminação e redução de desigualdades), a proteção da privacidade e a conformidade ética serão garantidas por leis e instituições
  • Serão fortalecidos os sistemas de teste e validação antes do uso real, incluindo avaliação de riscos algorítmicos e análise de impacto
  • Para usos de IA de alto risco, como saúde, finanças e segurança pública, serão introduzidas regulações e inspeções adicionais
  • Serão criados procedimentos rápidos para determinar responsabilidades e reparação em casos de falha ou uso indevido da IA

3. Desenvolvimento de talentos e da força de trabalho em IA

  • O ensino de letramento em IA será amplamente reforçado, da educação básica à universidade e à formação de adultos
  • Haverá ampliação do apoio para que estudantes de grupos vulneráveis e regiões carentes também possam participar da educação em IA
  • Serão expandidos os programas de formação de doutores e especialistas em IA e de requalificação profissional (upskilling) para trabalhadores em atividade
  • Haverá apoio ao fortalecimento das capacidades de IA no governo e em órgãos públicos, bem como a intercâmbios e cooperação com talentos do setor privado e da indústria
  • Inclui atração de talentos em IA, políticas de imigração e medidas para ampliar o recrutamento de profissionais do exterior

4. Ampliação do acesso a dados e infraestrutura

  • Construção de políticas para assegurar, compartilhar e utilizar dados de alta qualidade, justos e seguros
  • Abertura de dados públicos e integração com dados privados, com garantia de interoperabilidade
  • Clareza nos padrões de privacidade de dados, segurança e ética
  • Apoio ao uso compartilhado de infraestrutura, como supercomputação e nuvem, por pesquisadores e desenvolvedores de IA, empresas, escolas e organizações sem fins lucrativos
  • Fortalecimento da padronização de dados, do controle de qualidade e da governança de dados

5. Governança global de IA e cooperação internacional

  • Liderança na definição de padrões e normas globais sobre ética, segurança e confiabilidade em IA
  • Reforço da cooperação em políticas, tecnologia e pesquisa com G7, OECD, ONU e países aliados
  • Construção de coordenação internacional para prevenir a militarização da IA, a vigilância e usos abusivos de caráter autoritário
  • Promoção da padronização global de IA, interoperabilidade e garantia de portabilidade de dados
  • Ampliação do desenvolvimento de capacidades em IA e do apoio internacional para países menos desenvolvidos e mais vulneráveis

Estrutura de execução e acompanhamento

  • Coordenação geral de toda a estratégia pelo OSTP (Office of Science and Technology Policy) da Casa Branca
  • Cada órgão governamental (Defesa, Comércio, Educação, Energia, Saúde etc.) estabelecerá e operará planos concretos de implementação
  • Garantia de participação das partes interessadas, incluindo fóruns público-privados, grupos de especialistas e consulta à sociedade civil
  • Criação de roteiros detalhados por objetivo, indicadores de desempenho e sistemas periódicos de monitoramento e relatório da execução
  • Reforço da transparência, inclusão e responsabilidade no processo de implementação das políticas

Conclusão e desafios futuros

  • Busca simultânea de dois objetivos: promover a inovação em IA e minimizar os riscos
  • Destaca que, junto com o avanço tecnológico, é essencial estabelecer padrões éticos, legais e sociais
  • Liderança global, cooperação internacional, formação de talentos e fortalecimento da regulação e da governança aparecem como tarefas centrais de médio e longo prazo
  • A apresentação de regulações efetivas, monitoramento contínuo e participação ativa de diversos setores da sociedade é colocada como condição para o sucesso da política

1 comentários

 
GN⁺ 2025-07-24
Comentários do Hacker News
  • Está claro que a IA é uma área extremamente importante para o crescimento econômico, mas também quero destacar que energia limpa é igualmente importante. No momento, ambas as áreas estão em um ponto de inflexão importante. No entanto, os EUA querem avançar em IA, enquanto no setor de energia agem como se nada estivesse acontecendo e evitam encarar a realidade. Essa atitude corre o risco de fazer com que os EUA entreguem a liderança econômica no setor de energia a outros países nos próximos 20 anos. Pior ainda, a posição atual do governo pode levar as empresas de energia americanas a se manterem presas aos métodos antigos e, no fim, até falirem em 10 a 20 anos. Quando isso acontecer, os EUA podem acabar tendo de resgatá-las por razões estratégicas

  • É bom ver o incentivo a IA open source e open weights. Em especial, achei marcante que o texto deixe claro que open weights e open source não são a mesma coisa

    • Sem apoio real, ou seja, financiamento e coisas do tipo, não dá para dizer que o simples incentivo do governo tenha significado prático. Dá para ver pela seção correspondente do documento (veja o PDF) que quase não há conteúdo sobre isso

    • Fico me perguntando como o principal objetivo de garantir a primazia dos EUA pode ser compatível com uma política de open weights. Quando os pesos são abertos, qualquer um pode usar essa tecnologia

    • Fico me perguntando como o interesse do governo em modelos “justos” se cruza com a política de open source. Em especial, a ideia de “justiça” que o governo parece ter soa até assustadora

    • É uma política sem muito significado

    • Todas essas políticas no fim vêm do desejo de controle. Não há interesse real em benefício mútuo, exatidão ou precisão; o objetivo é controlar os pesos abertos e o código-fonte dos modelos para impedir pensamentos, perguntas ou ideias livres não aprovadas por quem está no poder

  • Pessoalmente, o ponto mais importante para mim é que o plano adotou uma posição forte em relação a modelos de IA open source e open weights. Essa posição entra em choque com algumas outras regulações, como o EU AI Act. O EU AI Act também não proíbe modelos open weights, mas, embora haja exceções para projetos abaixo de FLOPS 10²⁵, ele cria um ambiente regulatório bastante pesado para projetos abertos descentralizados

    • Basta olhar a seção “recomendações de política” para ver que a maior parte é só retórica sem conteúdo concreto

    • Parece que o foco está mais em energia não renovável e em ideologia imposta pelo governo do que em open source e energia renovável. Não sei se essa leitura é puro otimismo ou recusa em encarar a realidade

  • Na parte sobre energia, falar em alimentar a IA com fusão nuclear mas nem mencionar energia solar chega a parecer piada

    • Tecnicamente, a energia solar também vem de fusão no espaço, transmitida por fótons, então em sentido amplo talvez até possa ser considerada fusão nuclear

    • Fico curioso para saber quanta terra seria necessária para operar toda a infraestrutura de IA com energia solar. Quero dizer que solar talvez não seja prática, mas também tenho curiosidade genuína sobre isso

    • Não parece haver como impedir empresas de IA de usarem apenas energia renovável

    • Na minha cidade natal instalaram energia solar em larga escala em terras agrícolas. Solar é boa para telhados residenciais, mas é difícil usá-la para manter data centers funcionando 24 horas por dia sem baterias

    • A demanda elétrica da IA não combina com a curva de geração da energia solar

  • Como política subsequente relevante após a página do AI Action Plan dos EUA, há PREVENTING WOKE AI IN THE FEDERAL GOVERNMENT. Nesse documento, DEI é definido como a introdução de conceitos como distorção de fatos sobre raça e sexo, diversidade de resultados, teoria crítica racial, transgeneridade, viés inconsciente, interseccionalidade, racismo sistêmico e discriminação. O texto afirma que o DEI ameaça a IA confiável ao sacrificar o compromisso com a verdade

  • Na prática, quase todos os objetivos do Action Plan são voltados a promover o uso de IA, mas só o último objetivo fala em “combater mídia sintética no sistema jurídico”. Fico me perguntando como isso pode ser compatível, já que para a maioria das IAs, incluindo LLMs, gerar mídia sintética é uma função central

    • Fico em dúvida se a primeira frase é sátira ou séria. O documento inteiro soa como um pedido de uma entidade de lobby do setor. Um exemplo de uso de LLM no sistema jurídico seria parecido com um advogado experiente pedindo a um júnior para redigir um rascunho. O problema surge quando o rascunho é enviado diretamente ao tribunal sem revisão. Isso acontece por aplicação jurídica deficiente, citação de precedentes falsos e sustentação de argumentos incorretos

    • Acho que daria para entender melhor o documento inteiro se fosse lido com a voz de Patrick Bateman

    • Alguns interpretam isso como a ideia de que o mais importante é chegar primeiro à AGI. Quem controlar a AGI teria poder para dominar o mundo

    • Essa parte se refere a watermarking, ou seja, sistemas de identificação e autenticação de mídia sintética criada por IA. Por exemplo, seriam necessários padrões separados para evitar que deepfakes maliciosos prejudiquem a justiça legal. Com isso, são sugeridas medidas como fornecer ferramentas de resposta a deepfakes para tribunais e órgãos judiciais, desenvolver diretrizes de benchmark forense e revisar as Federal Rules of Evidence

  • O texto diz que “para que o governo federal renove contratos com desenvolvedores de LLMs, só serão aceitos sistemas que produzam resultados ‘objetivos e sem viés’ reconhecidos por este governo”. Ou seja, a saída da IA tem de se adequar ao padrão de verdade desta administração

    • Quando expressei preocupações desse tipo no passado, recebi avaliações negativas. Acho que foi porque isso destoava do clima otimista em relação a LLMs.

    • No documento relacionado, aparecem exemplos de como o conceito de DEI funciona como restrição em IA, além da alegação de que a obsessão com a “verdade” ameaça a própria existência de uma IA confiável

    • A expressão “sem viés ideológico top-down” é, na prática, basicamente o mesmo que “politicamente correto”

    • Se for preciso se conformar a esse tipo de “verdade ao estilo americano”, eu preferiria até sair da área de TI. Pelo menos é um alívio que o AI Act da UE atrase esse tipo de exposição

    • “Objetivo” e “sem viés top-down” me parecem algo como decidir que 2+2=5 e obrigar todos a acreditar que a Ásia Oriental está sempre em guerra

  • Quero apontar que muitos dos itens listados no Action Plan, como “desregulamentação administrativa, adoção livre de IA, incentivo a open source, defesa dos valores americanos, garantia de datasets científicos de IA, aceleração da adoção de IA no governo”, entram em contradição com políticas concretas. Os movimentos reais recentes do governo vão diretamente contra os objetivos declarados aqui. Pessoalmente, acho que tudo isso aponta para uma direção perigosa neste momento, então é difícil levar a sério

    • Parece uma fórmula de sucesso baseada em não impor regulação, mas ainda assim empurrar objetivos políticos

    • O documento inteiro está mais próximo de uma peça de propaganda no estilo “realizando os grandes interesses dos EUA por meio da IA”

    • Falam em “desregulamentação administrativa”, mas na prática não existe regulação nenhuma para alugar GPUs e treinar modelos

    • Em resumo, o ponto é que declarações sem ação não significam nada. Quase ninguém leva a sério promessas sem execução

    • Grande parte do conteúdo parece mais uma “propaganda de slogans” ao estilo do Partido Comunista Chinês. Só que, nos EUA, o governo não tem a capacidade de mobilizar todos os setores de forma coordenada como um Estado autoritário, então essa encenação vazia provavelmente não vai funcionar bem

  • Depois da pandemia, a palavra “plano” parece ter perdido muito do significado. É por causa da incompetência nacional. Minha previsão é que esse tipo de Action Plan no fim não produza resultado concreto além de discursos e execução de orçamento

    • Nesse ritmo, contratos de milhões de dólares só vão consumir dinheiro sem gerar resultados reais. A ideologia conservadora funciona para manter privilégios de certas camadas, enquanto transforma o custo da saúde da população comum em luxo a ser cortado

    • Tentar resolver problemas do mundo real só com políticas no papel é um problema crônico que EUA, Reino Unido e UE enfrentam há muito tempo

    • No Canadá, basta anunciar programas do governo pela emissora pública para obter apoio popular, mesmo sem execução real nem apoio orçamentário. Parece a Pravda

  • O texto diz que “a indústria de saúde dos EUA é lenta na adoção de IA por causa da desconfiança em relação à tecnologia, da regulação complexa e da ausência de critérios claros de governança e gestão de risco, portanto é necessário um esforço federal consistente”, mas fico em dúvida se uma abordagem do tipo “lança primeiro e corrige depois” é adequada para a área da saúde. A medicina já tem critérios claros e rigorosos, e isso não combina com implantar sistemas experimentais

    • Tenho a experiência de que o sistema de saúde dos EUA já está à beira do colapso. Sinto de forma dolorosa a diferença entre o atendimento do médico do interior que eu via quando era criança e o atual sistema de urgência “fast-food”. Minhas experiências recentes de atendimento só mostraram desinteresse e incompetência dos profissionais. Nunca saí melhor de uma consulta, só com contas enormes. Até a odontologia piorou drasticamente depois que fundos de private equity passaram a dominá-la. No futuro, não pretendo procurar atendimento médico por conta própria, a não ser risco de morte

    • Tratamento com uso de IA exige validação rigorosa, mas introduzir IA em faturamento e administração pode gerar grande economia de custos. Uma parte considerável dos gastos com saúde nos EUA é administrativa

    • A saúde nos EUA já é extremamente frágil, e há milhares de mortes causadas por espera por atendimento, erros de diagnóstico e ineficiência. Em diagnóstico, a IA já supera médicos na maioria dos casos

    • A estratégia de “move fast and break things” também pode trazer mudanças positivas para a saúde se o risco for devidamente quantificado. Se o risco de um tratamento experimental não for maior que o risco de morte causado por atraso no tratamento de doenças cotidianas, a inovação rápida pode ser vantajosa no longo prazo. Há até resultados de pesquisa mostrando que IA superou médicos em pronto-socorro

    • Como o sistema de saúde dos EUA já chegou ao limite, não parece que possa piorar muito mais; e, se piorar ainda mais, o resultado talvez acabe sendo visto como melhoria