- A categoria de Ciência da Computação (CS) do arXiv introduziu novas práticas de avaliação para artigos de revisão (survey) e position papers
- Agora, esses artigos só podem ser submetidos ao arXiv depois de serem aceitos em periódico ou conferência após passar por revisão por pares (peer review)
- No momento da submissão, é obrigatório incluir documentação que comprove a revisão por pares bem-sucedida (ex.: referência do periódico, metadados de DOI)
- Submissões sem documentação de verificação têm alta chance de serem rejeitadas, medida adotada em resposta ao recente excesso de artigos impulsionado pela IA generativa
- Com essa mudança, o arXiv busca compartilhar apenas artigos de revisão de alta qualidade e focar na circulação de artigos de pesquisa centrais
Requisitos de submissão atualizados
- Artigos de revisão e position papers só podem ser submetidos ao arXiv após serem aceitos em periódico ou conferência e concluírem a revisão por pares
- Na submissão, é preciso incluir documentos que comprovem a revisão por pares bem-sucedida
- Na ausência dessa comprovação, há alta probabilidade de rejeição
- Revisão em nível de workshop não é considerada revisão por pares tradicional e, portanto, não atende aos requisitos de submissão
Contexto da política
- Pela política oficial do arXiv, artigos de revisão e position papers não são tipos de conteúdo oficialmente permitidos
- No passado, apenas um pequeno número de artigos de alta qualidade era aceito a critério dos moderadores
- Com a recente expansão da IA generativa e dos grandes modelos de linguagem (LLMs), houve um forte aumento de artigos de revisão de baixa qualidade
- A maioria se limita a listar referências, com pouca discussão de pesquisa realmente nova
- Nessa situação, a carga de trabalho de revisão dos moderadores tornou-se excessiva, prejudicando o objetivo central do arXiv (compartilhar artigos de pesquisa)
Objetivo da mudança
- Garantir que apenas artigos de revisão e position papers valiosos, escritos por especialistas, possam ser encontrados com facilidade no arXiv
- Reduzir a carga de trabalho dos moderadores e permitir foco na análise dos tipos de conteúdo oficiais
- Preservar o objetivo principal do arXiv de promover descobertas científicas de forma rápida e livre
Diferença entre antes e agora
- No passado, artigos de revisão eram escritos por um pequeno número de pesquisadores renomados ou sob solicitação de instituições formais (ex.: Annual Reviews, IEEE, Computing Surveys), o que mantinha a qualidade alta
- Position papers também eram, em sua maioria, produzidos por associações acadêmicas ou grupos governamentais de pesquisa (ex.: Computing Research Association, National Academies)
- Hoje, centenas de artigos de revisão são submetidos todos os meses, e o volume chegou a um ponto em que o controle de qualidade se tornou difícil
Uso de instâncias externas de avaliação
- O arXiv não tem pessoal nem recursos suficientes para realizar por conta própria a verificação de qualidade
- Em vez disso, reconhece a validação feita por instâncias externas confiáveis de avaliação (conferências e periódicos)
- Essas instâncias realizam análises aprofundadas de temas ligados à IA, como privacidade, ética, segurança e proteção
- Com isso, o arXiv passa a conseguir compartilhar apenas artigos com qualidade assegurada
Reenvio e exceções
- Artigos rejeitados por não terem concluído a revisão por pares podem ser reenviados por meio do processo de recurso (appeal) caso a avaliação seja concluída posteriormente
- No entanto, não é permitido reenviar sem um recurso aprovado
- Artigos de pesquisa sobre os impactos sociais da ciência e da tecnologia (cs.CY, physics.soc-ph etc.) não são afetados por esta mudança
Possível expansão para outras categorias
- Cada categoria do arXiv é operada de forma independente por moderadores especialistas
- Embora todas as categorias sigam a mesma política, artigos de revisão continuam sendo, em princípio, um tipo de conteúdo não oficial
- Se houver também em outras áreas um aumento repentino de artigos baseados em LLM, medidas semelhantes de endurecimento da triagem poderão ser adotadas
- Caso isso aconteça, haverá um anúncio oficial
1 comentários
Comentários do Hacker News
Aponta-se que o problema está numa estrutura que recompensa pela quantidade produzida pelas pessoas
Se os pesquisadores recebem incentivos com base no número de artigos, eles acabam explorando o sistema ao máximo, publicando o maior número possível de trabalhos com qualidade mínima
O mesmo vale para recompensas baseadas em visualizações ou em exibição de anúncios, que também induzem comportamentos distorcidos
No fim, o mundo online é um sistema desenhado não para humanos, mas para a otimização algorítmica
Em São Francisco, o valor recebido por ONGs é definido pelo “número de pessoas em situação de rua ajudadas”, o que acaba criando incentivos para mantê-las nessa condição em vez de reduzi-la
O problema são as pessoas e o sistema de incentivos, não a ferramenta em si
A cultura de medir desempenho por métricas sem sentido, como linhas de código ou número de commits, já está errada por si só
Parece que vivemos agora no “inferno de Goodhart” — um mundo em que manipular a métrica virou o objetivo
Em tom de piada, isso satiriza a realidade corporativa em que essa gestão centrada em indicadores acaba provocando grandes falhas
Pergunta-se que forma teria um mundo online centrado em humanos e como os criadores de conteúdo deveriam ser remunerados
Enfatizam que o verdadeiro ponto central não é o número de artigos, mas a captação de verba de pesquisa e a qualidade das propostas
Houve um mal-entendido de que o arXiv não aceitaria mais preprints
Na realidade, a mudança foi apenas que “artigos de revisão” e “position papers” só podem ser enviados após aprovação em revisão por periódico ou conferência
Surgiu a proposta de introduzir um sistema de reputação no arXiv
A ideia é que autores publiquem junto uma chave PGP pública para formar uma rede de confiança
Isso poderia ser menos fechado que periódicos tradicionais e mais organizado do que um sistema totalmente aberto
Aponta-se um problema de controle de qualidade no arXiv
Só em outubro houve 26.000 submissões (link de estatísticas), e há excesso de artigos sem verificação
Sugere-se que uma pequena taxa de submissão poderia reduzir spam
Houve quem apontasse que o título do post no HN estava errado
Na prática, a formulação correta seria: “Devido ao rápido aumento de artigos de revisão escritos por IA, a área de CS do arXiv passa a exigir peer review para artigos de revisão”
Há curiosidade sobre a motivação de quem envia artigos totalmente gerados por IA ao arXiv
O processo de submissão é trabalhoso, então fica a dúvida de por que ainda assim fazem isso
Aponta-se que a maioria dos artigos de baixa qualidade trata de temas relacionados a IA
Muita gente, ao ter o primeiro contato com LLMs, faz experimentos autorreferenciais do tipo “vamos fazer um LLM escrever sobre LLMs”
Como resultado, surgem resumos misturados e confusos dos dados originais
A medida recente do arXiv é avaliada positivamente
Em áreas que mudam rápido, como multi-agent systems e agentic LLMs, há necessidade de critérios claros
Exigir metadados legíveis por máquina sobre tipo de artigo, links para dados/código e escopo de benchmark poderia aumentar a confiabilidade
Padronizar tags como “Survey” e “Position” e uma checklist de reprodutibilidade ajudaria a manter a qualidade sem bloquear ideias iniciais
O arXiv já enfrenta há muito tempo o problema de artigos de baixa qualidade para autopromoção
É algo que existe desde antes dos LLMs