18 pontos por kciter1 24 일 전 | 16 comentários | Compartilhar no WhatsApp
  • Com o avanço acelerado da IA, tem aumentado o número de desenvolvedores que sentem depressão psicológica ao ver sua especialização sendo substituída
  • Como muitos desenvolvedores passaram a sentir esse desânimo, isso acabou recebendo o nome de Claude Blue
  • Além disso, os neologismos despejados todos os dias estão intensificando o FOMO e a ansiedade dos desenvolvedores
  • A chave para superar o medo está em entender
  • As inúmeras formas de "engenharia" são, no fim, apenas variações do processo de "enviar a entrada adequada para uma API e processar a resposta", algo que os desenvolvedores já fazem bem há muito tempo
  • Em vez de ser levado por conteúdos que provocam FOMO, se você entender a essência, poderá encaixar novos termos no seu sistema de conhecimento existente e julgá-los com calma

Estrutura do medo e como superá-lo

  • As pessoas sentem medo diante daquilo cuja natureza desconhecem. O medo da IA também nasce menos da IA em si e mais do fato de "não saber como ela funciona"
  • Quando se entende sua natureza, a mágica começa a parecer tecnologia, e tecnologia é algo que pode ser aprendido e tem limites
  • Há também pesquisas indicando que 24% dos trabalhadores tiveram piora na saúde mental por causa da sobrecarga de informação gerada pela IA

O que é um LLM

  • Um LLM é um modelo de previsão da próxima palavra que "gera a saída mais adequada para uma determinada entrada"
  • ChatGPT, Claude e Gemini funcionam todos com o mesmo princípio, e a realidade do serviço é uma chamada de API HTTP em que o cliente envia uma mensagem e o modelo retorna tokens em streaming
  • A forte capacidade de programação dos agentes de IA também está apenas envolvendo essa chamada de API

Como os agentes de IA ficaram mais inteligentes

  • Prompt engineering: atribuição de papéis, Few-Shot, Chain-of-Thought etc. são, no fim, formas de tornar mais específico o contexto do texto de entrada para orientar a direção da saída
  • Controle do formato de saída: com JSON Schema, Function Calling etc., a saída do modelo passa a ter uma estrutura que o programa consegue fazer parse. Com Function Calling, torna-se possível uma estrutura em que o modelo chama ferramentas e o runtime as executa. MCP e RAG também são formas de chamada de ferramentas
  • Context engineering: não é sobre como perguntar, mas sobre projetar o que o modelo verá antes de raciocinar. Como entradas longas reduzem a capacidade de foco, o essencial é colocar a informação certa no lugar certo
  • Divisão de prompts: em vez de um único prompt gigantesco, dividir o processamento em vários prompts pequenos e focados. Sub-Agent e Skill entram nessa categoria
  • Harness engineering: projetar todo o ambiente de execução ao redor do modelo. É composto por guias (direcionamento antes da ação) e sensores (validação do resultado depois da ação)
    • Ralph loop: técnica de reinjetar o mesmo prompt repetidamente quando o critério de conclusão não é atendido. O progresso é salvo no sistema de arquivos e no git para que possa continuar mesmo em um novo contexto a cada vez. É apenas uma das estratégias subordinadas ao harness, não o próprio harness

Saindo do FOMO

  • Mesmo com conhecimento, continuamos ansiosos porque os geradores de FOMO nos fazem sentir como se não soubéssemos nada
  • Uma boa forma de não sentir FOMO é observar o que, na prática, esses geradores de FOMO realmente resolveram
    • Na maioria dos casos, eles apenas comprimiram o processo, e não resolveram o problema
  • Quando você entende a essência, ao se deparar com novas informações consegue julgar por conta própria se é um novo paradigma, uma variação de um conceito existente ou um exagero

O que fazer daqui para frente

  • Não é obrigatório fazer alguma coisa. Se a IA não ajuda no seu problema, basta continuar vivendo como já vivia. No fim, é só uma ferramenta: use se precisar, não use se não precisar
  • Nem tudo tem uma resposta certa. Portanto, não há necessidade de se esforçar para encontrar um gabarito
  • Se você tem conhecimento, daqui para frente, mesmo que surjam novos termos, terá olhos para perceber do que eles realmente estão falando

16 comentários

 
pjs102793 23 일 전

Uma boa forma de não sentir FOMO é observar o que, na prática, as pessoas que provocam esse FOMO realmente resolveram usando IA.

Concordo muito com isso mesmo kkk

 
limhasic 23 일 전

Hehe, e agora o que eu faço?

 
savvykang 23 일 전

A especialização inteira não é algo que possa ser substituído, não é? Até o próprio processo de criação do termo é estranho.

 
kciter1 23 일 전

No texto original, nunca se afirmou que a IA pode substituir toda a especialização. Eu também não penso assim...

 
brainer 24 일 전

> Um LLM é um modelo de previsão da próxima palavra que "gera a saída mais apropriada para uma determinada entrada"

Está falando do GPT-3.

 
jmg008 23 일 전

Eu achava que, entre os grandes modelos de linguagem lançados no mercado depois do GPT, tirando alguns que usam modelos de difusão, todos funcionavam no formato de prever o próximo token. Se houver algum modelo que opere de outra forma, eu agradeceria se você pudesse me informar.

 
kciter1 24 일 전

Então o modelo mais recente é diferente? Se houver algo incorreto, agradeço se puderem me corrigir; acho que isso pode ajudar outras pessoas também, inclusive eu rs

 
brainer 23 일 전

Se você vai reduzir os LLMs modernos a “previsão da próxima palavra”, então o AlphaGo também não passa de “previsão da próxima jogada”.

Desde o ChatGPT, prever a próxima palavra não passa de um simples pre-training.

Na verdade, é um modelo que alcança objetivos.

 
cafedead 23 일 전

O AlphaGo também não prevê a próxima jogada calculando qual delas tem a maior probabilidade de vitória?????

 
cafedead 23 일 전

Estou confuso. É brincadeira, ou surgiu alguma técnica ou tecnologia nova que eu não conheço??

 
brainer 23 일 전

A chave é a "taxa de acerto".
Só prever a próxima palavra não é suficiente nem para produzir frases realmente úteis, muito menos para programar ou fazer matemática direito.
Esse tipo de técnica surgiu nas décadas de 60 e 70.

(A rigor, nem são palavras.)

 
kciter1 23 일 전

Hum... estou pensando que talvez o texto tenha sido transmitido de forma diferente da minha intenção. Se este texto pareceu menosprezar o valor técnico dos LLMs, peço desculpas.

Ainda assim, a intenção deste texto era tirar o exagero e a aura de mistificação para olhar a questão com frieza. Por isso, pessoalmente, quando se usa a expressão 'modelo que atinge objetivos', sinto que há uma mistificação nisso. No fim, seja software comum ou um modelo, ambos servem para atingir algum 'objetivo'.

Então, somando a isso uma curiosidade pessoal, gostaria de perguntar novamente se a expressão que você mencionou é, de fato, mais tecnicamente precisa.

 
h0422ys 23 일 전

gpt 3: previsão da próxima palavra -> correto
a partir do gpt 3, modelos baseados em Transformer: previsão da próxima palavra -> correto.
AlphaGo, AlphaZero, MuZero, ...: previsão da próxima jogada -> correto.
Modelo que alcança um objetivo (específico) -> correto.

Não há nenhuma afirmação errada no que foi dito

 
rlaaudgjs5638 23 일 전

Acho que é algo assim também.
No fim das contas, o próprio modelo é apenas uma função de entrada e saída.
Partindo do pressuposto de que lhe sejam fornecidos um harness adequado e um loop de agente, parece válido dizer que o modelo alcança o objetivo.

 
blacksocks 23 일 전

Pode ser resumido como: “previsão do próximo token” é precisa como explicação no nível de implementação, mas é incompleta como forma de descrever as capacidades ou o propósito do modelo?

 
ng0301 23 일 전

Então talvez faça sentido encontrar um meio-termo com um modelo que preveja melhor 😄