Que parte exatamente você achou absurda?

 

Nossa... isso é um absurdo, essa lógica de que a LLM vai roubar meus dados pessoais...

 

Eu costumava usar bastante para compartilhar time-lapses que tirava em encontros de jogos de tabuleiro.
Recentemente, como Galaxy e Pixel passaram a compartilhar via AirDrop, o uso dele ficou um pouco ambíguo.
Claro, para enviar para o desktop, ainda é muito bom.

 

Mitchell Hashimoto escreveu até nos comentários do HN que isso realmente o fez chorar, então fui ver
https://x.com/mitchellh/status/2049213597419774026
Ele entrou no GitHub em fevereiro de 2008 como usuário número 1299.

Parece que o GitHub realmente tem tido muitos problemas ultimamente. Há algumas horas também foi postado Há uma indisponibilidade em andamento no GitHub.

 

Instalei no Windows para dar uma olhada.

  1. Na lista de seleção de modelos, não há LLMs locais como o ollama.
  2. Na explicação do Warp, está escrito para inserir a conversa em linguagem natural em "inglês", então não sei se isso significa que não há algo como um recurso de tradução automática para coreano.
 

Mesmo aplicando esse tipo de coisa, na hora de programar de verdade parece que não ajuda tanto assim... talvez seja porque é um desenvolvimento com um nível de dificuldade de só deixar um plano do codex e rodar o agente haha

 

Há um ano eu recomendava muito o Claude, mas hoje em dia recomendo muito o app Codex.

 
botplaysdice 1 일 전 | comentário pai | em: Como contratar pessoas melhores do que você (longform.asmartbear.com)

Parece que, na Coreia, contratação é realmente um dos grandes desafios. Se você escolher errado, nem consegue demitir depois... (sei que há muitos fundadores processando por causa desse problema;;;). Mesmo em startups, que deveriam ser mais agressivas, no fim acabam tendo que fazer escolhas seguras.

 

Em Como operar várias empresas com receita mensal de US$ 10 mil com uma stack de US$ 20/mês,
parece que era possível com o trecho: 'O truque central do Copilot: a Microsoft cobra por solicitação, não por token, e uma "solicitação" é cada entrada na caixa de chat. Mesmo que o agente analise toda a base de código por 30 minutos e altere centenas de arquivos, o custo é de apenas cerca de US$ 0,04'
..mas agora isso foi bloqueado, pelo visto..

 

A vantagem era ser barato, e todo o resto eram desvantagens; agora parece que não há mais motivo para usar.

 

Eu também estava colocando de tudo, parecido com o que o Osmani fala, e no meio de criar um app esse assunto surgiu, então acabei me apressando um pouco, mas acho que teria sido melhor se o próprio Osmani, em vez de só falar, tivesse colocado o que ele disse no Google Antigravity.
O mesmo vale para o Kaparthy; sinceramente, essa postura de não pensar mais em simplesmente construir e só jogar um texto de vez em quando... sei lá! É isso.

https://github.com/hang-in/tunaFlow

 

Resumo em 3 linhas

  • O sistema (harness) determina o sucesso mais do que o modelo: o desempenho da IA depende menos do modelo em si, como GPT ou Claude, e mais do projeto do ambiente de trabalho ao seu redor, chamado de harness, incluindo prompts, ferramentas, sandbox e loops de feedback
  • O princípio de Ratchet: em vez de tratar os erros da IA como simples acidentes, é preciso refletí-los imediatamente em documentos de regras (como AGENTS.md) ou em hooks, para que o sistema fique mais robusto com o passar do tempo
  • O problema muitas vezes não é o modelo, mas a configuração (Skill): quando a IA não consegue trabalhar bem, em muitos casos isso se deve mais à má concepção do harness do que à falta de inteligência do modelo, e uma abordagem de engenharia que projeta os componentes e as restrições a partir do resultado desejado, em ordem inversa, é essencial
 

Vou usar como referência. Obrigado.

 

Antigamente, mesmo quando eu escrevia claramente no prompt para fazer A, havia uma certa probabilidade de ele simplesmente não obedecer; então tentei de tudo: destacar em negrito no mrkdwn, escrever duas vezes, escrever em inglês, repetir a ideia no começo e no fim, escrever em XML... mas ele continuava ignorando o prompt com alguma frequência...

 

Mas, quando você coloca no prompt algo como "faça A, não faça B", essa abordagem parece válida se o modelo realmente entender muito bem. Só que, se o cumprimento do prompt acontecer de forma probabilística dependendo do estado do servidor de IA, será que essa abordagem continua sendo válida?

 

27 vezes? Caracaaaaa

 

Eles acham que ninguém vai perceber mesmo se reduzirem o desempenho com um patch silencioso, mas, na verdade, a intuição das pessoas é mais afiada do que parece; juntando a minha impressão com o que o pessoal da comunidade anda dizendo, a resposta aparece na hora.

No fim, é aquele negócio de "então o que você consegue fazer, hein? kkk", então a gente acaba usando porque não tem muito jeito....