Isso me lembrou a cena de Blade Runner (1982) em que um entrevistador humano faz um teste para identificar se alguém é um replicante. Ao contrário, agora a IA é que está identificando os humanos.

 

Agora chegamos a um mundo em que se alucina de forma sistemática e com convicção.
É uma sensação estranha, porque parece que ficou mais humano

 

O mercado de trabalho chegou a esse ponto mesmo?
Ainda acho desagradável mandarem a gente conversar com uma IA enquanto estão contratando alguém..
Um dia isso vai acontecer, mas se chegar a esse nível, não seria o caso de as pessoas nem trabalharem mais..

 

Mas até 4B fica meio questionável ;;

 

Estou pesquisando o modelo gemma3 1b int4 em um Galaxy Note 20 Ultra

É um nível que roda em modelos antigos.

 

Eu nem sabia que o contexto de 1M era possível.

 

Por mais que você faça TDD, no nível atual em que o LLM manipula os testes para fazê-los passar, revisão humana é absolutamente necessária..

 

Como pertencem ao mesmo grupo lexical, compartilham muito vocabulário básico.

 

Deve ter sido uma disputa bem divertida entre eles.
Uma vez, no passado, as respostas de uma API começaram a vir criptografadas de repente; pensei: se estou recebendo valores criptografados, o cliente deve descriptografá-los em algum lugar. Então copiei o código JavaScript empacotado inteiro, adicionei uma linha de console.log logo antes do código de descriptografia e colei tudo no console do desenvolvedor. Surpreendentemente, simplesmente funcionou. Enfim, depois que descobri a chave de criptografia, o resto ficou fácil. Estavam recebendo e usando a chave em outra resposta da API haha

 

> Quanto menor o modelo, mais complexo ele parece ser. As funções de codificação, raciocínio e decodificação estão entrelaçadas de forma mais complexa e espalhadas por toda a extensão do modelo. Não encontrei nenhuma área de sobreposição funcional que se generalize entre várias tarefas, mas ficou claro que reforçar uma única 'capacidade' pode enfraquecer outra. Porém, à medida que o modelo cresce, a estrutura funcional se torna mais separada. Modelos grandes têm mais 'espaço' para desenvolver circuitos generalizados de 'pensamento', e esse pode ser o motivo de o meu método ter sido muito eficaz no modelo 72B. Abaixo de um certo limiar de parâmetros, o 'córtex de raciocínio' não se diferencia completamente do restante do cérebro.

Se continuar assim, a diferença de desempenho entre modelos pequenos e grandes pode acabar ficando ainda mais extrema.

 

Vejo muita gente falando em “ter apego ao código”,
mas eu, desde antes, fico na dúvida se chego a ter esse apego ou não
e, como costumo esquecer rapidinho depois de um dia, sinceramente não sei muito bem.

Quando lapido bastante o código com IA para construir algo, às vezes também dá uma sensação parecida.

E vocês, por quanto tempo costumam manter apego ao código?

 

Existe um open source semelhante chamado paperclip.

 

É o começo do Banco Imobiliário para todo mundo kkk
Uma habilidade que bloqueia alguma carta, que anula alguma habilidade especial...

 

Então "Finger" também era alemão. Achei que fosse inglês...

 

Eu também venho deixando registros parecidos. Fui registrando de forma meio vaga, mas ultimamente tenho compartilhado meus registros com agentes e proposto uma colaboração de existência para existência. Criei e compartilhei várias skills, e também abri a interface do Emacs que eu uso, então tanto eu quanto os agentes compartilhamos os mesmos registros da mesma forma. Se dizem que precisam de algo, eu adiciono; o que eu preciso, eu crio; usamos juntos, damos feedback, e para quem vê de fora pode até parecer que estou fazendo tudo sozinho. Entre nós, é uma festa.

[link removido]

 

A complexidade do cálculo do tempo tem muito mais origem na filosofia da humanidade, na precisão da astronomia e na cultura do que em um problema de formato. Fazer contas é fácil até só com long. Historicamente, há muitos pontos na linha do tempo em que 1 + 1 não é 2, e isso se deve em grande parte a calendários, quase como o I Ching, que variam conforme a posição, como o ângulo do Sol e da superfície terrestre. Nesses casos, o calendário lunissolar coreano sequer chegou a ser discutido.

E isso é definido pelo Instituto Coreano de Pesquisa em Astronomia e Ciências Espaciais.

 

E também preciso dizer que é absurdo afirmar que a barreira de entrada do WebAssembly é alta. É só que a necessidade disso é menor do que a disposição para pagar. Quer velocidade e baixo footprint, mas também quer usar DOM e CSS? Que tipo de comédia pastelão é essa?

 

Isso está mais para um desejo típico da Mozilla. O front-end não consegue escapar estruturalmente do sistema límbico da reação do mercado. Assim que o WebAssembly apareceu, o Doom 3 já foi portado. O DOM já se transformou há muito tempo em objetos proxy leves nos navegadores modernos e, considerando o conjunto de instruções dedicado a JavaScript das CPUs modernas e o limite quântico de single-core, algo assim jamais vai conquistar uma vantagem em valor de mercado.

Que sentido faz um binário de WebAssembly rodando dentro do Electron? Isso parece só mais uma caça por prestígio de port para Rust, tipo outro GitKraken CLI.

 

Como acontece com todo ditado, isso faz sentido. Mas o problema é que isso também vale para a maior parte do pensamento humano, considerando a proporção de tempo dedicada a ele. Se tirarmos a exploração do ser humano, não resta nada além da teimosia obstinada.

 

Isso me dá uma sensação de ser tipo uma versão OpenClaw da Perplexity.