Estava escrito que era uma reescrita completa do co(lab), então pensei que fosse algo para melhorar, junto com o Google, a estabilidade da nuvem para executar ipynb, mas na verdade é um projeto de desenvolvimento da equipe do Blackboard sem qualquer relação com isso.

Ainda assim, parece ser uma experiência importante o fato de que o OOPIF, instalado via npx, pode ser acessado

 

Será que não é porque é uma linguagem AI-native(?)?
Como não é uma linguagem feita para humanos escreverem diretamente, não faz sentido ficar discutindo o tamanho real do código e coisas do tipo;
parece que a ideia é medir o tempo de compilação de um prompt para implementar alguma funcionalidade... kkk

 

Estão consolidando uma liderança absoluta.

 
shakespeares 2026-03-02 | comentário pai | em: Call-me - Claude Code liga para você (github.com/ZeframLou)

Muito legal.

 

Não estou usando porque não combina bem com worktrees do mesmo projeto.

 

Achei que fazia a atribuição automaticamente, mas pelo visto é só um esquema de registrar manualmente.
Estou usando Caddy, então não vejo muito motivo para trocar por isso.

 

Eu já estava fazendo isso com docker + traefik + mkcert, mas acho que usar isso aí vai ser mais prático.

 

É bom demais, a ponto de dar medo. Acho que não é bom ficar dependente dele assim... precisamos ter concorrentes.

 

Disseram tanto que a Anthropic era boa, e ela está se saindo ainda melhor. Parece que está estimulando bastante a concorrência nas outras empresas.

 

Tenho pensado em algo parecido ultimamente, então ontem escrevi um post no blog sobre dívida cognitiva. Parece que todo mundo está passando por preocupações parecidas.

 

Interessante. Vocês têm algum plano de desenvolvimento para o futuro?

 

Uau kkk

 

Isso mesmo... quando se usa um encoder de visão, até um modelo de 1B acaba consumindo 9 GB de VRAM.

 
holywork 2026-03-02 | comentário pai | em: Foi tudo uma fraude (garymarcus.substack.com)

Acho que Sam Altman pode muito bem ser um sociopata reptiliano.

 

"O ato de criar objetos físicos com as próprias mãos traz uma transformação interior"

 

Tenho uma RTX Pro 6000 (96GB, na prática 94GB), mas o modelo 122B não sobe no ollama. Acho que é por ser um modelo de visão, por causa da parte que inclui o vision transformer. Já o modelo GPT OSS 120b sobe com folga.

 

Só entrega desempenho se for executado em um servidor llama.cpp baseado em CUDA.

 

Obrigado. Eu estava com medo porque surgiu o cowork, que faz até o papel de servidor só de deixar o PC ligado, mas isso me tranquiliza um pouco e consigo imaginar na minha cabeça como as coisas vão mudar daqui para frente rs

 

Como comentaram no X, aparentemente, se você estiver usando com Docker e informar à força o PID do daemon do Docker, isso também funciona.

https://github.com/vercel-labs/portless/issues/61