dongjinahn 2025-08-12 | comentário pai | em: Debian 13 "Trixie" lançado (debian.org)

Também estava usando Ubuntu em um VPS de 512 MB de RAM por US$ 2,50/mês e depois migrei para o Debian, e gostei disso. Como já vinha do Ubuntu, ficamos naturalmente familiarizados, e também consome menos memória.

 

Li muito bem. Isso me fez pensar bastante, mas também foi um alívio ver que ainda há partes que valem a pena tentar.

 

Ultimamente, quase não vejo o RSS completo pelo Feedly e, quando quero dar uma olhada no que tem, costumo usar estes dois aqui.

 

Se for pra usar Zig, eu prefiro usar C hahaha...

 

Meu material foi apresentado no GeekNews. É uma honra para a família.

 

Para mim aparece: We haven’t opened ordering in your region yet, but we’re looking forward to getting there! We can notify you when ordering opens

 

https://frame.work/desktop?tab=overview

Parece possível... então vai ser lançado no 4º trimestre, pelo visto?

 

Principalmente nas regiões da Azure na Ásia, a proporção de AMD que a OpenAI usa é de algo como 2 para 8 da Nvidia.

 

No caso da OpenAI, não estão usando apenas hardware da NVIDIA, mas também o MI300X da AMD para inferência. No treinamento, é só NVIDIA, mas
na inferência estão obcecados em garantir VRAM de qualquer jeito para compensar o custo do investimento.
No caso da Microsoft, é a mesma coisa: na inferência, estão misturando NVIDIA e AMD.

 

Torcendo pelo zig :)

 

Pior é que a pessoa que escreveu o post foi o Gary Marcus, que só fala besteira, então...

 

E, durante a apresentação, o jeito em que ele mostrou os benchmarks também incluiu um erro totalmente absurdo, o que acho que também contribuiu para uma impressão geral ruim.

 

Se tivessem feito um show&prove quietinho como a Google, provavelmente não teria chegado a esse ponto. Pelo que rolou até agora, acho que é uma consequência merecida de todo esse hype por causa de frases como “isso é perigoso demais”, “o que é esse bicho da morte?”, “parece que criaram uma bomba atômica” e de tanto criar hype do nada.

 

A maioria das respostas do GPT-5 leva mais de 10 segundos pensando. Nesse ponto, dá a sensação de "com esse tempo eu já teria feito umas 3 ou 4 perguntas", mas ao mesmo tempo também fico pensando "ah, então eu deveria ter feito mais perguntas"
Não sei se ele é tecnicamente superior; parece mais só uma forma de gastar mais tempo para entregar um resultado melhor

 

Eu também sou assim, a sensação é ótima.. Como tem um rio perto da escola, eu nem sei o tamanho da sorte que é poder escapar para a natureza bem rápido saindo do mestrado..

 

É um produto que provavelmente não dá para comprar na Coreia, né..?

 

Uau, eu me interessava por SFF, e apareceu um desktop que eu queria comprar já pronto.. fiquei com vontade

 

A qualidade está muito boa só pelos materiais. Obrigado por compartilhar.

 

Quando leio textos sobre como usar IA, eles acabam chegando mais ou menos à mesma direção, e acho curioso ver que isso também tem pontos em comum com a engenharia de software tradicional. No fim, se substituirmos IA = desenvolvedor, talvez dê para enxergar isso como a questão de "como desenvolver melhor com vários desenvolvedores?".