Também estava usando Ubuntu em um VPS de 512 MB de RAM por US$ 2,50/mês e depois migrei para o Debian, e gostei disso. Como já vinha do Ubuntu, ficamos naturalmente familiarizados, e também consome menos memória.
No caso da OpenAI, não estão usando apenas hardware da NVIDIA, mas também o MI300X da AMD para inferência. No treinamento, é só NVIDIA, mas
na inferência estão obcecados em garantir VRAM de qualquer jeito para compensar o custo do investimento.
No caso da Microsoft, é a mesma coisa: na inferência, estão misturando NVIDIA e AMD.
E, durante a apresentação, o jeito em que ele mostrou os benchmarks também incluiu um erro totalmente absurdo, o que acho que também contribuiu para uma impressão geral ruim.
Se tivessem feito um show&prove quietinho como a Google, provavelmente não teria chegado a esse ponto. Pelo que rolou até agora, acho que é uma consequência merecida de todo esse hype por causa de frases como “isso é perigoso demais”, “o que é esse bicho da morte?”, “parece que criaram uma bomba atômica” e de tanto criar hype do nada.
A maioria das respostas do GPT-5 leva mais de 10 segundos pensando. Nesse ponto, dá a sensação de "com esse tempo eu já teria feito umas 3 ou 4 perguntas", mas ao mesmo tempo também fico pensando "ah, então eu deveria ter feito mais perguntas"
Não sei se ele é tecnicamente superior; parece mais só uma forma de gastar mais tempo para entregar um resultado melhor
Eu também sou assim, a sensação é ótima.. Como tem um rio perto da escola, eu nem sei o tamanho da sorte que é poder escapar para a natureza bem rápido saindo do mestrado..
Quando leio textos sobre como usar IA, eles acabam chegando mais ou menos à mesma direção, e acho curioso ver que isso também tem pontos em comum com a engenharia de software tradicional. No fim, se substituirmos IA = desenvolvedor, talvez dê para enxergar isso como a questão de "como desenvolver melhor com vários desenvolvedores?".
Também estava usando Ubuntu em um VPS de 512 MB de RAM por US$ 2,50/mês e depois migrei para o Debian, e gostei disso. Como já vinha do Ubuntu, ficamos naturalmente familiarizados, e também consome menos memória.
Li muito bem. Isso me fez pensar bastante, mas também foi um alívio ver que ainda há partes que valem a pena tentar.
Ultimamente, quase não vejo o RSS completo pelo Feedly e, quando quero dar uma olhada no que tem, costumo usar estes dois aqui.
Li com prazer. É engraçado e útil.
Se for pra usar Zig, eu prefiro usar C hahaha...
Meu material foi apresentado no GeekNews. É uma honra para a família.
Para mim aparece: We haven’t opened ordering in your region yet, but we’re looking forward to getting there! We can notify you when ordering opens
https://frame.work/desktop?tab=overview
Parece possível... então vai ser lançado no 4º trimestre, pelo visto?
Principalmente nas regiões da Azure na Ásia, a proporção de AMD que a OpenAI usa é de algo como 2 para 8 da Nvidia.
No caso da OpenAI, não estão usando apenas hardware da NVIDIA, mas também o MI300X da AMD para inferência. No treinamento, é só NVIDIA, mas
na inferência estão obcecados em garantir VRAM de qualquer jeito para compensar o custo do investimento.
No caso da Microsoft, é a mesma coisa: na inferência, estão misturando NVIDIA e AMD.
Torcendo pelo zig :)
Pior é que a pessoa que escreveu o post foi o Gary Marcus, que só fala besteira, então...
E, durante a apresentação, o jeito em que ele mostrou os benchmarks também incluiu um erro totalmente absurdo, o que acho que também contribuiu para uma impressão geral ruim.
Se tivessem feito um show&prove quietinho como a Google, provavelmente não teria chegado a esse ponto. Pelo que rolou até agora, acho que é uma consequência merecida de todo esse hype por causa de frases como “isso é perigoso demais”, “o que é esse bicho da morte?”, “parece que criaram uma bomba atômica” e de tanto criar hype do nada.
A maioria das respostas do GPT-5 leva mais de 10 segundos pensando. Nesse ponto, dá a sensação de "com esse tempo eu já teria feito umas 3 ou 4 perguntas", mas ao mesmo tempo também fico pensando "ah, então eu deveria ter feito mais perguntas"
Não sei se ele é tecnicamente superior; parece mais só uma forma de gastar mais tempo para entregar um resultado melhor
Eu também sou assim, a sensação é ótima.. Como tem um rio perto da escola, eu nem sei o tamanho da sorte que é poder escapar para a natureza bem rápido saindo do mestrado..
É um produto que provavelmente não dá para comprar na Coreia, né..?
Uau, eu me interessava por SFF, e apareceu um desktop que eu queria comprar já pronto.. fiquei com vontade
A qualidade está muito boa só pelos materiais. Obrigado por compartilhar.
Quando leio textos sobre como usar IA, eles acabam chegando mais ou menos à mesma direção, e acho curioso ver que isso também tem pontos em comum com a engenharia de software tradicional. No fim, se substituirmos IA = desenvolvedor, talvez dê para enxergar isso como a questão de "como desenvolver melhor com vários desenvolvedores?".