GeekNews Recentes Comentários Arquivo
◀ Ano anterior | ◁ Mês anterior | << Semana anterior | < Dia anterior | 2026-02-23 | Próximo dia > | Próxima semana >> | Próximo mês ▷
21
 

CXMT, da China, pressiona Samsung e SK na disputa por HBM4 com oferta de DDR4 pela metade do preço

(koreaherald.com)
A CXMT reduziu os preços de DDR4 pela metade e aumenta a pressão sobre Samsung e SK hynix ao expandir sua presença em DRAM e avançar rumo a HBM.
3 pontos por GN⁺ 2026-02-23 | 1 comentários
22
 

zclaw - assistente pessoal de IA que roda no ESP32 com 888KB

(github.com/tnm)
zclaw é um assistente pessoal de IA ultraleve para ESP32 que combina controle por linguagem natural, GPIO, agendamento e integração com LLMs em menos de 888KiB.
10 pontos por GN⁺ 2026-02-23 | 1 comentários
23
 

Blacklist de AI para uBlock

(github.com/alvi-se)
Uma blacklist aberta para o uBlock Origin bloqueia fazendas de conteúdo gerado por AI e ajuda a reduzir a poluição dos resultados de busca.
6 pontos por GN⁺ 2026-02-23 | 1 comentários
24
 

O site que revive jogos multiplayer mortos, GameDate

(gamedate.org)
O GameDate organiza sessões comunitárias para reviver o multiplayer online de jogos clássicos e abandonados.
1 pontos por GN⁺ 2026-02-23 | 1 comentários
25
 

"Claws", segundo Andrej Karpathy

(simonwillison.net)
Claws é uma nova camada acima de agentes LLM que amplia orquestração, persistência e execução de tarefas em sistemas de IA pessoais.
6 pontos por GN⁺ 2026-02-23 | 1 comentários
26
 

A abordagem da Taalas para ‘imprimir’ LLMs em chips

(anuragk.com)
A Taalas gravou o Llama 3.1 8B diretamente em um chip ASIC e diz entregar inferência 10 vezes mais rápida, barata e eficiente em energia do que GPUs.
23 pontos por GN⁺ 2026-02-23 | 5 comentários
27
 

Toda empresa que desenvolve assistentes de IA agora é uma empresa de publicidade

(juno-labs.com)
À medida que assistentes de IA baseados em anúncios e sempre ligados se espalham, o texto defende que apenas a IA local no dispositivo pode proteger de fato a privacidade do usuário.
4 pontos por GN⁺ 2026-02-23 | 1 comentários
28
 

ntransformer - motor de inferência NVMe-to-GPU para rodar Llama 3.1 70B em uma única RTX 3090

(github.com/xaskasdf)
Motor de inferência em C++/CUDA que usa streaming direto entre NVMe e GPU para rodar Llama 70B em uma única RTX 3090 com até 83x mais velocidade que mmap.
15 pontos por GN⁺ 2026-02-23 | 1 comentários
GeekNews | Sobre Termos Privacidade Contato
GeekNews é uma plataforma de notícias de tecnologia que seleciona novidades sobre tecnologia e IA.