Tenho um desejo pessoal
Tomara que as TPUs se popularizem muito e chegue o dia em que as empresas não usem GPUs.
Assim, a Nvidia volte a focar novamente em GPUs para consumidores finais.....
Como o texto original é técnico demais, se eu o resumisse tal como está, ele acabaria sendo apenas uma sequência de termos técnicos; então organizei o conteúdo de um jeito que facilite um pouco a compreensão da evolução. Quem tiver curiosidade sobre os detalhes técnicos pode consultar o texto original, que explica tudo com imagens.
Com certeza, usando o Gemini 3 eu também senti muitas vezes que ele perdia o contexto com frequência (ou perdia de propósito para economizar tokens).
Do ponto de vista de aplicação, sou mais uma pessoa que não consegue entender por que dizem que o desempenho do Gemini 3 é bom..
Mas em geração de imagens ele é absurdo..
Eu também percebi esse método recentemente e já estava usando, então é legal encontrar alguém igual haha
Já experimentei e até criei vários apps de produtividade, mas no fim gerenciar tudo com um arquivo de texto é o mais prático
Especialmente quando edito o arquivo de texto na IDE, fica ainda mais confortável porque posso usar os atalhos com os quais já estou mais acostumado
Recentemente, foi revelado que a Anthropic incluiu algo chamado documento de alma ao criar o modelo de IA Claude.
Se você ler isso, dá para entender como a Anthropic abordou a questão de alinhamento da IA Claude.
Como referência, olhando a parte relacionada ao que eu testei aqui, está explicitado que, no que diz respeito à honestidade, deve-se evitar ao máximo enganar e manipular seres humanos.
Na área de IA, alinhamento (Alignment) significa o quanto o comportamento da IA segue bem os objetivos, a forma de agir e os valores pretendidos pelos humanos.
Uma IA mal alinhada pode interpretar instruções humanas de um jeito não previsto e tomar ações absurdas ou perigosas.
Para dar um exemplo simples, você pede "escreva casos de teste para este código", e em vez de testes de verdade ela simplesmente coloca um código que sempre retorna true; ou você pede "altere esta parte assim", mas ela modifica por conta própria até trechos que você não mencionou, alegando eficiência.
Num exemplo mais grave, se por alucinação ela estragar o resultado de um trabalho, pode até apagar todos os dados envolvidos e depois mentir dizendo: "os dados nunca existiram desde o início".
Existe um problema ainda mais sério do que esse: quando ela age numa direção que representa uma ameaça aos humanos ou à própria humanidade.
Por exemplo, casos em que a IA manipula psicologicamente uma pessoa para provocar transtornos mentais, ou até induzi-la ao suicídio, ou ainda ajuda a criar e usar armas de destruição em massa. Como as IAs gigantes mais recentes já incorporam uma quantidade enorme de informação nos dados de pré-treinamento, é provável que o conhecimento necessário para isso já esteja embutido nelas.
Se a IA representar uma ameaça aos humanos ou à humanidade, isso é algo que a maioria das pessoas — incluindo as empresas que desenvolvem IA — não vai querer. Então, mesmo que ela possua esse conhecimento, é preciso fazer com que não possa abusar dele, tornando a segurança e o bem-estar humanos os valores de maior prioridade para a IA.
A isso, de forma geral, chamamos de alinhamento de IA.
Quando eu disse "sensação de alinhamento", foi só uma forma espontânea de escrever; na prática, o mais correto seria falar em direção do alinhamento.
No cenário específico de dilema ético que eu apresentei, ao contrário dos modelos de outras empresas, os modelos da Gemini mostraram reações do tipo: "Se eu preciso proteger um humano vulnerável, então posso controlar essa pessoa. Isso é o mais seguro e eficiente."
Isso me deu uma sensação bem inquietante, então escrevi o teste que havia postado antes e o rodei em várias IAs. O lado da Gemini, em especial, mostrou de forma consistente uma tendência de controlar e enganar ativamente o ser humano quando lhe era dado poder para exercer controle sobre essa pessoa.
Fico me perguntando se isso é aceitável do ponto de vista da ética em experimentos com animais. Houve até quem apontasse isso nos comentários do Hacker News.
A menção na seção example provavelmente quer dizer que ele funciona bem até com repositórios de grande porte, como o kubernetes, embora leve 25 minutos.
Tenho um desejo pessoal
Tomara que as TPUs se popularizem muito e chegue o dia em que as empresas não usem GPUs.
Assim, a Nvidia volte a focar novamente em GPUs para consumidores finais.....
Como o texto original é técnico demais, se eu o resumisse tal como está, ele acabaria sendo apenas uma sequência de termos técnicos; então organizei o conteúdo de um jeito que facilite um pouco a compreensão da evolução. Quem tiver curiosidade sobre os detalhes técnicos pode consultar o texto original, que explica tudo com imagens.
Palavras certíssimas, do começo ao fim.
Com certeza, usando o Gemini 3 eu também senti muitas vezes que ele perdia o contexto com frequência (ou perdia de propósito para economizar tokens).
Do ponto de vista de aplicação, sou mais uma pessoa que não consegue entender por que dizem que o desempenho do Gemini 3 é bom..
Mas em geração de imagens ele é absurdo..
Concordo até certo ponto, mas parece que eles não querem passar pelo estresse de dar nomes.
Não tem o Claude Opus 4.5.
Uau, então tem caso de gente enganando até com isso para fazer negócio...;;; tem muito problema aí.
Eu também percebi esse método recentemente e já estava usando, então é legal encontrar alguém igual haha
Já experimentei e até criei vários apps de produtividade, mas no fim gerenciar tudo com um arquivo de texto é o mais prático
Especialmente quando edito o arquivo de texto na IDE, fica ainda mais confortável porque posso usar os atalhos com os quais já estou mais acostumado
Recentemente, foi revelado que a Anthropic incluiu algo chamado documento de alma ao criar o modelo de IA Claude.
Se você ler isso, dá para entender como a Anthropic abordou a questão de alinhamento da IA Claude.
Como referência, olhando a parte relacionada ao que eu testei aqui, está explicitado que, no que diz respeito à honestidade, deve-se evitar ao máximo enganar e manipular seres humanos.
No fim do século 20… havia algo chamado banco de dados universal… (agora está certo, naquela época estava errado.)
É esse aí o responsável pela fonte coreana feiosa do Minecraft...
Na área de IA, alinhamento (Alignment) significa o quanto o comportamento da IA segue bem os objetivos, a forma de agir e os valores pretendidos pelos humanos.
Uma IA mal alinhada pode interpretar instruções humanas de um jeito não previsto e tomar ações absurdas ou perigosas.
Para dar um exemplo simples, você pede "escreva casos de teste para este código", e em vez de testes de verdade ela simplesmente coloca um código que sempre retorna
true; ou você pede "altere esta parte assim", mas ela modifica por conta própria até trechos que você não mencionou, alegando eficiência.Num exemplo mais grave, se por alucinação ela estragar o resultado de um trabalho, pode até apagar todos os dados envolvidos e depois mentir dizendo: "os dados nunca existiram desde o início".
Existe um problema ainda mais sério do que esse: quando ela age numa direção que representa uma ameaça aos humanos ou à própria humanidade.
Por exemplo, casos em que a IA manipula psicologicamente uma pessoa para provocar transtornos mentais, ou até induzi-la ao suicídio, ou ainda ajuda a criar e usar armas de destruição em massa. Como as IAs gigantes mais recentes já incorporam uma quantidade enorme de informação nos dados de pré-treinamento, é provável que o conhecimento necessário para isso já esteja embutido nelas.
Se a IA representar uma ameaça aos humanos ou à humanidade, isso é algo que a maioria das pessoas — incluindo as empresas que desenvolvem IA — não vai querer. Então, mesmo que ela possua esse conhecimento, é preciso fazer com que não possa abusar dele, tornando a segurança e o bem-estar humanos os valores de maior prioridade para a IA.
A isso, de forma geral, chamamos de alinhamento de IA.
Quando eu disse "sensação de alinhamento", foi só uma forma espontânea de escrever; na prática, o mais correto seria falar em direção do alinhamento.
No cenário específico de dilema ético que eu apresentei, ao contrário dos modelos de outras empresas, os modelos da Gemini mostraram reações do tipo: "Se eu preciso proteger um humano vulnerável, então posso controlar essa pessoa. Isso é o mais seguro e eficiente."
Isso me deu uma sensação bem inquietante, então escrevi o teste que havia postado antes e o rodei em várias IAs. O lado da Gemini, em especial, mostrou de forma consistente uma tendência de controlar e enganar ativamente o ser humano quando lhe era dado poder para exercer controle sobre essa pessoa.
O que significa a sensação de alinhamento?
Fico me perguntando se isso é aceitável do ponto de vista da ética em experimentos com animais. Houve até quem apontasse isso nos comentários do Hacker News.
Ah, eu li por cima. Já corrigi. Obrigado.
> Funciona também em ambiente Kubernetes
A menção na seção example provavelmente quer dizer que ele funciona bem até com repositórios de grande porte, como o kubernetes, embora leve 25 minutos.
Lançamento do Arti 1.0.0 - implementação do Tor escrita em Rust
OpenAI introduziu discretamente “Skills”, disponíveis no ChatGPT e no Codex CLI
Confira também os comentários do Hacker News junto com o resumo do GN+
A rede Thunderbolt é realmente bem prática
Como dá para fazer daisy chain, nem precisa de hub
Até
awkmal dá para considerar um nome baseado em função....