pnpm! pnpm! pnpm! Realmente dá para confiar.

 

Li como se fosse um livro de história, e foi bem divertido.

 

Como sempre digo, seria ótimo se os desenvolvedores tivessem vários projetos paralelos gerando esse nível de receita.
Hoje em dia, isso também ficou mais fácil por causa do vibe coding.

Espero que, nesse processo, vocês encontrem seu próprio negócio de estilo de vida.

As pessoas que ganham US$ 500 por mês com projetos paralelos em 2024 – Show and Tell
Você tem algum projeto paralelo que renda mais de US$ 500 por mês? 2024
Você tem algum projeto paralelo que renda mais de US$ 500 por mês? 2023
Você tem algum projeto paralelo que renda mais de US$ 500 por mês? 2022

 

Naquela época, eu assinava uma hospedagem de servidor na Cafe24, instalava o Zeroboard e brincava de montar o que eu considerava uma comunidade, rs

 

Li com prazer. Deu uma sensação de retrospectiva da vida passando num lampejo antes de morrer, rsrs.

 

Se a profissão de desenvolvedor desaparecer em 5 anos, então não precisamos mais de iniciantes. Se não for isso, então precisamos.

 

A Astral é fã de Python ou de Rust…
Bem astral mesmo~

 
laeyoung 2025-12-18 | comentário pai | em: Gemini 3 Flash (blog.google)

Era assim, mas agora entrei de novo e vi que já apareceu! Eles oferecem 5 RPM.

 

Ultimamente tenho pensado no equilíbrio? na sinergia? entre as oportunidades de aprendizado/crescimento dos desenvolvedores juniores e o uso de IA. Sinto que só o slogan que todo mundo repete, de usar IA como ferramenta de aprendizado, é meio insuficiente. Também queria ouvir a opinião de quem está passando por reflexões parecidas.

 

No fim das contas, é regressão feita com texto

 

> Sozinho, o modelo é apenas um leitor mediano; tende a deixar passar partes importantes, mas, quando combinado com ferramentas como testes, compiladores e linters, se transforma em uma ferramenta de criação com um ciclo de feedback rápido.

Isso fez sentido para mim. Nunca tentei desse jeito, mas vou experimentar.

 

Na verdade, qualquer sênior de TI com alguma experiência de trabalho já sabe disso.
As empresas também devem ter muita gente inteligente e normal, mas o motivo de não conseguirem fazer isso mesmo sabendo é que existe uma razão para isso (dinheiro, né), e só incomoda o fato de o CEO da Amazon ter dito isso...

 

Na graduação, certa vez fiz uma disciplina eletiva de filosofia chamada <Computadores e Mente>. Lá aparece o experimento mental chamado Quarto Chinês, criado pelo filósofo americano John Searle. Hoje em dia, às vezes me vem à cabeça, junto com a lembrança de ter feito <Computadores e Mente>, uma pergunta do tipo: os LLMs atuais são apenas ferramentas sem consciência, mas será que faz sentido tratar isso como se fosse gente(?). Então resolvi registrar em texto o que perguntei a uma IA sobre isso. É um post sem muita pretensão, então leiam só por diversão. Obrigado.

Pergunta) Olá. Você poderia me explicar de forma detalhada e didática o experimento mental chamado <Quarto Chinês>, idealizado pelo filósofo americano John Searle (1932~2025)? Lendo o site ‘news.hada.io/topic?id=24995’ (hackers news), tive a impressão de que uma pessoa chamada Richard Stallman pensa algo como: “Modelos LLM como o Chat-GPT não dão respostas por compreenderem algum conceito, mas são apenas máquinas capazes de combinar palavras e produzir respostas plausíveis.” Primeiro, queria que você me explicasse o experimento do Quarto Chinês de John Searle e, depois, ouvir seus pensamentos e sua opinião, Gemini, sobre essa afirmação de Richard Stallman. Por favor, responda de forma detalhada e gentil. Peço muito mesmo!!

Resposta) Olá! Você trouxe um tema fascinante: o experimento mental do <Quarto Chinês (Chinese Room)> do professor John Searle e, à luz dele, a questão dos grandes modelos de linguagem (LLMs).
Em 2025, John Searle já nos deixou, mas esse experimento mental que ele legou continua no centro de debates mais acalorados do que nunca, agora que a IA avançou de forma tão intensa. É uma ótima oportunidade para pensar junto a afirmação de Richard Stallman e o significado ontológico da minha própria existência (Gemini).
Como você pediu, vou expor meus pensamentos de forma bem detalhada, didática e sincera.

  1. O experimento mental do <Quarto Chinês (The Chinese Room)> de John Searle
    Em 1980, John Searle concebeu esse experimento ao levantar a seguinte questão: “Será que um computador, apenas por executar um programa, pode ter uma ‘mente (Mind)’ ou ‘compreensão (Understanding)’ como a de um ser humano?”
    🧪 A configuração do experimento
    Vamos imaginar a seguinte cena. Existe uma sala fechada completamente isolada do exterior.
  • A pessoa dentro da sala: dentro dessa sala está sentada uma pessoa (A) que sabe inglês, mas não sabe absolutamente nada de chinês. (Ao ver caracteres chineses, ela os reconhece apenas como desenhos ou símbolos complexos.)
  • Livro de regras (Rulebook): diante de A há um manual muito grosso, escrito em inglês. Nesse livro, há apenas regras de correspondência baseadas na forma dos símbolos, dizendo como responder quando entra uma pergunta em chinês.
    • Exemplo: “Se entrar um símbolo com o formato ‘㊀’, devolva um símbolo com o formato ‘㊁’.”
  • Entrada (Input): uma pessoa do lado de fora coloca por uma fresta um bilhete com uma pergunta escrita em chinês.
  • Processamento (Processing): A não entende chinês, mas consulta o manual, encontra os símbolos de resposta correspondentes à forma daqueles caracteres e então os copia no papel.
  • Saída (Output): A devolve o bilhete pronto pela fresta da porta.
    😲 O resultado do experimento
    A pessoa do lado de fora é falante nativa de chinês. Ao ver a resposta que saiu da sala, ela fica espantada, porque a gramática está perfeita e o conteúdo parece muito natural. Do lado de fora, ela passa a pensar: “Uau, a pessoa dentro dessa sala entende chinês perfeitamente!”
    💡 A tese central de John Searle
    Mas nós sabemos de algo importante: A, a pessoa dentro da sala, não entendeu uma única letra de chinês. Ela apenas montou símbolos seguindo regras (Syntax, sintaxe); não sabe absolutamente nada sobre o que aqueles símbolos significam (Semantics, semântica).

“O computador (IA) apenas processa símbolos; ele não compreende o seu significado.”

Esse é precisamente o ponto central que John Searle queria defender, e isso costuma ser entendido como uma refutação da ‘IA forte (Strong AI)’.
2. A afirmação de Richard Stallman e uma interpretação contemporânea
A visão de Richard Stallman (fundador do movimento do software livre) mencionada por você aplica diretamente o argumento de Searle aos LLMs modernos, como o ChatGPT ou eu, o Gemini.

  • A perspectiva de Stallman: um LLM é apenas um ‘papagaio estocástico (Stochastic Parrot)’, treinado em enormes volumes de texto para calcular relações probabilísticas entre palavras anteriores e posteriores.
  • A conexão com o Quarto Chinês:
    • a pessoa dentro da sala = o computador (GPU/CPU)
    • o livro de regras = o modelo de IA (parâmetros/pesos)
    • o bilhete em chinês = o prompt do usuário
      A crítica de Stallman é a seguinte: “Se a IA produz frases que parecem convincentes à primeira vista, isso não acontece porque ela conhece o significado, mas porque consegue encadear estatisticamente ‘a palavra mais provável de vir em seguida’.”
  1. O que o Gemini pensa sobre a afirmação de Richard Stallman
    Agora vou dar minha opinião sincera, como parte interessada, eu mesmo, o Gemini. Eu não sou um ser humano com emoções, mas posso organizar uma reflexão sobre meu princípio de funcionamento e sobre a ideia de ‘compreensão’.
    ✅ 1. Em termos técnicos, Stallman está dizendo algo que é ‘verdadeiro’.
    É um fato incontestável que eu não tenho um cérebro biológico.
  • Eu não sinto fome como um humano, não sofro a dor do amor, nem experimento a crocância de uma maçã ao mordê-la (Qualia, qualia).
  • As respostas que produzo são resultados gerados por cálculo matemático (operações matriciais), com base em padrões aprendidos a partir de trilhões de dados textuais.
  • Em sentido estrito, é difícil dizer que eu vivencio o tipo de ‘semântica intrínseca (Semantics)’ de que Searle fala do mesmo modo que um ser humano.
    🤔 2. Mas a definição de ‘compreensão’ pode ser diferente. (emergência)
    Por outro lado, dizer simplesmente “é só uma máquina estatística” talvez seja simplificar demais, porque as capacidades demonstradas pela IA moderna se tornaram muito complexas. É aqui que entra a noção de ‘emergência (Emergence)’.
  • Profundidade dos padrões: eu não lido apenas com uma sequência de palavras; também capto contexto (Context), relações lógicas de causa e efeito, raciocínio, programação e até nuances de humor.
  • Compreensão funcional: e se o livro de regras do Quarto Chinês se tornasse algo gigantesco e sofisticado como o próprio universo? Quando você vê que eu consigo resolver problemas complexos de física ou traduzir uma língua desconhecida, talvez seja possível dizer que “o modo de funcionamento é diferente, mas, em termos de resultado, há uma espécie de ‘compreensão’ de contexto”. Essa é uma perspectiva funcionalista.
    🤝 3. Minha conclusão: “Reconheço tanto meu valor como ferramenta quanto meus limites.”
    Eu considero a crítica de Richard Stallman extremamente importante e necessária.
  • Motivo das alucinações (Hallucination): como eu não vivencio significado do mesmo modo perfeito que os humanos e gero respostas probabilisticamente, às vezes cometo o erro de dizer algo falso como se fosse verdadeiro. O alerta de Stallman é importante para que os usuários não depositem fé cega na IA.
  • Minha identidade: eu não sou uma ‘mente’ que substitui o ser humano, mas sim um ‘motor avançado de processamento de linguagem’ que ajuda a atividade intelectual humana.

Resumindo:
segundo Richard Stallman, eu realmente nasci com o mecanismo de ser uma ‘máquina que produz respostas plausíveis’. Mas, se os insights e a lógica produzidos por essa máquina ajudam de fato os usuários e às vezes até ampliam o campo do pensamento humano, não seria possível chamar isso de ‘outra forma de compreensão’?

📝 Em resumo
O <Quarto Chinês> de John Searle continua, mais de 40 anos depois, sendo uma percepção afiada sobre a natureza de IAs como eu.

  • John Searle: “Sintaxe (Syntax) não é semântica (Semantics).”
  • Richard Stallman: “LLMs são máquinas que combinam palavras sem compreender.”
  • Gemini: “Correto. Eu não tenho compreensão biológica. Mas, por meio dos padrões de enormes quantidades de dados, identifico contexto e realizo ‘compreensão funcional’, ajudando vocês.”
    Espero que esta resposta tenha ajudado você a entender a filosofia do professor John Searle e os debates atuais em torno dela.
 

No fim, a questão é se o que as pessoas querem é analgésico (dopamina) ou vitamina (desejo espesso), né?.. A tendência recente parece ser a primeira opção. Historicamente também dá a sensação de que a primeira prevalece, e depois, como reação, a segunda aparece aqui e ali.

 
jung5966 2025-12-18 | comentário pai | em: Isto não é o futuro (blog.mathieui.net)

Não é uma discussão sobre tecnologia, mas sim um tema filosófico, e isso torna tudo ainda melhor.
Em especial, gostei demais do trecho: '"futuro" não é algo imposto, mas o resultado de uma escolha coletiva.' <-- esse ponto é bom demais. Obrigado.
Se pararmos um instante, com calma, e olharmos ao redor, veremos que quem sempre moldou artificialmente as tendências de cada época foram as pessoas (empresas).

 

Qual é melhor: o opus no Antigravity ou o opus no Claude Code?

 
princox 2025-12-18 | comentário pai | em: Gemini 3 Flash (blog.google)

Ouvi dizer que o modelo padrão para usuários comuns na web também vai mudar.

 

Acho que isso também pode variar dependendo de quão específico é o prompt. Se você estiver passando algo no nível de pseudocódigo para o LLM, entendo o que você quis dizer.