Código-fonte aberto...? Então aquele DeepSeek!!!

 

Acho que houve um mal-entendido sobre quem é Stallman e o que ele quer defender.

  1. A intenção deste texto é alertar que, por causa da natureza probabilística dos LLMs, eles não têm semantic grounding e podem dizer coisas erradas de forma convincente. Não dá para colocar LLMs no mesmo nível de pessoas só porque qualquer um pode cometer erros.
  2. Entender os princípios subjacentes e obter o código-fonte são coisas completamente diferentes. O problema é que o ChatGPT é um software proprietário e, por isso, mesmo que tivesse essa capacidade, você não pode instalar/modificar/distribuir o ChatGPT por conta própria.
  3. Stallman é um libertário radical que criou o conceito de software livre. Até concordo em certa medida com o lado dogmático dele, mas não entendo como a ideia de que executar computação no servidor de outra pessoa é errado leva à conclusão de que os pensamentos na cabeça de outra pessoa violam a liberdade.

Stallman é radical e nem sempre está certo em tudo, mas os problemas levantados neste texto já vêm sendo discutidos ativamente. Não é um argumento de um nível que dê para simplesmente descartar como bullshit.

 
  1. “Gerar respostas independentemente de serem verdadeiras ou não”
  2. “Software privativo no qual o usuário não pode obter o executável nem o código-fonte”
  3. “Realizar computação nos servidores de terceiros prejudica a liberdade computacional do usuário”

Por essa definição, dizer isso é praticamente o mesmo que afirmar que não se deve usar nenhum setor de serviços que passe pelo cérebro de outra pessoa em vez das minhas próprias mãos, incluindo empregados, serviços em nuvem e até telefone.

O item 1 é simples: tudo o que existe no mundo real pode gerar saídas independentemente da verdade. Até sistemas que foram concebidos com a intenção de produzir saídas verdadeiras podem falhar nisso. Nós chamamos isso de “erro”.

Item 2. Se afirmar que só se pode usar algo quando se pode obter o executável ou o código-fonte significa defender que é preciso conhecer os princípios internos do sistema para utilizá-lo, então todas as pessoas que não estudaram física nem engenharia elétrica e eletrônica deveriam largar imediatamente seus smartphones e computadores. Seria como dizer que não se pode usar rastreamento por localização sem aprender teoria da relatividade. Será que Stallman tem o projeto dentro da cabeça do cabeleireiro que corta o cabelo dele?

Pelo item 3, essa pessoa seria um dogmático que não confia no pensamento de ninguém. Afinal, todo pensamento alheio e toda conclusão derivada dele violariam a liberdade do “eu” de pensar por conta própria.

Pode-se dizer que, em relação à questão de saber se a IA generativa realmente possui inteligência, não devemos acreditar precipitadamente que se trata de uma entidade inteligente. Mas as lógicas forçadas que andam de mãos dadas com essa ideia são simplesmente bullshit.

 

O que é o saber…

 

Se a inteligência artificial, em última instância, não pode ter uma alma, por que sua inteligência teria necessariamente de se parecer com a inteligência humana que busca a verdade? Até mesmo uma parte considerável do que chamamos de atividade intelectual se baseia em mentiras e alucinações. Os seres humanos da sociedade moderna também afetam a vida dos outros com falsidades, por não perceberem os fenômenos (ou de propósito).

 

Na verdade, nunca nem pensei que o Stallman fosse gostar de LLMs kkkkkkkk

 

Na Coreia também os patinetes estão ocupando as calçadas e causando o mesmo tipo de problema social, então acho que os robôs de entrega também podem acabar assim. Ainda assim, como são lentos e não devem ser abandonados ilegalmente, parecem ser melhores do que os patinetes... Acho que regular os patinetes deve vir primeiro.

 

A lição nº 1 já é importantíssima desde o começo.
Ultimamente tenho sentido isso profundamente rs

 

Eu também penso de forma parecida... antes de tudo, a Linux Foundation está fazendo coisa demais.
Até assume coisas que foram abandonadas, como o Servo....

 

Anthropic doa MCP e cria a Agentic AI Foundation

Os comentários do Hacker News estão organizados aqui, então vale a pena consultá-los também.

 

Vendo assim, o futuro parece mais positivo haha

 

Acabei de ver isso, e parece ser uma reação motivada pela desconfiança em relação ao próprio MCP.
A nuance é algo como: "mesmo que esteja sendo muito usado agora, até onde isso vai durar?"

Mas, a partir do momento em que Google e OpenAI passaram a oferecer suporte ao MCP, acho que esse tipo de oposição é uma oposição por inércia.
No começo, eu também não gostava muito, porque parecia só um jogo de palavras sem muita diferença em relação a Function Calling, mas quando vi as empresas se unificando em torno disso, pensei que então isso teria significado já na etapa de aprendizado.
Ainda assim, acho curioso que ainda haja pessoas que simplesmente continuam se opondo.

 

Havia conteúdo bom demais e muitas frases cheias de insight, a ponto de eu soltar exclamações de admiração. Gostei ainda mais por terem destacado as principais frases em negrito.

"Estar certo, como sensação de curto prazo, vale muito menos do que a realidade de longo prazo de construir algo junto com colegas dispostos a colaborar."

"É preciso ter foco estratégico, e a energia gasta naquilo que não pode ser mudado é energia roubada daquilo que pode ser mudado."

Havia muitos pontos bons para aplicar não só ao trabalho, mas também à vida. Obrigado pelo ótimo texto.

"Código é uma nota estratégica para pessoas desconhecidas que vão fazer manutenção às 2 da manhã durante uma falha, por isso deve ser possível otimizar a compreensão."

"Momentum cria clareza, e paralisia por análise não constrói nada."

 

Por acaso, por que essa reação?
Do ponto de vista de quem não entende muito, pareceu algo como

  1. Devem estar tentando padronizar
  2. Vão abrir isso?
    Era mais ou menos essa a impressão, então fiquei curioso para entender por que saiu essa reação de que estão "empurrando com a barriga".
 

Só vão cair na real depois que forem comprometidos, né.

 

Por mais que eu olhe, parece mesmo que empurraram isso para a Linux Foundation... A reação no HN também parece ser parecida.

 

É o tipo de coisa que eu gostaria de contar aos meus sobrinhos, mas que na prática não sairia tão naturalmente assim da minha boca haha

 

O dono do blog do link 29 é um tal de Gary Marcus, um sujeito com um ar meio picareta que vive insistindo que o progresso da IA estagnou; achei engraçado demais o Gemini prever que, daqui a 10 anos, ele vai continuar exatamente o mesmo kkkkk

 

Isso é só um jogo mesmo ..