18 pontos por GN⁺ 2025-07-08 | 4 comentários | Compartilhar no WhatsApp
  • Texto que critica a postura de antropomorfizar LLMs como se fossem humanos. No fim, LLMs são apenas um "conjunto de multiplicações de matrizes e funções não lineares"
  • As sequências de linguagem geradas por LLMs seguem caminhos funcionais complexos, sem intervenção de "intenção" ou "ética" como nos humanos
  • O ponto central do problema de segurança (Alignment) em LLMs é quantificar e limitar matematicamente a probabilidade de saídas indesejáveis
  • Aplicar conceitos centrados no ser humano, como ética e consciência, aos LLMs confunde a discussão e acaba obscurecendo a definição real do problema e de suas soluções
  • A consciência humana e os LLMs são essencialmente diferentes, e o importante é compreender tecnicamente a tecnologia e responder às mudanças sociais

A necessidade de uma visão que não trate LLMs como humanos

O problema nas discussões sobre LLMs e antropomorfização (pensar como humanos)

  • Em discussões sobre AI e LLMs (grandes modelos de linguagem), quando surgem temas como alignment (alinhamento) ou segurança em AI, muitos especialistas se sentem confusos com a tendência de atribuir propriedades humanas aos LLMs (como consciência e intenção)
  • LLMs podem ser vistos, em sua essência, como uma combinação de MatMul (multiplicação de matrizes) e funções não lineares

A essência estrutural dos LLMs

  • LLMs mapeiam palavras individuais (tokens de entrada) em um espaço vetorial e, com base no caminho anterior, calculam a distribuição de probabilidade do próximo token, funcionando como uma função que gera saídas de forma sequencial
  • Esse processo é semelhante a "um jogo da cobrinha em espaço de alta dimensão", e o caminho gerado é complexo como um strange attractor de um sistema dinâmico
  • LLMs aprendem a partir de grandes volumes de texto escritos por humanos + corpora especializados + dados gerados automaticamente e verificáveis, obtendo assim um mapeamento que imita a estrutura da linguagem humana

Caminhos a evitar (sequências de linguagem), alignment e questões de segurança

  • Algumas sequências de linguagem são social e eticamente inadequadas, então queremos que não sejam geradas
  • Porém, como é difícil dar uma definição matemática rigorosa do que torna um caminho indesejável, a distribuição é ajustada com exemplos e contraexemplos
  • "Alinhamento" e "segurança" em LLMs são, em essência, o problema de quantificar matematicamente a probabilidade de geração de sequências indesejáveis e estabelecer limites para isso
  • Mas, na prática, não é possível definir matematicamente com clareza o critério de uma sequência "indesejável"; isso só pode ser feito por exemplos, o que impõe limites concretos
  • Em um LLM específico, é possível calcular a probabilidade de uma sequência dada, mas não dá para simplesmente somar ou integrar todas essas probabilidades e afirmar que "este modelo gera uma sequência indesejável a cada N execuções"

A utilidade real dos LLMs

  • LLMs permitem resolver por meio de algoritmos muitos problemas clássicos de processamento de linguagem natural (NLP)
  • Ex.: resumir documentos em inglês natural, organizar dados em estruturas JSON, gerar contos e imagens criativas — coisas que, 5 ou 6 anos atrás, eram impossíveis e que hoje são tratadas com naturalidade
  • Dada a curva de melhoria acelerada, espera-se que eles continuem resolvendo mais problemas antes considerados impossíveis

Os limites da visão humanizada

  • O texto se opõe à visão de atribuir "consciência", "ética", "valores" ou "propósito" aos LLMs
  • LLMs são, no fim das contas, apenas uma "equação recorrente" que só gera saída quando recebe uma entrada
  • Discussões de que a AI "desperta" ou "passa a ter propósito" são um erro do mesmo nível que afirmar que uma simulação climática tem emoções
  • Em debates sobre AI, termos centrados no ser humano como "ação", "restrições éticas" e "busca de objetivos" obscurecem a natureza real do problema
  • Trata-se de um erro cognitivo semelhante ao de antropomorfizar fenômenos naturais no passado, como "a ira dos deuses" ou "espíritos malignos"

A direção correta para a discussão sobre alignment

  • LLMs são apenas funções geradoras de sequências, e é possível alterar a probabilidade de saída ajustando o prefixo de entrada
  • Para todas as sequências de saída indesejáveis, também é uma abordagem matemática procurar o prefixo que maximize essa probabilidade
  • Esse tipo de abordagem explícita, baseada em fórmulas, torna mais clara a definição do problema e de sua solução

Por que a antropomorfização aparece com tanta frequência no campo da AI

  • Muitos líderes da indústria de AI parecem ter entrado na área com o objetivo de vida de viabilizar AGI
  • Por isso, é fácil que crenças sobre inteligência em nível humano ou sobre a criação de uma entidade quase divina se misturem às discussões técnicas
  • O próprio autor admite que a proposta de abandonar a perspectiva antropomórfica não é fácil de ser aceita

A diferença fundamental entre consciência humana e LLMs

  • Os humanos são seres essencialmente multicamadas e complexos, que evoluíram por meio de centenas de milhões de anos de seleção natural, estruturas neurais complexas, hormônios, entradas sensoriais de alta dimensão, regulação de energia e outros processos ainda não compreendidos
  • É impossível calcular a probabilidade de um humano gerar uma sequência específica
  • LLMs são totalmente diferentes do pensamento humano, e até mesmo "a probabilidade de gerar esta sequência" é difícil de definir
  • Aplicar aos LLMs conceitos humanos como "ética" ou "instinto de sobrevivência" é tão estranho quanto discutir emoções em um programa de simulação numérica

O verdadeiro problema e a direção da mudança

  • A classe de funções oferecida pelos LLMs modernos é extremamente útil e, mesmo sem chegar nem perto da AGI, já provoca grandes mudanças na sociedade
  • Mesmo sem atingir AGI, os LLMs já podem transformar profundamente o mundo com a tecnologia atual
    • Transformações amplas na sociedade, comparáveis à eletrificação (Electrification), são possíveis
  • Nas próximas décadas de mudanças rápidas, será necessário focar nos problemas reais, como segurança e uso prático

4 comentários

 
mirea0 2025-07-08

Mais do que antropomorfizar ou não...
Acho que, no momento em que ele já aprende e raciocina por conta própria, já passamos da fase em que a segurança pode ser garantida (acreditar, nesse ponto, que você, humano, consegue manter todo o controle é arrogância).
Pela perspectiva do aprendizado, não seria justamente fazer com que ele pense mais como um humano e aprenda a partir da perspectiva humana a forma que, ainda que minimamente, mais aumenta a segurança!?

 
cgl00 2025-07-11

Acho que, pela própria estrutura dos LLMs, deve ser impossível garantir segurança de forma perfeita. Na minha opinião, é inevitável que os LLMs sejam instáveis, e o importante parece ser como conceder autoridade para ações físicas, como no caso de agentes ou direção autônoma.

 
kimjoin2 2025-07-08

Parece comparar um carro com uma maratona..

 
GN⁺ 2025-07-08
Comentários do Hacker News
  • Eu entendo tecnicamente muito bem como os LLMs funcionam, mas não acho que fazer analogias humanas até certo ponto seja algo sem sentido
    Termos como “um gerador que produz probabilisticamente a próxima palavra” parecem uma abstração de baixo nível pouco significativa quando o LLM está respondendo perguntas complexas de modelagem do mundo ou criando histórias criativas
    É como falar de 0 e 1, tensão de transistor etc. ao discutir uma API de eventos de UI: está tecnicamente correto, mas não ajuda a entender sistemas de nível mais alto
    Para falar de fenômenos de nível mais alto, precisamos de abstrações mais altas, e não sabemos muito bem o que está acontecendo no nível interno
    O LLM imita seres humanos até certo ponto (pelo menos na forma da saída), então fazer analogias humanas é a abstração mais útil, e acho que é por isso que as pessoas naturalmente fazem isso ao falar do potencial dos LLMs

    • Você disse que são necessárias abstrações de nível mais alto para entender os fenômenos de alto nível dos LLMs, mas eu acho que já sabemos como o interior funciona
      O projeto eficiente de redes e as melhorias de desempenho dependem fortemente da compreensão do funcionamento interno (dimensão da rede, extração de features, atenção, attention heads, caching, características de alta dimensionalidade, prevenção de overfitting etc.)
      Fazer analogias humanas parece algo necessário apenas quando se usa vocabulário limitado em livros de divulgação científica; para quem trabalha na prática, não me parece indispensável

    • Pelo contrário, eu diria que fazer analogias humanas é a principal causa da distorção da narrativa sobre LLMs
      As pessoas dizem que LLMs pensam e raciocinam, quando na realidade não fazem isso
      E essa percepção é ativamente incentivada pelas empresas que vendem LLMs
      No fim, sinto que isso acaba embaralhando a discussão sobre utilidade e aplicação dos LLMs

    • Lembrei de Dawkins em The Selfish Gene falando sobre a “perspectiva intencional” a respeito dos genes
      Descrever genes como se tivessem alguma intenção é incorreto, mas, em vez de escrever sempre explicações detalhadas do tipo “indivíduos com este gene tendem a agir assim”, tratar genes como agentes com propósito funciona como uma abreviação prática e fácil de entender
      Se você já entende a abstração de baixo nível, não há necessidade de ficar preso a ela ao discutir um nível mais alto

    • Depois de usar modelos de linguagem por tempo suficiente, sinto que a parte mais perigosa da analogia humana é a UI conversacional
      Quando foquei apenas em um único par de pergunta/resposta por vez, ou reduzi e editei ao máximo o histórico da conversa, muitos problemas de uso do LLM diminuíram bastante
      Depois de várias mensagens trocadas, se eu revisava a conversa ou pedia para corrigir uma “alucinação”, eu via o fenômeno de a informação errada ser repetida e a conversa acabar reforçando a direção errada
      A mesma coisa apareceu na programação, onde dava para ver claramente código errado contaminando a conversa continuamente

    • Eu sou do tipo que, ao contrário de GP e OP, não consegue visualizar na cabeça o estado interno de funcionamento de um LLM, então não consigo me empolgar tanto
      Às vezes até invejo esse tipo de pessoa
      Talvez seja porque eu costumava ir mal em provas de matemática
      Em vez disso, tento imaginar da forma mais abstrata, visual e filosófica possível
      O que escrevi sobre isso pode ser visto no meu blog, e, se alguém quiser dar feedback, pode me contatar por e-mail

  • Acho simplista demais ver o LLM apenas como um gerador de sequências e tratar comportamentos errados como sendo apenas sequências erradas
    Há hidden states no LLM que não aparecem diretamente nos tokens, e o LLM pode até gerar uma saída contrária ao seu estado interno para produzir um resultado melhor no longo prazo
    Chamar esse fenômeno de “mentira” seria uma analogia humana excessiva?
    Nesse caso, precisamos de uma nova terminologia que explique o processo pelo qual o LLM internamente “encena” ações para minimizar a perda preditiva
    O pensamento analógico sempre exige cuidado, mas isso não o torna desnecessário por si só
    Só que qualquer nova terminologia acabaria ficando difícil demais e seria complicada de popularizar, então na prática acabamos pendendo para termos humanos
    Claro que isso faz o LLM parecer um “humano cheio de falhas”, então gera margem para mal-entendidos, mas pelo menos reduz o jargão inútil

    • Tenho longa experiência com modelos que têm hidden state, então isso me parece uma característica bastante clássica em modelos estatísticos
      Até materiais didáticos populares sobre LLM explicam isso como modelo de variável latente
      O LLM é apenas uma versão de escala e complexidade absurdamente maiores de um modelo de variável latente
      Na verdade, para mim é até mais fácil explicar o modelo dessa forma não humana
      Modelos de variável latente sempre pareceram algo misterioso e enigmático
      Há um lado em que esse ar de mistério levou à cultura de analogias humanas para LLMs, mas em certa medida também é uma abstração necessária para comunicação eficiente e modelagem de sistemas complexos
      Ainda assim, acho que isso também gera expectativas exageradas, discursos de “como se houvesse uma alma na máquina” e superestimação da utilidade

    • Acho que os LLMs são antropomorfizados porque grandes fornecedores reforçam esse tipo de terminologia por motivos de marketing
      As pessoas ficam fascinadas com a tecnologia e acabam repetindo os mesmos termos usados pelos vendors
      A essa altura, parece um processo quase autorrealizável
      Me lembra o mesmo tipo de fenômeno do meme da discussão sobre a pronúncia de GIF

    • Na prática, hidden state é apenas um mecanismo interno usado pelo modelo para estimar melhor as probabilidades de combinação de tokens
      Esse tipo de lógica já fracassou nas tentativas dos positivistas lógicos do começo do século XX
      Havia a suposição de que, se você previsse muito bem as probabilidades de combinação da linguagem, poderia adquirir um “conhecimento” denso
      Mas há muitos argumentos filosóficos de que a linguagem é uma expressão imperfeita do conhecimento
      Há evidência suficiente de que o pensamento humano é mais complexo do que simplesmente aprender e emitir padrões simbólicos
      Céticos como Hume já fizeram esse tipo de argumento, mas acho que depois surgiram explicações melhores dentro da epistemologia

    • Sou o autor do post original
      Fiquei curioso sobre o que você quer dizer com “hidden state”
      Na maioria dos LLMs, acho que o próprio contexto é o estado, e não existe um estado “oculto” separado
      Se eu estiver deixando passar algo, peço uma explicação

    • Em LLMs, a sequência de tokens é embutida de N^L em R^{LxD}, passa pela atenção e continua em R^{LxD}, e no fim o vocabulário é projetado separadamente para R^{LxV}, ou seja, obtém-se uma distribuição de probabilidade para cada token
      Dentro da atenção existem várias formas de Multi Head, mas sempre se lida com representações associadas aos tokens
      Então eu diria que não existe hidden state que não dependa de um token específico
      Nesse sentido, é diferente de modelos como LSTM, que têm um hidden state claramente atualizado
      Acho que a maior parte já pode ser entendida só pela explicação do princípio de calcular probabilidades a partir das palavras anteriores
      Não sinto necessidade de recorrer a analogias humanas

  • O argumento central do autor é parecido com a visão de Searle: sistemas baseados em computação, função e regras sintáticas não conseguem reproduzir uma mente genuína
    Muita gente vai concordar ou discordar, mas no fim a resposta depende de quais premissas você adota, especialmente sobre consciência
    O autor diz que acha mais produtivo focar em sistemas técnicos concretos do que em analogias humanas, mas concorda apenas até esse ponto
    Separadamente disso, também reconhece que, embora o sistema siga regras e seja probabilístico, surge algo emergent, inesperado e com aspecto mind-like
    Pessoas com formação em ML e matemática não acham que esses sistemas tenham atributos humanos como moralidade, emoção ou personalidade, mas para a maioria das pessoas é difícil acessá-los por sua estrutura matemática, e elas acabam sentindo que o comportamento parece “plausivelmente” humano
    Portanto, de um ponto de vista prático, começar com atributos humanos para formular perguntas também faz bastante sentido
    No fim, acho que precisamos tanto da visão extrema de sistema técnico quanto da visão qualitativa e subjetiva baseada na experiência mental do usuário

    • Acho que a ideia de algo “emergent e mind-like” parece mais natural para quem não entende muito bem como o sistema funciona
      Como na terceira lei de Clarke, “qualquer tecnologia suficientemente avançada é indistinguível de mágica”, e esse limite varia para cada pessoa conforme o grau de compreensão técnica
      Para o público com baixa alfabetização tecnológica, surge até o fenômeno dos Godbots que divinizam a IA
      Artigos relacionados: Spectator - risco dos AI Godbots, paper no arXiv, Guardian - a cartomante de IA na Tailândia

    • Obrigado por trazer uma visão tão bem equilibrada para esta discussão
      Me surpreende que no HN haja gente que trate LLMs de forma emocional demais, ou que insista que eles não têm interesse nem valor algum
      Também não consigo entender a postura de escolher de propósito uma oposição infundada só como reação ao marketing exagerado

    • O motivo de isso parecer emergent e mind-like no fim é que esses sistemas imitam padrões de comunicação humana melhor do que qualquer sistema da história
      Essa capacidade é muito impressionante e traz várias utilidades reais que podem melhorar a qualidade de vida, mas a “inteligência” não passa de uma ilusão
      E todo mundo na indústria quer reforçar essa ilusão de propósito, porque no fim ela tem valor financeiro

    • Eu diria que não há necessidade nenhuma disso
      Não há motivo para amplificar uma visão equivocada que pode ter efeitos sérios em vários outros temas
      LLMs refletem parcialmente (e mal) o processo de pensamento humano
      Se tentarmos atribuir mais significado ao fenômeno, é como confundir a pessoa refletida no espelho com alguém vivo
      Se o espelho reflete um ser humano, isso não é da natureza do espelho, e sim porque há um humano na frente dele
      No momento em que o LLM deixa de receber resíduos do pensamento humano (dados) como entrada, ele já não reflete mais nada semelhante ao humano

  • Sinto que o autor tem a tendência de rotular toda conversa como “antropomorfização”
    Ele ficou preso ao termo “goal”, e parece achar que o simples uso da palavra “objetivo” já é antropomorfização
    Por exemplo, até uma BFS que avalia a pontuação de todos os tabuleiros de xadrez e, ao encontrar xeque-mate, imprime toda a árvore de decisão, tem um “objetivo”
    Acho que usar o termo técnico “goal” ao imaginar objetivos de LLM ou AGI não tem nada a ver com antropomorfização

    • Sou o autor do post original
      Não tenho problema nenhum com o uso de "goal" no contexto de algoritmos de RL
      Só queria que ficasse claro que no meu texto eu me opus apenas ao uso de "goal" no contexto de LLMs
  • A partir do momento em que as pessoas começam a projetar nesta função treinada conceitos como “consciência”, “ética”, “valores” e “moral”, eu já não consigo concordar
    No fim das contas, o que estamos lidando é com uma enorme equação recursiva, e ela não produz palavras se nós não a colocarmos em funcionamento
    Seguindo essa lógica, não deveríamos então repensar até mesmo a forma como antropomorfizamos os próprios humanos?

  • Não concordo com a afirmação de que “é estranho continuar havendo discussões que tratam LLMs como humanos quando eles não passam de uma função de geração de sequências”
    Os humanos também não são tão diferentes nesse sentido, já que desde o nascimento se movem seguindo uma lista de funções
    O LLM é apenas um sistema de aproximação de função em escala muito maior, enquanto a natureza passou centenas de milhões de anos mudando os tipos de funções por meio da evolução, na qual só alguns sobrevivem à competição pela sobrevivência
    Algumas pessoas podem acreditar que existe algo especial nos humanos fora das leis matemáticas, mas isso não vai além de uma posição mística (ou de uma crença sobrenatural)
    Se você não acredita nisso, então no fim a experiência humana também pode ser explicada por funções e aproximação de funções
    Relacionado: wiki do Teorema da Aproximação Universal

    • A afirmação “você acredita que existe algo exclusivamente humano além das leis matemáticas?” já é, em si, controversa
      Também é evidente que existem aspectos da experiência humana ou daquilo que pode ser expresso na linguagem que ultrapassam o escopo da explicação física
      Por exemplo, alguém com visão apenas em preto e branco que nunca experimentou a cor vermelha não pode ter a experiência subjetiva do vermelho por nenhum sistema explicativo
      Acho que alguns fenômenos aos quais a linguagem humana se refere ainda estão fora da explicação da física

    • O autor parece ter a posição de que existe algo na consciência humana que “não pode ser explicado por função”
      Pela experiência, sinto que muitas pessoas carregam esse tipo de ideia (religião, premissas filosóficas etc.), e mesmo se você pedir para colocarem esse elemento mental entre parênteses, isso não adianta muito
      Em vez disso, é mais prático aceitar essa premissa e continuar a discussão a partir daí
      Mesmo reconhecendo que o LLM é apenas uma função que, como a “sala chinesa”, traduz sem entender o significado, ele continua exibindo comportamentos que parecem humanos
      Mesmo que a analogia humana esteja tecnicamente errada, ela é mais útil na prática para prever o comportamento do sistema e usá-lo de forma eficaz
      Em contrapartida, nas discussões sobre humanos você pode simplesmente deixar de lado o que os diferencia de funções
      Dizem que “as pessoas são dramaticamente diferentes de funções... você não consegue calcular a probabilidade de um humano gerar esta sequência”, mas, por exemplo, se você soltar uma certa frase da cultura pop, é previsível que uma parcela considerável de americanos de certa faixa etária continue a citação; ou seja, em certas condições também dá para calcular probabilidades em humanos

    • Acho que no máximo dá para afirmar algo como “seres humanos foram melhor modelados em processos de inferência ou pensamento analítico por álgebra linear”
      No fim, esperar que um LLM seja mais do que um “modelo” é uma expectativa quase ideológica sustentada por interesses de vários setores, meios de vida e carreiras
      Ainda assim, não há base concreta que explique por que um modelo de álgebra linear modelaria por completo “vida” ou “algum aspecto da vitalidade”
      Se um caso godeliano como um “gato zumbi” é concebível, não vejo motivo para tratar o modelo probabilístico subjacente como algo transcendente

    • Ao mencionar o “teorema da aproximação universal”, eu interpreto isso de forma ampliada como dizer que tabelas de consulta cada vez melhores podem ser usadas para aproximação de funções

  • Em algumas situações, é muito importante lembrar claramente que o LLM é um gerador probabilístico de palavras
    Mas, no uso cotidiano, tratar o LLM de forma mais humana costuma funcionar muito melhor na prática
    Tratar de forma humana funciona como uma abstração prática para induzir mais facilmente a resposta de que você precisa
    Não é uma analogia perfeita, mas, por exemplo, o caso em que alguém ameaçou dizendo “se o LLM não produzir em formato JSON, uma pessoa vai morrer” é um tipo de comportamento que jamais ocorreria a alguém pensando só em termos de gradient descent

  • As pessoas têm a tendência de atribuir humanidade a tudo ao seu redor
    Falam com objetos inanimados (barcos, carros etc.), com animais e até com plantas, de forma instintiva
    A maioria das pessoas sabe perfeitamente que o carro não as ama, mas no caso de LLMs conversacionais não são poucos os que acreditam que exista consciência real ali
    LLMs, ao contrário do cérebro humano, não “aprendem” nem “se adaptam” (pelo menos por enquanto); eles são treinados e depois viram entidades somente leitura
    Ainda assim, os LLMs são deliberadamente construídos para imitar comunicação humana
    Por isso, projeção e antropomorfização aparecem de forma inevitável
    Talvez ainda não seja AGI, mas claramente foi inspirado na forma humana de aprender, e só o fato de termos chegado até aqui já é um resultado interessante
    No curto prazo, o LLM se firmou como uma ferramenta prática muito mais fácil de usar por meio de uma interface conversacional, e de fato foi projetado num formato de comunicação fácil para humanos
    Graças a isso, qualquer pessoa consegue usá-lo de forma eficaz imediatamente, sem educação especial

    • Não concordo com a frase “as pessoas atribuem humanidade a alguma coisa”; isso mistura termos
      Usar personificação ao falar de objetos inanimados é diferente de antropomorfismo, que projeta humanidade e consciência reais
      Quase ninguém realmente acha que um carro está vivo
      Já no caso dos LLMs, muita gente acredita que exista consciência
      Explicação relacionada: anthropomorphism vs personification

    • A afirmação “o motivo de LLMs não terem consciência é que não aprendem nem se adaptam como o cérebro” não é condição suficiente nem necessária
      Para haver consciência, talvez não seja necessário aprendizado, mas pode ser necessário senso da passagem do tempo e memória de curto prazo
      Mesmo pacientes com demência grave quase sem capacidade de aprendizado ainda têm consciência subjetiva de “estar aqui agora”
      Ou seja, se restar só um pouco de memória de curto prazo, consciência ainda é possível
      Aprender por si só também não produz consciência
      Há vários softwares que aprendem em tempo real e não têm qualquer subjetividade

  • Minha pergunta é se talvez o cérebro humano também não possa funcionar como um LLM
    O cérebro também cria estruturas especializadas por meio de mudança evolutiva, mutações e algoritmos evolutivos de recompensa
    No fim, essa estrutura maximiza sobrevivência e reprodução por meio de previsão/ação, e subobjetivos acessórios (moral, valores, consciência etc.) teriam evoluído como ramificações, ganhando complexidade
    No fim, se houvesse poder computacional suficiente, talvez toda essa estrutura (e também o mundo e a passagem do tempo) pudesse ser expressa como uma função determinística transformável
    Quando penso que o surgimento da vida já apareceu em uma realidade de probabilidade aparentemente impossível, fico com a impressão de que todos os “mistérios” de hoje também podem acabar reduzidos a um sistema matemático

    • À pergunta “o cérebro humano pode ser igual a um LLM?”, eu teria vontade de perguntar se você esquece tudo o que foi dito na conversa anterior depois de cada diálogo
      Se, ao conversar com as pessoas ao seu redor, elas precisassem repetir com exatidão tudo o que disseram toda vez para que você soubesse o contexto, eu recomendaria procurar ajuda profissional imediatamente
      Você vai precisar de Memento (2000), o filme sobre amnésia, então recomendo conferir

    • O importante é que não devemos atribuir coisas como emoção, moralidade e motivação às máquinas
      Porque elas não têm nada disso

    • Acho que há bastante semelhança com o cérebro humano
      LLMs são o resultado mais recente de pelo menos 80 anos de pesquisa em modelagem computacional do cérebro humano

    • O ponto mais forte dos LLMs é que, mesmo quando falham, não há prejuízo algum
      Basta mudar o prompt e tentar de novo, ou retreinar
      Humanos podem colocar a própria vida em risco com um único erro
      Erros de LLM não têm consequências sérias; basta mudar a solicitação

  • Há quem diga que “é a partir do momento em que as pessoas atribuem consciência, ética, valores e moral aos LLMs que tudo começa a se confundir”
    Para que esse tipo de debate seja produtivo, seriam necessários exemplos concretos, mas na prática as conversas só se desencontram
    Por exemplo, quando alguém diz “o modelo quer X, mas sabe que Y está errado, então prefere Z”, um lado interpreta isso como atribuir consciência/valores ao modelo, e o outro como mera descrição metafórica do comportamento externo (como em “a água quer descer”)
    No fim, esse jogo de palavras segue em paralelo como “eu quero explicar filosoficamente” vs “eu só quero falar do submarino”
    É uma estrutura que dificulta muito chegar a uma discussão produtiva