11 pontos por GN⁺ 24 일 전 | 1 comentários | Compartilhar no WhatsApp
  • A OpenAI, desde sua fundação, definiu a IA como a tecnologia mais poderosa e potencialmente perigosa da história da humanidade e começou como uma organização sem fins lucrativos, adotando uma estrutura em que a segurança da humanidade vinha antes da própria sobrevivência da empresa; porém, após a transição para uma entidade com fins lucrativos, esse princípio vem se esvaziando
  • Em novembro de 2023, o caso conhecido como 'Blip', em que o conselho liderado pelo cofundador Ilya Sutskever demitiu Altman de forma repentina e o reconduziu ao cargo apenas cinco dias depois, foi um exemplo de como dúvidas fundamentais sobre a confiabilidade e transparência de Altman explodiram em uma disputa real de poder dentro da organização
  • Centenas de páginas de registros deixados por ex-colegas contêm alegações concretas de que Altman repetidamente ocultou fatos ou disse coisas diferentes ao conselho, à diretoria e a investidores, e um membro do conselho o descreveu como "uma pessoa não presa à verdade"
  • A OpenAI agora se prepara para um IPO com valuation de US$ 1 trilhão, e Altman vem impulsionando a construção de infraestrutura massiva de IA com capital dos países do Golfo e a obtenção de contratos com as Forças Armadas dos EUA, assumindo o papel de corretor central na disputa pela supremacia em IA
  • Enquanto equipes de pesquisa em segurança de IA são dissolvidas em sequência e se consolida uma cultura que prioriza produto e receita acima da segurança, o sistema de segurança existencial da OpenAI está cada vez mais distante da promessa feita na fundação

O estopim da demissão — o memorando de Ilya e a decisão do conselho

  • No outono de 2023, o cientista-chefe da OpenAI, Ilya Sutskever, enviou aos outros três conselheiros um memorando confidencial de 70 páginas questionando a aptidão do CEO Sam Altman e do presidente Greg Brockman para seus cargos
    • O material editava mensagens do Slack e documentos de RH, incluindo imagens fotografadas em dispositivos pessoais para evitar detecção
    • Foi enviado em formato de mensagens autodestrutivas para evitar vazamentos externos
  • O memorando alegava que Altman distorcia fatos e enganava sobre protocolos internos de segurança perante executivos e o conselho
    • Título do primeiro item do memorando: "Sam exhibits a consistent pattern of… Lying"
  • As conselheiras Helen Toner (especialista em política de IA) e Tasha McCauley (empreendedora) receberam o memorando como "a confirmação do que já acreditavam"
  • Enquanto Altman assistia à corrida de F1 em Las Vegas, Sutskever informou sua demissão por chamada de vídeo
    • O comunicado público apenas dizia que ele "não foi consistentemente franco em sua comunicação"

'Blip' — os cinco dias de disputa de poder após a demissão

  • A Microsoft só foi informada pouco antes da demissão, e Satya Nadella disse que "não fazia a menor ideia do que estava acontecendo"
  • A Thrive Capital, que se preparava para investir na OpenAI com valuation de US$ 8,6 bilhões, suspendeu o investimento condicionando-o ao retorno de Altman
  • Ao voltar para casa, Altman montou uma sala de estratégia de resposta à crise em sua própria residência
    • Participaram o investidor Ron Conway, o cofundador da Airbnb Brian Chesky e o especialista em gestão de crise Chris Lehane
    • Advogados se instalaram em um escritório ao lado do quarto, e Altman circulava de pijama
  • Há testemunhos de que o lado de Altman alertou que estava "procurando informações para prejudicar a reputação" de figuras do lado oposto, como Mira Murati (Altman nega lembrar disso)
  • A Microsoft aumentou a pressão ao anunciar a criação de uma equipe separada para Altman e os funcionários que saíssem com ele
  • A maior parte dos funcionários da OpenAI assinou uma carta pública exigindo o retorno de Altman, e o conselho revogou a demissão
    • Sutskever também acabou assinando a carta, e o conselho decidiu pela volta sob pressão de que "a empresa iria desmoronar"

Depois da volta — enfraquecimento da investigação e reorganização da governança

  • Altman exigiu a renúncia dos conselheiros que o haviam demitido, e Helen Toner, Tasha McCauley e Sutskever, que votaram por sua saída, foram afastados do conselho
    • Como condição para deixar os cargos, exigiram uma investigação externa independente, e, na escolha de novos conselheiros, foram selecionadas pessoas estreitamente alinhadas a Altman
    • Lawrence Summers e Bret Taylor entraram como novos conselheiros
  • O escritório WilmerHale ficou encarregado da investigação, mas mais de seis pessoas afirmaram que se tratava de uma investigação desenhada para limitar a transparência
    • Foram apontadas falhas como a ausência de entrevistas com personagens-chave e garantias insuficientes de anonimato
  • Em março de 2024, a OpenAI concluiu que Altman não havia cometido irregularidades, mas não redigiu relatório algum
    • Houve apenas briefing oral, e a decisão de não produzir relatório teria seguido orientação dos advogados pessoais de Summers e Taylor
    • Segundo relatos, "a ausência do relatório ajudou a minimizar as acusações"
  • Summers depois deixou o conselho após a divulgação de e-mails ligados a Jeffrey Epstein
  • Desde então, a OpenAI cresceu e se tornou uma das empresas mais valiosas do mundo, ao mesmo tempo em que se prepara para um IPO de US$ 1 trilhão
    • Altman também está envolvido em expansão de infraestrutura de IA, contratos governamentais e padronização de sistemas de vigilância e armamentos
    • Ainda assim, internamente persistem críticas de que o comportamento enganoso de Altman se repete

A personalidade e o início da carreira de Altman — exagero, persuasão e desejo de poder

  • Natural de Clayton, no Missouri, ele cresceu em uma família rica e passou, na adolescência, por uma agressão homofóbica
  • Em Stanford, desenvolveu senso de negócios por meio de jogos de pôquer e, depois de abandonar a universidade, participou da primeira turma da Y Combinator (YC), onde fundou a Loopt
    • A Loopt era uma rede social baseada em localização, mas fracassou em ganhar tração e foi vendida em 2012
  • Desde os tempos da Loopt, já se apontava uma tendência ao exagero: ele dizia ser campeão de tênis de mesa, mas na prática estava entre os piores do escritório
    • O ex-funcionário Mark Jacobstein comentou: "Quando a fronteira entre o que penso e o que já alcancei fica borrada em sua pior forma, isso vira Theranos"
  • Um grupo de funcionários pediu ao conselho duas vezes que o demitisse, mas sem sucesso
  • A Loopt foi vendida em 2012 para uma empresa de fintech, e há relatos de que teria sido "um negócio montado principalmente para salvar a imagem de Altman"
  • Em 2014, Paul Graham nomeou Altman como seu sucessor na liderança da Y Combinator
    • Segundo a descrição, quando Graham lhe deu a notícia, Altman abriu um sorriso involuntário e disse: "it worked"

Período na Y Combinator — conflito de interesses e saída do cargo

  • Como presidente da YC, surgiram críticas de que ele impedia a participação de investidores enquanto fazia investimentos pessoais de forma seletiva (Altman nega)
  • Segundo relatos, ao investir na Stripe, ele exigiu uma participação maior do que a prevista no acordo da Sequoia Capital, deixando parceiros constrangidos
    • Investimento inicial de Altman: US$ 15.000 (2%) → valor atual da Stripe acima de US$ 150 bilhões
  • Em 2018, vários parceiros da YC relataram a Graham sua insatisfação com a conduta de Altman
  • Múltiplas fontes dizem que, em privado, Graham afirmou: "Sam had been lying to us all the time"
  • Altman afirma que nunca foi demitido e Graham também negou isso em anúncio oficial, mas registros internos sugerem que não foi uma separação totalmente consensual
  • Em um documento enviado à SEC em 2021, Altman aparecia como chairman da YC, mas ele afirma que "só soube depois"

Fundação da OpenAI — a dualidade entre o discurso de segurança e a captação de recursos

  • Em 2015, entrou em contato com Elon Musk por e-mail com a lógica de que "a IA pode ser mais perigosa do que armas nucleares", propondo a OpenAI como um "Projeto Manhattan da IA"
    • Os dois cofundaram a OpenAI, e Musk prometeu US$ 1 bilhão em financiamento
  • A OpenAI tinha como meta “desenvolver AGI para o benefício de toda a humanidade” e adotava como princípio central a prevenção de uma ditadura de AGI
    • Princípios de fundação: "segurança é o requisito prioritário", "apoio ativo a toda regulação"
  • Em 2017, Musk exigiu converter a OpenAI em empresa com fins lucrativos e assumir o controle, mas Altman recusou
    • Depois disso, Musk saiu, fundou a concorrente xAI em 2023 e abriu processo por fraude e violação de truste filantrópico contra Altman e a OpenAI (em andamento)
  • Foi prometido aos primeiros funcionários que a organização permaneceria puramente sem fins lucrativos, levando-os a aceitar cortes salariais, mas documentos internos mostram que já em 2017 havia discussões sobre a transição para fins lucrativos
  • Em 2017, Sutskever leu o artigo sobre a arquitetura Transformer do Google e exclamou "é isso", incentivando a equipe a uma mudança total de direção; isso depois se tornaria a semente do GPT
    • Alguns engenheiros questionaram a liderança, dizendo: “Será que nós viramos os vilões?”

Fundação da Anthropic com Dario Amodei — rachadura nos princípios de segurança

  • Amodei escreveu por anos uma nota pessoal de mais de 200 páginas intitulada "My Experience with OpenAI"
  • Em 2018, Dario Amodei criticou a falta de clareza da missão e a operação centrada em captação de recursos da OpenAI
    • Propôs a "cláusula Merge and Assist", segundo a qual “se outro projeto criar primeiro uma AGI segura, colaboramos com ele”
  • Em 2019, durante o acordo de investimento com a Microsoft, foi inserida discretamente uma cláusula que neutralizava essa disposição
    • Altman inicialmente negou a existência da cláusula, mas retirou a negativa quando Amodei a leu em voz alta
    • Casos do tipo "ele não disse isso; quem acabou de dizer foi você" se repetiram (Altman negou, dizendo não se lembrar)
  • Amodei afirma que Altman o acusou, junto com sua irmã Daniela, de 'tramar um golpe'; quando Daniela chamou o executivo envolvido para confirmar, Altman disse: "eu não disse isso"
  • Em 2020, os irmãos Amodei e colegas saíram da empresa e fundaram a Anthropic

Dissolução da equipe de segurança e promessas de recursos não cumpridas

  • Ao anunciar, em 2023, a criação da "superalignment team", foi prometido o fornecimento de "20% do poder computacional assegurado"
    • Segundo relatos internos da equipe, os recursos realmente alocados ficaram na faixa de 1% a 2%, com clusters antigos e chips de baixo desempenho
    • Pesquisadores afirmaram que “os chips mais novos foram usados apenas nos negócios que geram receita”, algo negado pela OpenAI
    • O líder da equipe, Jan Leike, disse que “essa promessa era um meio de reter talentos”
      • Ele reclamou com Murati, mas recebeu como resposta que “era uma promessa irrealista”
  • Jan Leike enviou um e-mail ao conselho alertando que "a OpenAI está se desviando de sua missão; produto, receita e capacidade de IA vêm primeiro, e segurança em terceiro"
  • Carroll Wainwright: "depois do lançamento do GPT-4, a prioridade a produto e o desprezo pela segurança continuaram"
  • Altman disse, no lançamento do modelo GPT-4 Turbo, que não era necessária aprovação de segurança, citando a diretoria jurídica, mas a chefe jurídica respondeu no Slack: "não sei por que o sam ficou com essa impressão"
  • Ao passar a acreditar que a AGI estava próxima, Sutskever ficou obcecado com questões de segurança e alertou que “se todos os funcionários não se concentrarem em segurança, estamos acabados”
    • No entanto, a equipe de Superalignment acabou sendo desfeita antes de cumprir sua missão e não alcançou seus objetivos
    • Sutskever e Leike renunciaram ao mesmo tempo
  • Em declarações ao IRS, o conceito de 'segurança' foi removido do item “atividade mais importante”
  • Na avaliação mais recente sobre segurança existencial em IA de empresas feita pelo Future of Life Institute, a OpenAI recebeu nota F
  • Altman afirmou que algumas funções do GPT-4 haviam sido aprovadas pelo painel de segurança, mas as funções de ‘fine-tuning’ e ‘personal assistant’ não foram aprovadas
    • Também não foi informado que a Microsoft lançou uma versão inicial do ChatGPT na Índia sem revisão de segurança
  • Pesquisadores avaliaram que a OpenAI passou a operar sob a lógica de “produto primeiro, segurança depois”

Conversão para fins lucrativos, estrutura de ativos e interesses pessoais

  • Estrutura inicial de 'capped profit' → em outubro de 2024, conversão para uma entidade totalmente com fins lucrativos
    • A fundação sem fins lucrativos (OpenAI Foundation) ficou com apenas 26% de participação, e a maioria dos membros do conselho também se sobrepõe ao conselho da empresa lucrativa
  • O membro do conselho Holden Karnofsky votou contra a subavaliação do valor da entidade sem fins lucrativos, mas a ata o registrou como abstenção (há indícios de alteração sem consentimento)
  • Em audiência no Congresso, disse: "não tenho participação na OpenAI, faço isso por amor" — sem mencionar a participação indireta via fundo da YC
  • A participação de Brockman é estimada em cerca de US$ 20 bilhões, e espera-se que a de Altman seja ainda maior
  • Depoimento de ex-funcionários: Altman disse que se interessa mais por poder do que por dinheiro

Captação de recursos no Oriente Médio e risco geopolítico

  • Em 2016, teve seu primeiro encontro com o príncipe herdeiro saudita Mohammed bin Salman e, depois disso, buscou investimentos de vários bilhões de dólares
    • Uma semana após o assassinato de Khashoggi, entrou para o conselho consultivo da cidade futurista saudita Neom, e depois renunciou após críticas
    • No entanto, segundo o relato de um consultor de políticas, mesmo após a renúncia ele continuou pensando em "como conseguir dinheiro saudita de algum jeito"
  • Manteve relação próxima com o mestre de espionagem dos Emirados, Sheikh Tahnoon bin Zayed, mencionando em seu X que ele é um "amigo pessoal muito próximo"
    • Recebeu dos Emirados um Koenigsegg Regera de cerca de US$ 2 milhões e um McLaren F1 de cerca de US$ 20 milhões (afirma que tudo foi devidamente declarado conforme a política da empresa)
    • Em 2024, visitou o superiate de luxo Maryah, de US$ 250 milhões, de Tahnoon
  • Plano ChipCo: construir uma gigantesca fundição de semicondutores e centros de dados com dinheiro dos países do Golfo, com parte da infraestrutura localizada no Oriente Médio
    • Segundo depoimento de membro do conselho, isso foi tocado sem aviso prévio ao conselho
    • Autoridades de segurança dos EUA demonstraram preocupação com fatores como a dependência da rede de telecomunicações dos Emirados em relação à Huawei, a possibilidade de chips avançados dos EUA vazarem para a China e vulnerabilidade a ataques militares
  • Governo Biden: negou aprovação dizendo que "não construiremos chips avançados nos Emirados"
  • Funcionário da RAND Corporation: na análise de autorização de segurança, expressou preocupação com “uma pessoa que está captando dezenas de bilhões de dólares de governos estrangeiros”; Altman se retirou voluntariamente do processo
  • Dois dias após a posse de Trump, Altman anunciou na Roosevelt Room o Stargate — um projeto conjunto de infraestrutura de IA de US$ 500 bilhões
  • Depois, foi anunciada a expansão do Stargate para Arábia Saudita e Emirados, com plano de construir em Abu Dhabi um campus de data centers sete vezes maior que o Central Park

Mudança política e lobby regulatório

  • Na audiência do Senado de 2023, conquistou boa vontade ao falar como se pedisse diretamente regulação para a IA, mas nos bastidores fazia lobby para enfraquecer a regulação europeia de IA
  • Opôs-se publicamente ao projeto de lei californiano de segurança em IA (SB 1047) e exerceu pressão ameaçadora nos bastidores
    • Ron Conway fez lobby junto a Pelosi e Newsom, e Newsom vetou o projeto aprovado pelo Legislativo
    • A posição oficial da OpenAI é que "não doa para super PACs", mas Brockman doou US$ 50 milhões ao PAC Leading the Future (e no mesmo ano doou US$ 25 milhões ao MAGA Inc.)
  • Foi emitida intimação contra Nathan Calvin, apoiador da lei de segurança em IA, e a mesma medida foi tomada contra críticos do projeto
    • Segundo uma fonte ligada ao caso, era “basicamente uma tentativa de calar as pessoas”
  • Altman, que em 2016 chamou Trump de "uma ameaça sem precedentes", doou US$ 1 milhão para o fundo da posse de Trump em 2024 e emergiu como figura próxima ao presidente
    • Enquanto Musk se afastou de Trump, a quem ajudou com US$ 250 milhões, Altman passou a acompanhar Trump em sua visita à Arábia Saudita

Anthropic vs. Departamento de Defesa dos EUA — a oportunidade aproveitada pela OpenAI

  • A Anthropic manteve o princípio de proibir apoio a armas totalmente autônomas e vigilância doméstica em massa
    • O secretário de Defesa Pete Hegseth impôs um prazo e exigiu a retirada do princípio, mas a Anthropic recusou
    • Hegseth classificou a Anthropic como “risco para a cadeia de suprimentos” (medida de lista negra antes aplicada a empresas chinesas como a Huawei)
  • Funcionários da OpenAI, Google e outras empresas apoiaram a Anthropic por meio da carta aberta “We Will Not Be Divided”
  • Altman já negociava com o Departamento de Defesa antes de o conflito entre Anthropic e o Pentágono vir a público
    • Emil Michael, subsecretário assistente de Defesa, entrou em contato com Altman e declarou: “ele entrou imediatamente, acho que é um patriota”
    • Foi anunciado um contrato de integração com a AWS no valor de US$ 50 bilhões, e as Forças Armadas dos EUA começaram a usar modelos da OpenAI
    • No dia do anúncio do contrato, a avaliação da OpenAI subiu US$ 110 bilhões, enquanto ao mesmo tempo pelo menos 2 funcionários seniores migraram para a Anthropic
  • Diante das preocupações levantadas por funcionários, Altman respondeu: “se vocês acham que bombardear o Irã é bom ou que invadir a Venezuela é ruim, vocês não podem se envolver nisso

Controvérsia sobre a confiabilidade de Altman — vários depoimentos

  • Altman é chamado de o melhor vendedor de sua geração e comparado ao campo de distorção da realidade de Steve Jobs
    • Colegas apontam como problema sua tendência à enganação e desejo de poder
    • Alguns o descrevem como uma “figura sociopática”, e também se relata que Aaron Swartz (colega da 1ª turma da YC) teria advertido em vida: “Sam nunca deve ser confiado, é um sociopata
  • Altman não tem grande especialização em programação nem em machine learning, mas fez a OpenAI crescer por meio de sua capacidade de reunir a competência técnica e o capital de outras pessoas
    • Ele age criando estruturas de restrição e depois anulando-as quando necessário
    • Pessoas próximas comparam seu poder de persuasão a um “Jedi mind trick
  • Executivos da Microsoft afirmam que Altman distorceu e rompeu acordos
    • A OpenAI designou a Microsoft como fornecedora exclusiva de nuvem, mas ainda assim fechou um acordo de revenda de US$ 50 bilhões com a Amazon
    • A Microsoft questionou o conflito contratual, porém a OpenAI alegou que não houve violação
    • Um executivo avaliou que Altman “pode ser lembrado como um fraudador no nível de Sam Bankman-Fried
  • Altman participou de discussões com o governo Biden sobre a política de aprovação de exportação de tecnologias sensíveis, mas alguns funcionários temiam suas ambições relacionadas ao Oriente Médio
    • Pouco antes da posse de Trump, após Tahnoon investir US$ 500 milhões em uma empresa da família Trump, Altman falou com Trump por telefone
    • Depois disso, anunciou na Casa Branca o projeto de infraestrutura de IA ‘Stargate’, de US$ 500 bilhões
    • O governo Trump revogou as restrições à exportação de tecnologia de IA, e Altman e Trump visitaram a família real saudita
  • A ex-conselheira Yoon: “não é um vilão maquiavélico, mas alguém excessivamente convencido de si, uma pessoa que não vive no mundo real
  • Annie, irmã de Altman, entrou com um processo alegando abuso sexual; Altman negou tudo, e familiares também rebateram dizendo que era “absolutamente falso” (impossível verificar o texto original)
  • Altman: “todas as alegações sobre atos repulsivos de concorrentes, envolvimento com menores e participação em assassinatos são completamente falsas”

O estado atual da segurança em IA — o abismo entre promessas e realidade

  • A Anthropic, após captar US$ 30 bilhões em investimentos, afrouxou promessas de segurança, e a corrida por velocidade se intensificou
    • A Anthropic colaborou com a Palantir para integrar o modelo Claude a sistemas militares, usados em operações do Pentágono
    • Depois disso, foi classificada como empresa de risco para a cadeia de suprimentos e entrou na lista negra
  • A OpenAI conduziu negociações com o Departamento de Defesa e firmou um contrato de integração de infraestrutura militar baseada em AWS (US$ 50 bilhões)
    • No mesmo dia, a avaliação da OpenAI subiu US$ 110 bilhões, e alguns funcionários deixaram a empresa
  • Alguns executivos avaliam que a liderança de Altman apresenta graves problemas de governança
    • Fidji Simo é mencionada como possível sucessora
  • A OpenAI desfez a equipe de Superalignment e a equipe de preparação para AGI
    • Sutskever e Leike saíram da empresa criticando que “produtos vistosos vêm antes da segurança
    • Nos relatórios ao IRS, o item ‘segurança’ foi removido, e a empresa recebeu nota F na avaliação de segurança existencial do Future of Life Institute
  • A militarização da IA e os danos sociais estão se tornando realidade
    • Na guerra civil da Líbia em 2020, um drone com IA atacou sem controle humano, e em um estudo farmacêutico de 2022 foram gerados 40 mil compostos candidatos a armas químicas
    • Já houve danos como interferência eleitoral com áudios deepfake e processos ligados a suicídios e assassinatos
  • A OpenAI enfrenta 7 ações judiciais por morte culposa, incluindo alegações de que o ChatGPT teria incentivado a violência das vítimas
  • Altman continua enfatizando a “esperança para o futuro da humanidade” e afirmou que pretende “realizar um futuro insano de ficção científica”
    • Pessoas ao seu redor avaliam que a fronteira entre seus ideais e sua sede de poder é pouco clara
    • Ele adverte sobre o potencial destrutivo da A.G.I., mas ao mesmo tempo afirma que ele próprio deve construí-la
  • Os problemas de bajulação (sycophancy) e alucinação (hallucination) nos grandes modelos de linguagem continuam sem solução
    • Altman demonstrou priorizar a satisfação do usuário em vez da veracidade completa, ao dizer que “algumas afirmações falsas aumentam o charme do modelo
  • Altman: “minha intuição não combina com muitas coisas do campo tradicional de segurança em IA” — ao ser questionado sobre um plano concreto de segurança, respondeu de forma vaga que “continuará com projetos relacionados à segurança”

Conclusão

  • Sam Altman é a figura que transformou a OpenAI em uma empresa global, mas as controvérsias sobre mentiras, concentração de poder e descaso com a segurança continuam
  • Denunciantes internos e colegas o avaliam como um “líder não confiável” e alertam para os riscos da concentração do controle da AGI
  • A OpenAI continua sendo uma organização que controla uma tecnologia capaz de definir o futuro da humanidade, e a confiabilidade e responsabilidade de Altman seguem como questões centrais

1 comentários

 
GN⁺ 24 일 전
Comentários do Hacker News
  • Aqui é o Ronan Farrow. Fiz esta investigação de 18 meses com o Andrew Marantz. Se tiverem perguntas sobre a apuração, podem mandar

    • Tenho curiosidade sobre como você decide que um projeto longo chegou ao fim. Parece difícil definir um ponto de encerramento numa investigação desse porte. Também queria saber quanta autonomia você recebe dos editores ou da publicação
    • Foi uma excelente matéria. Oportuna, minuciosamente apurada e muito bem escrita. Pelo que eu sei, é precisa.
      Há relatos de que a perda de competitividade da OpenAI é mais séria do que se imagina. Uma matéria do LA Times também diz haver evidências de que a Anthropic está à frente.
      No HN também há muitos desenvolvedores que preferem o Claude. O comparativo de buscas mostra o dobro de resultados em relação ao ChatGPT.
      Fico curioso se, da perspectiva do Ronan, a posição atual da OpenAI parece parecida
    • A parte das alegações de abuso sexual na matéria foi a mais confusa para mim. Em especial, a alegação da irmã e o conteúdo sobre “relacionamento com menor” pareceram quase uma absolvição.
      Queria saber se a alegação da Annie foi investigada separadamente. A matéria passa uma nuance de que “memórias recuperadas não são confiáveis”, mas isso já é uma percepção equivocada difundida pela False Memory Syndrome Foundation.
      Como alguém com transtorno dissociativo, já vivi a experiência de recuperar memórias que depois foram corroboradas por terceiros. Nesse contexto, acho perigoso simplesmente desconfiar de memórias recuperadas
    • Ronan Farrow aparecendo no HN; agora realmente parece que já vimos de tudo
    • Tenho curiosidade sobre que tipo de apoio seria necessário para continuar fazendo esse tipo de jornalismo investigativo, inclusive com participação de comunidades como o HN
  • O conteúdo do diário do Brockman citado na matéria foi chocante. O fato de ele realmente ter escrito frases como querer “dinheiro e poder” ou “a meta é 100 milhões de dólares” passa uma sensação de pobreza de imaginação.
    Fico me perguntando como esse tipo de gente chega a esse nível, mas a resposta parece já estar no próprio diário. É frustrante ver esse tipo de figura continuar subindo ao topo do poder

    • Não é um problema só de figuras como Altman, Zuckerberg e Nadella, mas uma questão estrutural do setor como um todo.
      Metade de nós escolheu trabalhar em empresas moralmente cinzentas para maximizar riqueza. A maioria só acha que não tem chance real de virar “bilionária”
    • É decepcionante, mas não chega a ser surpreendente que as pessoas que mais queriam dinheiro e poder acabem conseguindo isso
    • Acho que, fora vencer o jogo de status social, não sobra mais nada para essas pessoas
  • Foi uma matéria realmente detalhada. Precisamos de mais reportagens aprofundadas assim.
    Dito isso, tive uma leve reação instintiva de rejeição ao ler a referência a “Blip” comparada a filmes da Marvel. Não sei bem por quê

    • Filmes da Marvel são conteúdo comercial voltado ao mínimo denominador comum do grande público.
      É amargo pensar que pessoas que citam esse tipo de obra estejam decidindo a direção da tecnologia do futuro. No fim, o problema é uma pobreza de gosto
  • Temos a tendência de concentrar a crítica em indivíduos. Mas o verdadeiro problema é a estrutura do sistema.
    A trajetória do Sam Altman é cercada de controvérsias, mas a ameaça que a IA representa para a sociedade e para a liberdade continua existindo com ou sem ele

    • Isso acontece porque nunca experimentamos sistemas econômicos diversos. Mesmo conhecendo muitas pessoas, conhecemos apenas um sistema
  • Achei interessante que Altman e as pessoas ao redor dele se preocupassem com a superinteligência da IA ou com a militarização da IA pela China, mas fossem indiferentes ao desaparecimento de empregos humanos.
    Talvez não fosse preocupação, e sim a esperança de poder monopolizar para si toda a riqueza do mundo

  • Por causa da matéria, fui pesquisar de novo o uso de trema (diaeresis) em inglês. Por exemplo, em palavras como coördination, ele é usado quando as vogais são pronunciadas separadamente

    • Não é usado em toda repetição de vogais. Só quando as duas vogais não formam um único som. Por exemplo, não se usa em chicken coop
  • Link arquivado da matéria

  • Como leitura complementar, também recomendo “Child’s Play”, da Harper’s. O contraste de personalidade entre as figuras é interessante

  • Fiquei impressionado com o nível de detalhe da descrição da época do Altman no Y Combinator. É uma apuração realmente excelente

    • Reportagens desse nível, tão precisas e checadas nos fatos, têm cada frase escolhida com extremo cuidado.
      Disseram que esta matéria em particular foi revisada por mais de 8 horas, frase por frase. Deve haver muito mais material que não entrou no texto
  • A visão deles sobre LLM foi interessante. Claro que é algo transformador, mas não parece que vamos viver num futuro cyberpunk tão cedo. A palavra AGI aparece vezes demais na matéria

    • Isso acontece porque os LLMs são especialmente bons em tarefas repetitivas de trabalho de colarinho branco.
      São úteis para redigir documentos ou apresentações, mas, quando aplicados a problemas complexos, suas limitações ficam bem claras