Parece uma vibe de cerâmica.

 

O gráfico de aumento do meu salário está em 0% há 5 anos.

 

Pode não ser fácil generalizar, mas com certeza é a melhor ferramenta para convencer a diretoria.

 

A execução de computação em servidores de terceiros deve ser rejeitada porque prejudica a liberdade de computação do usuário.

Isso não seria um argumento para rejeitar não só os LLMs, mas também todos os serviços em nuvem e serviços externos...? A tradução está errada?

 

Acho que vi este texto há muito tempo... Foi um texto que voltou a me motivar. Obrigado por postar.

 

Se vai fazer vibe coding, por que não faz em C?

Acreditar que, ao programar com um modelo de linguagem, ele vai magicamente criar sozinho expressões mais próximas da máquina é querer levar vantagem.
Quanto mais restrições houver, melhor ele trabalha dentro delas.

 

Hoje em dia, para uma apresentação em si ser significativa, parece que ela teria de se concentrar principalmente em dicas sobre como lidar com IA, mas é uma pena sentir que a essência das apresentações está ficando cada vez mais fácil e se apagando.

 

Percebi mais uma vez como é difícil delegar tarefas.

 

Mesmo assim, não foi o caso de vários mantenedores abandonarem o projeto?

 

Há apenas um livro relacionado ao Hangul publicado, mas, infelizmente, como a forma de usar Rust no kernel Linux passou por várias breaking changes, ele não é totalmente compatível com os kernels atuais. Seria muito bom se isso pudesse ser complementado por meio do GitHub e afins.

 

Mesmo que a IA escreva o código, a responsabilidade pelo serviço ainda deve ser do desenvolvedor. Fico em dúvida se alguém conseguiria assumir a responsabilidade por um código que nem entende.

 

Mesmo assim, acho que deve haver critérios de medição significativos. Em especial, parece que seria mais eficaz haver alguém responsável por dois indicadores opostos ao mesmo tempo. Do ponto de vista de SRE, pode parecer ótimo reduzir a quantidade de incidentes, mas, ao ficar testando tudo em excesso por precaução, os deploys podem atrasar e o desenvolvimento de funcionalidades pode ficar mais lento. E, do ponto de vista de Dev, pode parecer ótimo ter desenvolvido muitas funcionalidades, mas, na mesma medida, o número de incidentes também pode aumentar.

Também acho que métricas como p99 latency, taxa de sucesso das respostas, custo por requisição, MTTR e número de incidentes são bons indicadores e difíceis de manipular. (Claro que ainda podem ser manipulados, mas me parece que acompanhar e gerenciar isso traz mais benefícios do que prejuízos...)

 

Então, provavelmente esse gráfico tem uma alta chance de ser contaminado.

Lei de Goodhart: "Quando uma métrica se torna a meta, ela deixa de ser uma boa métrica"

 

No dia a dia, eu achava que destacar resultados em porcentagem não fazia sentido, e este texto parece completar esse pensamento.

Em vez de dizer que contribuiu para um aumento de 5% na receita, acho que é preciso dizer quanto ela aumentou em determinado período e quão mais acentuado foi esse crescimento em comparação com antes da sua contribuição.

 

Conteúdo muito bom.

 

???: É branco.

 

Vendo assim, todas as cores parecem bonitas.

 

kkkkkkkkkk

 

Também considero desejável que, na medida em que uma empresa obtém lucros do mercado, ela contribua com esse mercado e com a sociedade que possibilitou o avanço da tecnologia e continua tornando esse avanço possível.

A estrutura básica da IA generativa já foi divulgada, e entendo que as partes que a OpenAI não divulga pertencem aos segredos comerciais da empresa. Quando uma empresa ou tecnologia volta a contribuir com a sociedade, isso parece, na superfície, uma expressão de gratidão e uma mensagem de coexistência, mas, na prática, vejo como um reinvestimento no mercado para o crescimento sustentável da própria empresa. Sob essa perspectiva, parece mais desejável que empresas de IA contribuam para a educação ou para a infraestrutura social com o dinheiro que arrecadam, em vez de exigir que tornem público tudo o que é, na prática, um ativo seu — uma cópia da inteligência artificial que possuem. Isso não seria como ignorar os benefícios dos ovos de ouro da galinha dos ovos de ouro e exigir que primeiro se abra a barriga da galinha? Os ovos de ouro podem sair à vontade. Basta compartilhá-los; se for obrigatório entregar a própria galinha, fico pensando quem ainda iria se dispor a criá-la.

Como a inteligência artificial funciona já está esclarecido, assim como a eletromagnetismo. Um smartphone incluiria não apenas o conhecimento básico de eletromagnetismo, mas também tecnologias que cada empresa não pode revelar por serem segredos comerciais. Simplesmente não consigo entender desrespeitar essa parte e tratar a IA generativa como algo ruim, quase como numa caça às bruxas.

Graças às pessoas que responderam ao meu comentário, fui pesquisar bastante coisa e isso me levou a refletir muito. Obrigado.