Se o monopólio surge dos TAC, então, no momento em que a solução apresentada é a venda do Chrome, isso não deve significar nada além de um teatro político.
Um texto na internet não é uma encomenda de alguém.
Se fosse propriedade privada não aberta ao público, teriam colocado um processo de autenticação.
Acho que dá para ver isso como algo parecido com deixar um panfleto na rua com um veneno letal espalhado nele.
Bots realmente maliciosos não podem ser pegos desse jeito.
Nem bomba de gzip funciona.
Basta entender que algum desconhecido escreveu uma postagem divertida sobre uma bomba.
A OpenAI já é uma empresa grande o bastante para ter esse nível de consideração, né.
E provavelmente é difícil que o simples fato de o usuário clicar diretamente no resultado da busca gere um tráfego tão pesado; não seria mais um problema de o crawler estar operando de forma excessiva?
Ah, então, é verdade que o cálculo é chamativo, mas pessoalmente me parece uma análise bastante plausível como parte da posição monopolista da internet como plataforma. No meu caso, inclusive, preciso usar Firefox e Chrome em paralelo por causa do Google Tradutor.
O Internet Explorer também não gerava receita própria (ao contrário do Navigator, e ainda por cima era até gratuito), mas tinha o efeito indireto de atrair usuários para o sistema operacional da MS. O fato de os navegadores baseados em Chromium não serem populares não seria, na verdade, justamente uma prova do contrário?
Ultimamente aparecem de vez em quando casos de danos causados por tráfego excessivo vindo de serviços integrados com LLM, e parece que isso também pode ser visto como uma medida para esse tipo de situação. Por exemplo, olhando para recursos como a busca na web do ChatGPT, pelas características dessa base de usuários há bastante margem para gerar tráfego excessivo "sem intenção maliciosa", e ouvi dizer que esses casos podem ser filtrados com facilidade por meio de uma simples identificação de agente. Se essa for realmente a intenção, no fim das contas isso só vai desperdiçar os custos de servidor da OpenAI (e a reputação dela?).
Se o monopólio surge dos TAC, então, no momento em que a solução apresentada é a venda do Chrome, isso não deve significar nada além de um teatro político.
Então isso quer dizer que é um texto sem sentido.
Já existe algo chamado bots.txt com o qual todos concordamos há muito tempo..
Um texto na internet não é uma encomenda de alguém.
Se fosse propriedade privada não aberta ao público, teriam colocado um processo de autenticação.
Acho que dá para ver isso como algo parecido com deixar um panfleto na rua com um veneno letal espalhado nele.
Bots realmente maliciosos não podem ser pegos desse jeito.
Nem bomba de
gzipfunciona.Basta entender que algum desconhecido escreveu uma postagem divertida sobre uma bomba.
Concordo.
Bots maliciosos, isso lá é algo ético? kkk
A OpenAI já é uma empresa grande o bastante para ter esse nível de consideração, né.
E provavelmente é difícil que o simples fato de o usuário clicar diretamente no resultado da busca gere um tráfego tão pesado; não seria mais um problema de o crawler estar operando de forma excessiva?
Ah, então, é verdade que o cálculo é chamativo, mas pessoalmente me parece uma análise bastante plausível como parte da posição monopolista da internet como plataforma. No meu caso, inclusive, preciso usar Firefox e Chrome em paralelo por causa do Google Tradutor.
O Internet Explorer também não gerava receita própria (ao contrário do Navigator, e ainda por cima era até gratuito), mas tinha o efeito indireto de atrair usuários para o sistema operacional da MS. O fato de os navegadores baseados em Chromium não serem populares não seria, na verdade, justamente uma prova do contrário?
https://github.com/EnzeD/vibe-coding?tab=readme-ov-file
Acho que também vale a pena dar uma olhada no guia de vibe coding. Ele também mostra bem como usar as Rules que você mencionou.
O Chrome já tinha adotado isso na pré-história... agora todo mundo está copiando
Ah, então é esse tipo de gente que dificulta o reconhecimento de legítima defesa, né? haha...
Por que isso não é considerado uma boa prática do ponto de vista ético? Fiquei curioso.
Foi divertido de ler, porque parecia um texto sobre dar uma bomba de glitter para ladrões de encomenda :)
Talvez seja só para dizer que esse tipo de método existe..
Uau... isso é impressionante... de verdade. É incrível como ficou tão natural
Ultimamente aparecem de vez em quando casos de danos causados por tráfego excessivo vindo de serviços integrados com LLM, e parece que isso também pode ser visto como uma medida para esse tipo de situação. Por exemplo, olhando para recursos como a busca na web do ChatGPT, pelas características dessa base de usuários há bastante margem para gerar tráfego excessivo "sem intenção maliciosa", e ouvi dizer que esses casos podem ser filtrados com facilidade por meio de uma simples identificação de agente. Se essa for realmente a intenção, no fim das contas isso só vai desperdiçar os custos de servidor da OpenAI (e a reputação dela?).
E as informações entram de forma super clara...
Não é um jeito eticamente bom. E também não é uma solução fundamental.