- Trabalhadores da Sama no Quênia, que revisavam conteúdo de óculos inteligentes para treinamento de IA, estão no centro de uma disputa que pode levar à demissão de 1.108 pessoas após o fim do contrato com a Meta
- O encerramento do contrato ocorreu menos de dois meses depois de os trabalhadores dizerem que viram, em vídeos dos óculos da Meta, usuários usando o banheiro e tendo relações sexuais
- A Meta afirmou que a Sama não cumpriu seus padrões operacionais, enquanto a Sama rebateu dizendo que atendeu aos padrões operacionais, de segurança e de qualidade nos trabalhos para clientes, incluindo a Meta, e que nunca foi informada de qualquer descumprimento
- A Meta declarou que conteúdo dos óculos inteligentes compartilhado por usuários com o Meta AI pode, às vezes, ser revisado por trabalhadores terceirizados, e que obtém consentimento claro dos usuários para a revisão humana voltada à melhoria do desempenho do produto
- O ICO do Reino Unido e o Comissário de Proteção de Dados do Quênia responderam a preocupações com privacidade, e, somado à controvérsia do contrato anterior de moderação de conteúdo do Facebook com a Sama, o caso expõe os riscos do trabalho de dados para IA
Questões em torno do fim do contrato entre Meta e Sama
- A Meta encerrou um grande contrato com a Sama, usado em treinamento de IA, e a Sama estima que essa decisão levará à demissão de 1.108 pessoas
- O encerramento do contrato ocorreu menos de dois meses depois de trabalhadores da Sama no Quênia dizerem que viram, em vídeos dos óculos inteligentes da Meta, usuários usando o banheiro e tendo relações sexuais
- A Meta disse que encerrou o contrato porque a Sama não cumpriu seus padrões operacionais
- A Sama contestou, afirmando que cumpriu continuamente os padrões operacionais, de segurança e de qualidade exigidos nos trabalhos para clientes, incluindo a Meta, e que nunca recebeu aviso de descumprimento
- Uma organização de trabalhadores do Quênia acredita que a decisão da Meta foi tomada por causa das declarações públicas dos funcionários, mas a Meta não respondeu diretamente a essa suspeita
Revisão de vídeos dos óculos inteligentes e questões de privacidade
- Em uma investigação publicada no fim de fevereiro pelos veículos suecos Svenska Dagbladet e Goteborgs-Posten, trabalhadores anônimos disseram que revisaram vídeos gravados com os óculos da Meta
- Um dos trabalhadores disse: “Vemos tudo, da sala de estar à nudez”, e afirmou que os vídeos incluíam cenas de uso do banheiro e de relações sexuais
- A Meta reconheceu que conteúdo dos óculos inteligentes compartilhado por usuários com o Meta AI pode, às vezes, ser revisado por trabalhadores terceirizados
- A Meta considera que essa revisão tem como objetivo melhorar a experiência do cliente e que é uma prática comum em outras empresas
- Em declaração enviada à BBC, a Meta afirmou que fotos e vídeos não são públicos para outros usuários e que obtém consentimento claro dos usuários para a revisão humana de conteúdo de IA com fins de melhorar o desempenho do produto
Reguladores e riscos no uso do produto
- Logo após a reportagem sueca, o órgão regulador de dados do Reino Unido, ICO, classificou a cobertura como “preocupante” e enviou uma carta à Meta
- O Comissário de Proteção de Dados do Quênia também iniciou uma investigação sobre as preocupações com privacidade levantadas pelos óculos inteligentes
- Em setembro, a Meta apresentou uma linha de óculos com IA em parceria com Ray-Ban e Oakley
- Os recursos incluem tradução de texto e respostas a perguntas sobre o que o usuário está vendo, podendo ser especialmente úteis para pessoas cegas ou com baixa visão
- Com o aumento da popularidade do dispositivo, também cresceram as preocupações com uso indevido, e no Quênia ele chegou a ser associado a gravações sem consentimento de mulheres
- Os óculos da Meta têm uma luz indicadora na borda da armação que acende quando a câmera embutida está gravando
Trabalho de rotulagem de dados e controvérsia de contratos anteriores
- Os trabalhadores da Sama, como anotadores de dados, adicionavam rótulos manualmente ao conteúdo para ajudar a Meta AI a interpretar imagens, e também revisavam transcrições de interações com a IA
- Segundo um trabalhador, os óculos de um homem continuaram gravando no quarto, e depois registraram uma mulher, aparentemente sua esposa, tirando a roupa
- A Sama é uma empresa de terceirização com sede nos EUA, que começou como uma organização sem fins lucrativos voltada à ampliação do emprego por meio da oferta de vagas em tecnologia, e hoje opera como uma B-corp “ethical”
- O contrato anterior de moderação de conteúdo do Facebook entre Meta e Sama também gerou críticas e ações judiciais de ex-funcionários, alguns dos quais disseram ter sido expostos a conteúdo explícito e traumático
- A Sama afirmou depois que se arrepende de ter assumido esse trabalho
- Naftali Wambalo, do Africa Tech Workers Movement, também entrou em contato com trabalhadores do contrato dos óculos inteligentes e acredita que a Meta não queria que viesse a público o fato de humanos revisarem conteúdo dos óculos inteligentes
- Wambalo disse que o padrão citado pela Meta se parece mais com um “padrão de confidencialidade”
- A Meta já havia afirmado anteriormente que seus termos de serviço informavam aos usuários sobre a possibilidade de revisão humana
- Mercy Mutemi, do Oversight Lab, considera que a declaração da Meta deveria servir de alerta ao governo do Quênia e que a base apresentada como porta de entrada para o ecossistema de IA é extremamente frágil
1 comentários
Comentários do Hacker News
A Meta cancelou o contrato com a empresa terceirizada encarregada da classificação de conteúdo dos óculos inteligentes, e isso aconteceu depois que funcionários dessa empresa denunciaram internamente os graves problemas de privacidade no conteúdo que estavam classificando
A OpenAI terceirizou para ela a classificação de CSAM, e a Sama encerrou a OpenAI como cliente em 2022: https://time.com/6247678/openai-chatgpt-kenya-workers/
Quatro anos depois disso, e três anos depois da publicação dessa reportagem, a forma como as empresas de tecnologia operam não melhorou em nada
Não converse nem interaja, e eu nem recomendo estar no mesmo ambiente
A Meta disse que a Sama não atendia seus padrões, e a Sama negou essa crítica
Proteger criminosos enquanto se humilha denunciantes é coisa de ditaduras e oligarquias
Não importa em que país esteja a terceirizada; se o crime virou global, a proteção a denunciantes também precisa ser global
Disseram que um trabalhador afirmou que eles “veem de tudo, da sala de estar até nudez”
A Meta disse que isso serve para melhorar a experiência do cliente e que é uma prática comum em outras empresas, e eu sinceramente fico me perguntando se li isso direito
Provavelmente uma das coisas mais bizarras que já li na internet em 20 anos
A Meta ao menos lê o que está dizendo?
Acho que era para fins como análise de problemas
Até hoje recebo reações estranhas quando digo que não uso WhatsApp, mas todos os ativos da Meta estão contaminados, então não uso nenhum
Não sei o que é pior aqui: a Meta gravar vídeos a partir dos óculos inteligentes dos clientes ou demitir as pessoas que falaram sobre isso
Claro que devemos pressionar essas empresas para que não ajam como lixo, mas no fim elas só conseguem fazer esse tipo de lixo com os dados que as pessoas entregam
Existem exceções, como a Flock, que faz lixo com dados de vigilância “pública”
Eu sei que a cultura já se degradou a ponto de normalizar passar momentos íntimos usando goggles corporativos de vigilância, mas não faço ideia de como chegamos a confiar tanto assim
Mais amplamente, também não entendo por que alguém usaria uma câmera conectada à internet que a Meta obviamente monitoraria
Acho que os complicados problemas de privacidade e segurança em torno dos óculos inteligentes e de outras tecnologias “pessoais” poderiam ser tratados por uma empresa cuidadosa, séria e responsiva
Por isso mesmo eu jamais tocaria em um dispositivo pessoal da Meta
Todo o DNA deles foi escrito para explorar o usuário em nome do lucro
Pelo meu julgamento, eles só conseguem enxergar esse tipo de problema como algo a ser usado para esconder das pessoas a profundidade da exploração; literalmente não conseguem considerar isso de forma adequada, e nunca vão conseguir
Fico curioso sobre em que condições os vídeos gravados pelos óculos são enviados para classificação
Provavelmente, se o usuário pergunta aos óculos algo sobre o que está vendo, o vídeo é enviado para classificação para gerar uma resposta
Parece que as pessoas pensam “é só IA”, então não se preocupam muito com privacidade
Essa manchete me lembrou que “row” é uma das palavras que pronunciei errado por quase a vida inteira. Só este ano descobri a pronúncia correta
Nesse contexto, row rima com cow, não com dough
Meu primeiro exemplo de rima foi bow, mas aí percebi o problema desse exemplo
“Duas nações separadas por uma língua comum” cai como uma luva
https://www.merriam-webster.com/dictionary/row#dictionary-en...
Sou ex-funcionário da Meta. Podem vaiar à vontade
Internamente havia quatro níveis de dados, em que 1 era informação de domínio público, tipo “o céu é azul”, e 4 era dado pessoal de usuário ou informação sensível se vazasse ou fosse compartilhada
Pelo que me disseram, basicamente todos os dados de usuário eram nível 4, e qualquer coisa feita sem a aprovação adequada resultava em demissão imediata
Durante o bootcamp, era comum ouvir histórias de pelo menos uma pessoa por mês que acessava dados de usuário e era escoltada para fora do prédio em poucas horas
Na área de pesquisa visual onde trabalhei, precisávamos passar por um ano inteiro de procedimentos jurídicos para conseguir autorização para gravar vídeos em locais públicos
Tínhamos de construir pipelines de anonimização, trilhas de auditoria robustas, apagar o máximo de dados possível e montar sistemas de exclusão automática caso algo desse errado
Também havia regras rígidas sobre onde os dados podiam ser armazenados e quem podia acessá-los
Vídeos “selvagens”, nos quais pudesse aparecer minimamente alguém que não tivesse assinado contrato, não podiam ser compartilhados para anotação porque seriam entregues a terceiros
Todas as pessoas e lugares rastreáveis presentes em conjuntos de dados públicos tinham isenções legais assinadas
Então agora ouvir que simplesmente despejaram dados privados para anotadores e usaram isso como dados de treinamento significa que nem os controles mais básicos existiam
Isso só mostra que, quando o Zuck ou a monetização querem alguma coisa, as regras deixam de valer
Espero que todo esse setor desmorone por conta própria
Engenheiros de software só deveriam poder acessar PII com consentimento explícito do usuário ou cliente, por exemplo em um ticket de suporte
Especialmente alguém ainda em bootcamp; fico me perguntando se de fato podiam acessar dados de usuário não anonimizados durante o treinamento
Até na minha antiga empresa, mesmo com consentimento do cliente, era preciso passar por uma quantidade enorme de procedimentos para acessar dados de usuário
Porque parecia escancarado que, internamente, a história era completamente outra
Um dos maiores nichos comerciais dos óculos inteligentes e de outras tecnologias “pessoais” é gravar pornô em POV, então não é nada surpreendente que esse tipo de conteúdo tenha ido parar na fila de moderação
O projeto deveria ter sido planejado levando esse caso de uso em conta
Já na época do Oculus Go, havia muitos eufemismos internos para evitar dizer “nosso dispositivo precisa sair com navegador para que as pessoas possam ver pornô”
Já que foi transmitido ao servidor, vão mandar alguém lá para impedir que elas façam sexo?
https://archive.ph/ubWba
Se quiser ler mais sobre como os aspectos mais repulsivos do treinamento de IA são empurrados para trabalhadores pobres do terceiro mundo, recomendo Empire of AI, de Karen Hao
Esses trabalhadores ficam expostos a material horrível em empregos precários, recebendo quase nada por hora