Pesquisar
Close this search box.
Notícias

Instagram e Facebook usam suas fotos e textos para treinar IA: por que a prática está sendo questionada?

Instituto de Defesa de Consumidores (Idec) alertou autoridades por conta de cinco possíveis violações da Meta. Para a entidade, a empresa pode ser multada em até R$ 50 milhões por infração por infringir a Lei Geral de Proteção de Dados (LGPD). Meta passa a coletar dados das redes para IA. Saiba passo a passo para desativar
A forma como a Meta está usando dados de usuários de Instagram e do Facebook para treinar sua inteligência artificial (IA) viola leis brasileiras, na avaliação do Instituto de Defesa de Consumidores (Idec).
Parte do material usado pela Meta para ensinar seus modelos de IA inclui informações disponíveis publicamente nas redes sociais da empresa, como fotos e textos compartilhados pelos usuários – mensagens privadas não são incluídas nessa lista.
⚠️ Por que isso importa? Porque o conteúdo que você e milhões de pessoas postaram no Instagram e no Facebook está servindo para treinar inteligência artificial sem a empresa oferecer contrapartidas nem informações detalhadas sobre onde a ferramenta poderá ser usada.
A coleta das informações foi anunciada pela Meta no início do mês e é habilitada por padrão. Quem quiser proteger suas fotos e vídeos deve seguir um passo a passo nas configurações do Instagram ou do Facebook (veja como fazer).
O Idec alega que a Meta falhou porque não avisou usuários com antecedência, não foi totalmente transparente sobre a prática e não ofereceu um meio fácil e intuitivo de se opor à coleta de dados.
Por isso, a entidade alertou a Secretaria Nacional do Consumidor (Senacon), a Autoridade Nacional de Proteção de Dados (ANPD) e o Conselho Administrativo de Defesa Econômica (Cade) por meio de um ofício ao qual o g1 teve acesso em primeira mão.
O instituto entende que, se a violação for constatada, a Meta pode ser multada em até R$ 50 milhões por infração, como previsto na Lei Geral de Proteção de Dados (LGPD).
A Meta, por sua vez, afirma que o uso das informações para treinar uma inteligência artificial é de seu legítimo interesse, bem como de seus usuários e outras pessoas.
“Estamos comprometidos em desenvolver a inteligência artificial na Meta – nossa coleção de recursos e experiências generativas de inteligência artificial junto com os modelos que os alimentam – de forma segura, responsável e atendendo as regulações de privacidade no Brasil”, disse a companhia ao g1 em 23 de junho.
A empresa foi procurada novamente para esta reportagem, mas não se posicionou até a publicação. Entenda o caso abaixo.
Como essa história começou?
O caso ganhou atenção em 4 de junho, depois que a Meta informou na União Europeia e no Reino Unido que a sua política de privacidade passaria a prever a possibilidade de usar dados de usuários para treinar sua IA.
Treinamentos de modelos de inteligência artificial envolvem o uso de grandes quantidades de dados e são necessários para que, em uma etapa seguinte, eles sejam capazes de analisar informações e até gerar conteúdo por conta própria.
Após repercussão negativa, a empresa voltou atrás e decidiu adiar a mudança na Europa para seguir a determinação de seu regulador na região, a Autoridade Irlandesa de Proteção de Dados (DPC, na sigla em inglês).
Mas a possibilidade ainda é prevista na política da empresa para o Brasil. “Usamos informações que estão publicamente disponíveis online e informações licenciadas. Também usamos informações compartilhadas nos produtos e nos serviços da Meta”, diz o documento.
Os brasileiros que ganham R$ 500 por mês para treinar inteligências artificiais
O que pode estar errado?
Ainda de acordo com o Idec, a Meta viola determinações da legislação brasileira porque:
📢 Não comunicou usuários brasileiros antes da mudança, nem detalhou o objetivo do treinamento de IA, apesar de transparência e informação adequada serem direitos previstos no Código de Defesa do Consumidor;
📊 O uso de dados de usuários para IA não é de interesse legítimo, um argumento usado pela empresa, já que, entre outros pontos, não é essencial para sua atividade;
🖥️ A opção que permite se opor ao uso dos dados é pouco intuitiva, o que dificulta que consumidores exerçam seus direitos – é necessário passar por várias telas para pedir que a coleta seja interrompida (saiba como fazer);
📝 A coleta das informações pode dar uma vantagem excessiva à empresa, por haver uma mudança desproporcional nas cláusulas do contrato que foi aceito pelos usuários;
💰 Os novos termos são um abuso de posição dominante, já que existem poucas empresas com tantos dados disponíveis para treinar uma inteligência artificial, dificultando uma concorrência justa.
Os pontos acima foram enviados pelo instituto para avaliação de autoridades. Procurada pelo g1, a ANPD disse que “está preparando seus questionamentos para encaminhar à empresa”.
“Os termos de uso de uma plataforma digital e as informações sobre como ela faz o tratamento de dados pessoais constituem cláusulas de um acordo entre a plataforma e seus usuários. E vinculam tanto a plataforma quanto os usuários. Uma mudança nas regras precisa ter a concordância de ambos”, afirmou a ANPD.
“Considerando os princípios da boa-fé, da transparência e da responsabilização e da prestação de contas, para uma mudança dessas, é essencial um claro aviso aos usuários da plataforma, para que possam escolher de maneira livre e informada o que fazer. Não há transparência quando há surpresas”, completou o órgão.
A Senacon afirmou que até o momento não recebeu o ofício. O Cade não retornou o contato.
“A utilização dos dados pessoais de todos os usuários para treinamento da inteligência artificial generativa da Meta representa uma exploração unilateral da vida dos usuários sem que eles recebam qualquer benefício em troca e nem mesmo tenham a dimensão do seu impacto”, afirmou Marina Fernandes, pesquisadora do programa de Telecomunicações e Direitos Digitais do Idec.
O que acontece agora?
O ofício não garante que as autoridades adotarão alguma medida contra a coleta de dados de usuários de redes sociais para treinamento da IA.
Porém, o Idec pede para os órgãos a suspensão da mudança na política de privacidade da Meta e a determinação para a empresa notificar usuários sobre a prática e deixar de usar dados pessoais para treinar IA sem consentimento dos titulares.
A entidade também defende que o Cade instaure um processo administrativo para investigar a Meta por possíveis violações à Lei de Defesa da Concorrência.
“As autoridades devem, assim como na União Europeia, suspender a política de privacidade e determinar que à empresa se abstenha de utilizar dados pessoais para treinamento de ferramentas de inteligência artificial generativa sem prévio consentimento qualificado dos titulares”, disse Fernandes.

Fonte da Máteria: g1.globo.com