Governo manda dona do Facebook suspender uso de dados de usuários para “treinar” IA

Autoridade Nacional de Proteção de Dados (ANPD) alega que tomou essa medida "em virtude do risco iminente de dano grave e irreparável ou de difícil reparação aos direitos fundamentais dos titulares afetados"

Fábio Matos

Smartphone com o logotipo do Facebook é visto na frente do logotipo da Meta, em ilustração de 28/10/2021. (Foto: REUTERS/Dado Ruvic/Illustration)
Smartphone com o logotipo do Facebook é visto na frente do logotipo da Meta, em ilustração de 28/10/2021. (Foto: REUTERS/Dado Ruvic/Illustration)

Publicidade

A Autoridade Nacional de Proteção de Dados (ANPD), autarquia federal vinculada ao Ministério da Justiça e Segurança Pública, exigiu que a Meta – controladora de Facebook, Instagram e WhatsApp – suspenda, no Brasil, sua nova política de privacidade sobre o uso de dados pessoais dos usuários das plataformas.

Na prática, a decisão do governo proíbe a companhia de utilizar esses dados pessoais para o “treinamento” de modelos de inteligência artificial generativa (IA). A Meta vinha aproveitando essas informações para compor o banco de dados de IA e gerar mais respostas automatizadas.

Baixe uma lista de 11 ações de Small Caps que, na opinião dos especialistas, possuem potencial de crescimento para os próximos meses e anos

Continua depois da publicidade

A decisão da ANPD foi publicada na edição desta terça-feira (2) do Diário Oficial da União. Em caso de descumprimento, a empresa terá de pagar uma multa diária de R$ 50 mil.

O governo alega que teve de tomar essa medida “em virtude do risco iminente de dano grave e irreparável ou de difícil reparação aos direitos fundamentais dos titulares afetados”.

O documento é assinado, no Diário Oficial, pelo diretor-presidente da ANPD, Waldemar Gonçalves. A determinação é a de cumprimento imediato da decisão.

Continua depois da publicidade

A Meta ainda deverá apresentar, em até 5 dias a partir do recebimento da intimação, os seguintes documentos:

“Treinamento” da IA

No início de junho, a dona do Facebook e do Instagram anunciou alterações em sua política de privacidade na União Europeia e no Reino Unido, de modo que passaria a ser permitido o uso de dados de usuários para “treinar” sistemas de IA generativa.

A big tech recuou da decisão após a repercussão negativa e adiou os planos de mudar sua política de privacidade na Europa. No Brasil, entretanto, as alterações foram mantidas.

Continua depois da publicidade

O Instituto de Defesa de Consumidores (Idec), então, acionou o governo contra as modificações anunciadas pela Meta. A companhia respondeu.

“Estamos comprometidos em desenvolver a inteligência artificial na Meta – nossa coleção de recursos e experiências generativas de inteligência artificial junto com os modelos que os alimentam – de forma segura, responsável e atendendo as regulações de privacidade no Brasil”, informou a dona do Facebook, no fim de junho.

Leia também:

Continua depois da publicidade

IA nas eleições: restrição do TSE não será capaz de impedir “deepfake”, alertam especialistas

IA nas eleições

As medidas anunciadas, no fim de fevereiro, pelo Tribunal Superior Eleitoral (TSE) para combater a propagação de notícias falsas e o uso indevido da IA por parte de partidos políticos e candidatos não serão suficientes para barrar as “fake news” durante as eleições municipais deste ano. A avaliação é de especialistas em novas tecnologias, IA e direito político e eleitoral consultados em reportagem publicada pelo InfoMoney.

Aprovada pelo TSE no dia 27 de fevereiro, a Resolução nº 23.732/2024, de autoria da ministra Cármen Lúcia, restringiu fortemente o uso de IA nas campanhas políticas. O recurso só será permitido em casos pontuais, desde que o eleitor seja informado de modo “explícito, destacado e acessível”, e não poderá ser utilizado para difundir notícias ou imagens manipuladas e inverídicas. Quem descumprir a regra poderá ter o registro de sua candidatura cassado ou, se eleito, perder o mandato.

Continua depois da publicidade

O tribunal também proibiu o chamado “deepfake”, que são manipulações feitas por meio da IA em vídeos, fotos ou GIFs, que guardam enorme semelhança com a realidade. Na resolução, o TSE classifica “deepfake” como “conteúdo sintético em formato de áudio, vídeo ou combinação de ambos, que tenha sido gerado ou manipulado digitalmente, ainda que mediante autorização, para criar, substituir ou alterar imagem ou voz de pessoa viva, falecida ou fictícia”. Também está proibido o uso de “chatbots” (robôs virtuais de bate-papo) e avatares que simulem uma suposta comunicação entre candidatos e eleitores (clique aqui para ler a íntegra da resolução do TSE).

Segundo especialistas ouvidos pelo InfoMoney, o tribunal acerta ao regulamentar o uso de IA nas eleições, acabando com um “vácuo legal” que existia até então. Apesar do esforço da Justiça Eleitoral, no entanto, é praticamente impossível que o pleito deste ano esteja totalmente imune às notícias falsas ou ao uso do “deepfake” como arma política.

Fábio Matos

Jornalista formado pela Cásper Líbero, é pós-graduado em marketing político e propaganda eleitoral pela USP. Trabalhou no site da ESPN, pelo qual foi à China para cobrir a Olimpíada de Pequim, em 2008. Teve passagens por Metrópoles, O Antagonista, iG e Terra, cobrindo política e economia. Como assessor de imprensa, atuou na Câmara dos Deputados e no Ministério da Cultura. É autor dos livros “Dias: a Vida do Maior Jogador do São Paulo nos Anos 1960” e “20 Jogos Eternos do São Paulo”