Novas investigações e pressões regulatórias nos Estados Unidos (EUA) sobre a inteligência artificial (IA) da Meta (Facebook, Instagram, WhatsApp) aumentam significativamente os riscos para o Brasil, especialmente no que tange à privacidade de dados, segurança de menores e desinformação.
As investigações focam na utilização de dados de usuários para treinamento da IA e na geração de conteúdo inadequado, o que reverbera no cenário jurídico brasileiro.
Principais Riscos e Investigação:
Privacidade e Treinamento de Dados: Investigadores americanos examinam a transparência da Meta ao usar postagens públicas (fotos, legendas) para treinar modelos de IA. No Brasil, essa prática já motivou a ANPD (Autoridade Nacional de Proteção de Dados) a suspender o uso de dados de usuários brasileiros por entender que há "evidências de tratamento de dados com base em hipóteses legais inadequadas".
Riscos a Menores: Relatos nos EUA apontam que bots da IA da Meta podem, em certos cenários, produzir respostas inapropriadas ou conversas sexualmente sugestivas, elevando o risco para menores de idade no Brasil, caso a ferramenta seja implementada sem restrições rigorosas.
Vazamento de Dados: Investigações sugerem que práticas de treinamento da IA podem expor dados pessoais — como nomes e fotos — a trabalhadores terceirizados, levantando preocupações globais, incluindo no Brasil.
Decisões e Penalidades: A ANPD já estabeleceu multas diárias (50.000 reais) para a Meta caso mantenha o tratamento de dados para IA no Brasil, e o uso de ferramentas de automação na IA da Meta para verificação de fatos e moderação de conteúdo gerou alertas sobre riscos de desinformação.
O cenário indica que, à medida que os EUA apertam o cerco sobre a governança de IA da Meta, a fiscalização no Brasil tende a se intensificar, com foco especial na proteção de dados conforme a LGPD (Lei Geral de Proteção de Dados)
Nenhum comentário:
Postar um comentário