A Meta está adotando uma nova política que permite usar postagens no Facebook e Instagram para treinar sua inteligência artificial (IA). Essa mudança afeta textos, fotos, vídeos e comentários de bilhões de usuários em todo o mundo, visando tornar a IA mais inteligente e precisa. No entanto, isso tem gerado controvérsias, especialmente porque muitos usuários não foram consultados previamente.
Enquanto a Meta garante que mensagens diretas (DMs) não serão utilizadas, países com legislações de privacidade mais rigorosas, como os da União Europeia, já questionaram a validade desses novos termos. A Comissão Irlandesa de Proteção de Dados pediu à Meta que adiasse o uso desses dados para treinamento de IA, destacando preocupações com a privacidade dos usuários. Grupos de defesa de direitos digitais, como o Noyb, argumentam que essa prática viola direitos fundamentais de proteção de dados e privacidade.
Nos Estados Unidos, onde as leis de privacidade são menos restritivas, a Meta já começou a usar postagens públicas para treinar sua IA. No Brasil, a Lei Geral de Proteção de Dados (LGPD) permite aos usuários escolher se desejam compartilhar suas informações para esse fim, embora o processo de bloqueio nas configurações seja considerado complicado.
Para profissionais de comunicação e marketing, essa mudança é relevante pois impacta a forma como dados são coletados e utilizados para personalizar experiências e campanhas publicitárias. A capacidade de treinar IA com dados de usuários pode levar a uma maior precisão na segmentação e no engajamento, mas também levanta questões éticas e legais que precisam ser consideradas.
As empresas devem estar cientes das diferentes regulamentações em cada país e ajustar suas práticas de coleta de dados conforme necessário. A resistência a essas mudanças, especialmente na Europa, pode atrasar a implementação completa dessas políticas e forçar a Meta a buscar soluções alternativas para treinar sua IA sem comprometer a privacidade dos usuários.