
“Usamos intencionalmente um limite de varredura mais abrangente, o que resulta em uma alta porcentagem de falsos positivos”, acrescentou o porta-voz.
Os relatórios relacionados à IA recebidos no ano passado representam apenas uma fração do total enviado ao NCMEC. A categoria mais ampla de denúncias também inclui suspeitas de material de abuso sexual infantil enviadas por mensagens privadas ou carregadas em feeds de redes sociais e na nuvem.
Em 2024, por exemplo, o NCMEC recebeu mais de 20 milhões de relatórios de diversos setores da indústria, sendo a maioria proveniente das subsidiárias da Meta Platforms: Facebook, Instagram e WhatsApp. Nem todos os relatórios são, ao final, confirmados como contendo material de abuso sexual infantil, conhecido pela sigla CSAM.
Ainda assim, o volume de CSAM suspeito que a Amazon detectou ao longo de seu pipeline de IA em 2025 chocou especialistas em proteção infantil entrevistados pela Bloomberg News. As centenas de milhares de relatórios feitos ao NCMEC marcaram um aumento drástico para a empresa. Em 2024, a Amazon e todas as suas subsidiárias registraram, juntas, 64.195 relatórios.
— Isso é realmente um ponto fora da curva — disse Fallon McNulty, diretora executiva da CyberTipline do NCMEC — a entidade à qual plataformas de redes sociais, provedores de nuvem e outras empresas sediadas nos EUA são legalmente obrigadas a reportar suspeitas de CSAM. — Receber um volume tão alto ao longo do ano levanta muitas questões sobre de onde esses dados estão vindo e quais salvaguardas foram adotadas.
McNulty afirmou, em entrevista, que tem pouca visibilidade sobre o que está impulsionando o aumento de material sexualmente exploratório nos conjuntos iniciais de dados de treinamento da Amazon. Segundo ela, a Amazon forneceu “muito pouca ou quase nenhuma informação” em seus relatórios sobre a origem original do material ilícito, quem o compartilhou ou se ele ainda está ativamente disponível na internet.
Fonte: Globo.com









