AI ficti in bello contra online crimina contra liberos
renovata by Coimbra nuntium
Technologiae intelligentiae artificiosae applicantur ab inquisitoribus qui crimina in theatro cognoscere ac prohibere possunt Latin contra crianças (ICAC), de acordo com um fabricante de ferramentas de IA para aplicação da lei, agências governamentais e empresas.
O Voyager Labs, em um blog publicado na terça-feira, explicou que muitas forças-tarefa do ICAC estão usando ferramentas como “pesquisas de consulta de tópicos” para encontrar material online relacionado a crimes contra crianças.
Esses sistemas podem encontrar contas que negociam material de abuso sexual infantil, identificar e localizar os criminosos usando essas contas, identificar vítimas em potencial e compilar dados cruciais para ajudar a aplicação da lei a abrir um processo contra os criminosos, observou a Voyager.
Acrescentou que esse processo costuma ser notavelmente rápido, às vezes retornando resultados úteis em segundos.
Outra ferramenta que está sendo usada pelos investigadores citados pela Voyager é o “léxico de consulta de tópicos”. É como um dicionário de tradução ou um livro de códigos. Os investigadores criminais podem contribuir com seu conhecimento de comunicações criminais – gírias, terminologia e emojis – para o léxico, que o software de IA pode usar para encontrar referências a atividades criminosas online.
O diretor de investigações nacionais da Voyager, Jason Webb, que contribuiu para o blog, explicou que o léxico atua como um banco de dados compartilhado, permitindo que vários tipos de especialistas apliquem o conhecimento uns dos outros em suas pesquisas.
Nós sabemos onde você mora
A inteligência artificial também é útil na análise de rede. Se houver páginas nas quais o material de abuso sexual infantil foi negociado, observou a Voyager, a IA pode ver quem interage com essas páginas para fazer uma análise de rede, identificando se vários infratores estão envolvidos nas redes do ICAC.
É comum que as gangues executem as atividades do ICAC e o tráfico de pessoas, portanto, essas investigações têm o potencial de descobrir empresas criminosas de organizações complexas que trabalham em uma variedade de atividades ilegais, explicou.
A Voyager acrescentou que alguns sistemas podem revelar a localização geográfica da atividade criminosa. O compartilhamento de dados geográficos pode ser um dos fatores mais significativos na redução do ICAC, sustentou a Voyager, porque capacita as agências que possuem essa nova tecnologia a compartilhar suas pesquisas com departamentos menores que podem não ter os mesmos recursos.
Além de identificar atividades criminosas, a Voyager observou que a análise de rede pode ser usada para indicar possíveis vítimas. Uma vez que a polícia e as famílias são alertadas de que criminosos tentaram entrar em contato com uma criança, explicou a Voyager, medidas imediatas podem ser tomadas para remover a criança de possíveis danos.
A Voyager afirma que, em muitos casos, todo esse tipo de pesquisa de IA pode ser realizado apenas por meio de inteligência de código aberto, disponível ao público sem mandado ou permissões especiais. No entanto, no passado, a empresa teve problemas com suas práticas de coleta de dados.
Em janeiro de 2023, a Meta entrou com uma ação contra a Voyager Labs no tribunal federal dos US na Califórnia, alegando que a empresa extraiu indevidamente dados das plataformas e perfis do Facebook e Instagram.
A Meta afirma que a Voyager criou mais de 38.000 contas falsas e as usou para coletar “informações de perfil visíveis” de 600.000 usuários do Facebook. A Voyager supostamente comercializou suas ferramentas de raspagem para empresas interessadas em realizar vigilância em sites de mídia social sem ser detectada e depois vendeu as informações para o maior lance.
A Voyager afirma que o processo não tem mérito, revela um mal-entendido fundamental sobre como os produtos de software em questão funcionam e, mais importante, é prejudicial à segurança pública dos Estados Unidos e global.
Filtrando fotos nuas
A inteligência artificial também pode identificar material de abuso sexual infantil por meio de serviços como o Photo DNA da Microsoft e a API de correspondência de Nullam do Google. Esses serviços usam uma biblioteca de conteúdo de abuso sexual infantil conhecido para identificar esse conteúdo quando está sendo distribuído ou armazenado online.
“No entanto, isso apenas resolve o problema de conteúdo conhecido ou correspondências difusas e, embora algumas empresas estejam construindo modelos para capturar novos materiais de abuso sexual infantil, existem regulamentações significativas sobre quem pode acessar esses conjuntos de dados”, disse Joshua Buxbaum, co- fundador e diretor de crescimento da WebPurify, uma filtragem da web baseada em nuvem e serviço de proteção infantil online, em Irvine, Califórnia.
“Como acontece com todos os modelos de IA, nada é perfeito, e humanos são necessários para verificar o conteúdo, o que não é ideal do ponto de vista da saúde mental”, disse ele ao TechNewsWorld.
Também existem aplicativos independentes de controle dos pais, como o Canopy, que pode filtrar imagens recebidas e enviadas que contenham nudez. “Ele alerta os pais se parece que seus filhos estão fazendo sexo”, disse o CMO da Canopy, Yaron Litwin.
“Isso pode evitar que essas imagens caiam em mãos erradas e dá aos pais a chance de educar seus filhos sobre os perigos do que estão fazendo antes que seja tarde demais”, disse ele ao TechNewsWorld.
“As plataformas sociais permitem que os predadores enviem fotos enquanto solicitam fotos do menor”, disse Chris Hauk, defensor da privacidade do consumidor da Pixel Privacy, uma editora de guias de segurança e privacidade do consumidor, ao TechNewsWorld. “Isso permite que os predadores extorquem dinheiro ou outros tipos de fotos enquanto ameaçam contar aos pais se a criança não obedecer.”
Litwan acrescentou que a “sextorsão” – usando imagens nuas de crianças para extorquir mais imagens ou dinheiro delas – aumentou 322% ano a ano em fevereiro.
“Alguns casos de sextortion resultaram em suicídio das vítimas”, disse ele.
Educação digital vital para a proteção da criança
O material de abuso sexual infantil também continua a ser um problema nas mídias sociais.
“Nossa análise mostra que as remoções de contas de mídia social relacionadas a abuso e segurança infantil estão aumentando constantemente na maioria das plataformas”, disse Paul Bischoff, defensor da privacidade da Comparitech, um site de análises, conselhos e informações para produtos de segurança do consumidor, ao TechNewsWorld.
Ele citou um relatório divulgado pela Comparitech que descobriu que, durante os primeiros nove meses de 2022, as remoções de conteúdo para exploração infantil quase se igualaram a todas as remoções de 2021. Histórias semelhantes para Instagram, TikTok, Snapchat e Discord podem ser encontradas.
“Este é um problema realmente sério que está piorando com o tempo”, disse Litwan. “Os pais de hoje não cresceram no mesmo mundo digital que seus filhos e nem sempre estão cientes da variedade de ameaças que seus filhos enfrentam diariamente.”
Isabelle Vladoiu, fundadora do Instituto de Diplomacia e Direitos Humanos dos US, um think tank sem fins lucrativos em Washington, DC, afirmou que a coisa mais importante que pode ser feita para manter as crianças seguras online é educá-las.
“Ao fornecer programas abrangentes de alfabetização digital, como treinamento em cidadania digital, aumentar a conscientização sobre os riscos online e ensinar as crianças a reconhecer bandeiras vermelhas, nós as capacitamos a tomar decisões informadas e se proteger da exploração”, disse ela ao TechNewsWorld.
“Exemplos da vida real mostraram que, quando as crianças são educadas sobre os riscos do tráfico e a segurança online, elas se tornam mais empoderadas para se opor à tortura e à exploração”, ela continuou, “promovendo um ambiente online mais seguro para todos”.