Relatório da Internet Watch Foundation revela imagens de abuso infantil em alta definição, deepfakes realistas feitos por IA.
O mais recente relatório da Internet Watch Foundation destaca que o ‘abuso sexual infantil gerado por IA avançou rapidamente’. A evolução da tecnologia possibilita que criminosos adicionem ‘o rosto ou a imagem de outra pessoa a um vídeo real’, de maneira quase perfeita, criando deepfakes extremamente realistas que perpetuam o abuso sexual.
Essa forma de abuso, conhecida como Material sexually explicit de crianças (CSA), é uma ameaça crescente, pois os vídeos gerados por IA representando abuso sexual de crianças se tornam cada vez mais difíceis de detectar. A luta contra o Abuso infantil requer a colaboração de todos para proteger as vítimas e combater a disseminação desses conteúdos nocivos na internet.
Abuso Sexual Infantil e Deepfake: A Evolução dos Vídeos de IA Representando Abuso Sexual de Crianças
A habilidade de transformar qualquer situação em uma realidade visual está sendo explorada por criminosos que se vangloriam, em uma plataforma da dark web, sobre a capacidade de ‘produzir qualquer pornografia infantil que desejarmos (…) em alta definição’, conforme relatado pela Internet Watch Foundation (IWF). A IWF identificou os ‘primeiros exemplos convincentes’ de vídeos de IA retratando abuso sexual de crianças em seu mais recente relatório publicado nesta segunda-feira (22).
Os vídeos deepfake, altamente realistas e feitos por IA, estão se tornando cada vez mais comuns, com os criminosos explorando ferramentas de IA mais acessíveis. Em 2023, quando a IWF detectou os primeiros conteúdos gerados por IA, a qualidade era mais rudimentar, de acordo com os pesquisadores.
Dan Sexton, diretor de tecnologia da IWF, prevê que os futuros vídeos terão ‘maior qualidade e realismo’. A organização destacou a replicação e compartilhamento de modelos de IA com mais de 100 vítimas de abuso ao identificar os primeiros vídeos totalmente sintéticos de abuso sexual infantil.
Durante a análise de um fórum da dark web dedicado a material de abuso sexual infantil, os investigadores da IWF encontraram nove vídeos deepfake circulando entre março e abril deste ano. Alguns desses vídeos apresentam pornografia adulta modificada para exibir o rosto de uma criança, enquanto outros têm o rosto de uma criança sobreposto a vídeos existentes de abuso sexual infantil.
Os vídeos originais de abuso sexual infantil envolvendo crianças reais tornam os deepfakes particularmente convincentes, conforme observado pelos analistas da IWF. Um vídeo descrito como ‘chocante’, com 18 segundos de duração e totalmente gerado por IA, foi encontrado na clear web. Ele mostra um homem adulto agredindo uma menina aparentando ter cerca de dez anos, com os analistas da IWF descrevendo a atividade como clara e contínua, apesar das falhas no vídeo.
Susie Hargreaves OBE, CEO da Internet Watch Foundation, destaca que ‘a evolução da tecnologia de IA generativa está permitindo que os infratores produzam vídeos gráficos de abuso sexual de crianças de forma alarmante rápida’. Ela ressalta a preocupação de que alguns desses vídeos manipulam imagens de vítimas conhecidas, tornando a situação ainda mais perturbadora para os sobreviventes de trauma.
Sem um controle adequado, as ferramentas de IA generativas oferecem um terreno fértil para predadores online explorarem suas perversões e perpetuarem o abuso sexual infantil. A crescente prevalência de vídeos deepfake representando abuso sexual de crianças destaca a urgência de ações para combater essa forma repugnante de exploração.
Fonte: @ Agencia Brasil
Comentários sobre este artigo