A Apple removeu da App Store diversos aplicativos que utilizavam inteligência artificial (IA) para gerar imagens sexualmente sugestivas de pessoas, sem o consentimento delas.
Os apps, que estavam sendo promovidos no TikTok como ferramentas de “remoção de roupas”, vinham sendo usados para criar deepfakes com aparência realista a partir de fotos comuns.
Conhecidos como apps de “nudificação”, esses softwares prometiam, em suas descrições públicas, “apimentar selfies” e “criar conteúdos divertidos”.
Porém, nos anúncios pagos veiculados no TikTok, a proposta era muito mais explícita: criavam imagens sexualizadas de mulheres sem autorização, com frases como “tire a roupa de quem quiser” e “coloque sua crush de biquíni”.
De acordo com a investigação, ao menos quatro aplicativos estavam comprando espaço publicitário no TikTok, enquanto outros conteúdos semelhantes continuavam circulando por meio de contas vinculadas aos próprios desenvolvedores.
O TikTok afirmou que os anúncios violavam suas políticas contra conteúdo sexualmente sugestivo e os removeu.
No entanto, vídeos similares ainda permanecem na plataforma. A Apple agiu de forma mais contundente: três dos aplicativos foram retirados temporariamente da App Store, com a exigência de ajustes por parte dos desenvolvedores. Um quarto foi banido em definitivo, e a conta responsável teve o acesso à loja encerrado.
Já o Google, por meio da Play Store, declarou que está investigando os casos. Um dos apps em questão, segundo dados da própria loja, já ultrapassou a marca de 1 milhão de downloads.
Leia mais: Hackers da Coreia do Norte criam empresas nos EUA para atacar mercado cripto