O órgão regulador da Austrália constatou que a Apple e o YouTube (detido pela Google) não levaram em consideração o número de denúncias de violências sexual contra menores recebidas pelos utilizadores, nem especificam o tempo necessário para responder a estas denúncias.
"Estas empresas não dão prioridade à proteção das crianças e parecem fechar os olhos aos crimes cometidos nas suas plataformas", afirmou a comissária para a segurança 'online', Julie Inman Grant, citada pela agência France Presse (APF).
A responsável refere que estas empresas não têm tomado muitas medidas para intensificar e melhorar os seus esforços para evitar crimes sexuais 'online', até porque um relatório citado pela agência de notícias revela que a Apple, Google e Microsoft não utilizavam ferramentas para detetar proativamente conteúdos pedopornográficos.
Apesar disso, um responsável pelas relações públicas da Google, citado pela AFP, reagiu dizendo: "A segurança das crianças é essencial para nós" (...) "desde o primeiro dia, lutamos contra conteúdos pedopornográficos, investindo maciçamente em tecnologias de ponta" para os detetar e eliminar.
Segundo o responsável, mais de 90% de todo o conteúdo pedopornográfico no YouTube é removido por "sistemas automatizados e robustos" antes de ser denunciado ou mesmo visualizado.
Em novembro de 2024, o parlamento australiano aprovou uma lei que proíbe o acesso às redes sociais para menores 16 anos, incluindo plataformas como o X, Tiktok, Instagram, Facebook ou YouTube.
No caso do incumprimento desta lei, serão aplicadas multas que podem chegar a quase 50 milhões de dólares australianos (mais de 28 milhões de euros).
As empresas de tecnologia são obrigados a prestar contas semestralmente à comissão sobre a forma como combatem este tipo de conteúdos, incluindo imagens geradas por Inteligência Artificial (IA).
Leia Também: Austrália vai proibir que menores de idade tenham acesso ao YouTube