Plataformas para crianças e adolescentes na internet têm conteúdos tóxicos


Uma pesquisa infiltrou robôs de inteligência artificial em plataformas interativas de transmissão ao vivo (de jogos, entretenimento, esportes e música) e descobriu que, mesmo em espaços supostamente apropriados para a idade, crianças e adolescentes têm um nível de exposição a conteúdos tóxicos semelhantes ao observado entre usuários adultos no Brasil e nos EUA. De acordo com os pesquisadores responsáveis pelo estudo, Humberto Torres Marques-Neto, da Católica de Minas Gerais (PUC Minas), e a orientadora dele, Jussara Almeida, do departamento de Ciência da Computação da Universidade Federal de Minas Gerais (UFMG), garantir a segurança desses ambientes é um desafio enorme, com soluções ainda em desenvolvimento, mas precisa ser o próximo passo do país.

Neste mês, entrou em vigor no Brasil o Estatuto da Criança e do Adolescente (ECA) Digital, uma série de normas de proteção para menores em espaços virtuais. Ela define, entre outras coisas, que sites e aplicativos voltados para esse público ou com provável acesso deles deverão implementar medidas de segurança como ferramentas de controle parental acessíveis. Além disso, precisarão garantir aferição de idade, assim como os que têm conteúdos ou produtos para quem tem mais de 18 anos, como pornografia, apostas e venda bebidas alcoólicas.

“Sem o ECA Digital, a gente está no mundo de ninguém. Mas esse trabalho chama atenção de que o buraco é ainda maior. É uma chamada para a comunidade de computação pensar esse problema mais amplamente. Tem muita coisa a ser feita ainda para que lei seja realmente eficaz”, afirma a professora Jussara Almeida, que faz parte, junto com Humberto, do Instituto Nacional de Ciência e Tecnologia em Inteligência Artificial Responsável para Linguística Computacional, Tratamento e Disseminação de Informação, ligado à UFMG.

De acordo com ela, a aferição de idade prevista no ECA Digital é extremamente necessária, mas não é suficiente para tornar esses ambientes seguros. Isso porque eles encontraram na pesquisa conteúdo inapropriado mesmo em espaços que deveriam ser protegidos. Isso inclui, por exemplo, lives com classificação “infantil” exibindo jogos adultos, violência, sangue e temas sexuais; presença de conteúdos patrocinado e incentivos a doações; e insultos racistas e homofóbicos, além de linguagem sexualizada.

“As plataformas (que possibilitam as transmissões) têm ciência que recebem crianças. Elas alegam que têm práticas de proteção, mas isso não ocorre na prática em alguns momentos”, diz Marques-Neto.

Recentemente, o governo federal divulgou um cronograma definindo que todas as plataformas precisam terminar a implementação de métodos de aferição de idade até janeiro de 2027. Outros mecanismos de proteção, porém, já devem ser disponibilizados.

Metodologia

A análise dos pesquisadores indicou que cerca de 5% das mensagens continham conteúdo tóxico. Os cientistas alertam para o fato de que, à primeira vista, o percentual pode parecer baixo. No entanto, em transmissões com milhares de comentários por hora, isso representa contato recorrente com insultos.

Nenhuma criança real participou da pesquisa. Foram criados seis robôs que simularam ser usuários de 13, 15 e 18 anos, nos dois países. Esses agentes atuavam de forma passiva: assistiam às transmissões, coletavam os dados de interesse, mas não interagiam com outros usuários. Por cerca de 30 dias, eles acessaram a plataforma seis vezes por dia, em horários variados. Ao final, os pesquisadores analisaram 4.260 transmissões, 2.040 canais e aproximadamente 443 mil mensagens de chats.

Diante dos resultados observados, a equipe está trabalhando no desenvolvimento de mecanismos que possam ser mais eficientes para detectar padrões tóxicos com maior precisão.

“A gente tem algumas ideias de como se fazer isso, mas está no campo das hipóteses. A inteligência artificial pode ajudar muito nisso, monitorando continuamente, identificando padrões e risco aumentando. Isso é factível”, diz a pesquisadora Almeida.

Ela, no entanto, ressalta que um sistema robusto é um desafio grande, para o qual a computação precisa encontrar soluções. Isso porque mesmo as ferramentas de inteligência artificial ainda sofrem limitações com nuances que são percebidas pelas crianças, mas ainda passam pelos filtros.

“Em alguns desses casos de conteúdo tóxico, a identificação é desafiadora. Algumas ofensas não são padrão, mas a criança entende e sente. Alguns insultos com emojis foram identificados apenas pelos meus alunos que entenderam o que significa que vai além do óbvio”, diz Almeida.

A dificuldade de identificar ofensas realizadas por emojis em plataformas abertas é um dos temas abordados na série “Adolescência”, da Netflix, que chamou atenção para a radicalização on-line no ano passado. Na história, um policial que investiga um assassinato precisa da ajuda do filho de 15 anos para traduzir o real significado de uma série de emojis aparentemente inocentes publicados numa rede social.

O que a pesquisa encontrou

– Conteúdo inadequado – De acordo com os pesquisadores, rótulos como “Family Friendly” e “Kid Safe” nem sempre refletem o conteúdo real. A pesquisa descobriu que mesmo lives com classificação de “infantil” exibem jogos adultos, com aspectos inadequados como violência, sangue, linguagem forte e temas sexuais.

– Toxicidade no chat – Crianças entram em contato direto com agressões e discurso de ódio. Insultos, racismo e homofobia aparecem nas conversas. Segundo o estudo, uma descoberta preocupante foi a detecção de linguagem sexualmente explícita, vulgar e objetificante mesmo em lives para pré-adolescentes de 13 anos.

– Publicidade disfarçada – Os pesquisadores encontraram presença de conteúdo patrocinado e incentivos a doações para os produtores de conteúdo durante as transmissões. Na avaliação deles, isso é preocupante porque mistura entretenimento com consumo e influencia o comportamento infantil. As informações são do jornal O Globo.

Fonte: Jornal O Sul