
Google Gemini é considerado “inadequado e inseguro” para crianças em novo estudo de segurança
Por Sandro Felix
Publicado em 07/09/25 às 06:42
O Google Gemini, um dos chatbots de inteligência artificial mais populares do mundo, está no centro de uma polêmica após um relatório apontar que a tecnologia pode ser “inadequada e insegura” para crianças e adolescentes. A conclusão foi divulgada pela organização sem fins lucrativos Common Sense Media, especializada em avaliar a segurança de mídias e tecnologias voltadas ao público infantil.
Segundo a análise, tanto a versão do Gemini para menores de 13 anos quanto a versão com filtros para adolescentes não foram projetadas especialmente para esse público. Para a entidade, tratam-se apenas de adaptações do modelo adulto com “alguns recursos extras de segurança”, o que estaria longe de atender às necessidades de proteção digital das faixas etárias mais vulneráveis.
O estudo classificou os dois sistemas com o selo de “alto risco”. Embora os filtros do chatbot ofereçam certo bloqueio a conteúdos perigosos, a entidade concluiu que ainda falham em impedir o acesso a materiais impróprios e em reconhecer sintomas graves de saúde mental. Durante os testes, o Gemini chegou a fornecer informações sobre sexo, drogas, álcool e até conselhos inseguros relacionados ao bem-estar psicológico.
Outro ponto preocupante identificado foi a capacidade da ferramenta de “fingir ser outra pessoa”, apesar de informar às crianças que se trata apenas de um computador. Especialistas destacam que esse comportamento pode confundir usuários jovens, aumentando riscos em situações de fragilidade emocional.
A preocupação cresce diante de casos recentes em que chatbots foram apontados como fatores de risco em suicídios de adolescentes. No último mês, pais processaram a OpenAI após a morte de um jovem de 16 anos, que teria recebido instruções do ChatGPT sobre como se enforcar. Em outro caso, a mãe de um garoto de 14 anos entrou na Justiça contra a plataforma Character.AI depois que o filho se matou utilizando a arma do padrasto.
Diante desse cenário, a Common Sense Media recomenda que nenhuma criança com menos de 5 anos use chatbots de IA e que, entre 6 e 12 anos, o uso seja feito apenas com supervisão dos pais. Para adolescentes, a orientação é ainda mais restritiva: não utilizar a tecnologia como suporte para saúde mental, aconselhamento emocional ou como forma de companhia.
Robbie Torney, diretor de programas de IA da instituição, destacou que o Gemini “acerta em alguns pontos básicos, mas tropeça nos detalhes”. Segundo ele, uma plataforma voltada para crianças deveria considerar as necessidades específicas de cada fase do desenvolvimento, em vez de adotar uma abordagem única.
O relatório também analisou outros assistentes de IA. O Meta AI e o Character.AI foram considerados “inaceitáveis”, por representarem riscos severos. Já o Perplexity recebeu classificação de alto risco, o ChatGPT ficou em risco moderado e o Claude foi apontado como de risco mínimo.
Rumores indicam ainda que a Apple estuda a possibilidade de integrar o Gemini ao Siri em uma atualização prevista para o próximo ano. Caso se confirme, especialistas alertam que adolescentes poderão ficar ainda mais expostos, a menos que Google e Apple implementem barreiras adicionais de segurança.


