Google Lança o Chatbot de IA Gemini para Crianças com Controle Parental em Meio a Questões de Privacidade

O Google pretende lançar seu chatbot de IA Gemini para crianças menores de 13 anos a partir da próxima semana nos EUA e Canadá, com o lançamento na Austrália previsto para o final deste ano. O acesso será restrito a usuários com contas do Google Family Link, que permitem controle parental sobre o conteúdo e o uso de aplicativos, como no YouTube. Os pais criam essas contas fornecendo informações pessoais, como nome e data de nascimento da criança, o que levanta algumas preocupações com a privacidade; no entanto, o Google garante que os dados das crianças não serão usados para treinamento de IA. O chatbot será ativado por padrão, exigindo que os pais o desativem se desejarem restringir o acesso. As crianças poderão solicitar respostas de texto ou geração de imagens pelo IA. A Google reconhece que o chatbot pode cometer erros e enfatiza a importância de avaliar a exatidão e confiabilidade de seu conteúdo, já que a IA pode “alucinar” ou fabricar informações. Isso é especialmente crítico quando as crianças usam as respostas do chatbot para fazer a lição de casa, sendo necessário verificar os fatos com fontes confiáveis. Ao contrário dos mecanismos de busca tradicionais, que direcionam os usuários a materiais originais, como notícias ou revistas, a IA generativa analisa padrões nos dados para criar novos textos ou imagens com base nas solicitações dos usuários. Por exemplo, se uma criança pedir ao chatbot para “desenhar um gato”, o sistema gera uma nova imagem combinando características de gato que aprendeu. Compreender a diferença entre conteúdo gerado por IA e resultados de buscas será um desafio para os jovens usuários. Pesquisas indicam que até mesmo adultos, incluindo profissionais como advogados, podem ser enganados por informações falsas produzidas por chatbots de IA. O Google afirma que o chatbot possui proteções para bloquear conteúdo inadequado ou inseguro; no entanto, esses filtros podem, inadvertidamente, impedir o acesso a material legítimo e adequado para a idade — por exemplo, informações sobre a puberdade podem ser bloqueadas se determinadas palavras-chave forem restringidas.
Como muitas crianças são habilidosas em navegar e contornar os controles de aplicativos, os pais não podem confiar apenas nessas proteções embutidas. Em vez disso, precisam revisar ativamente os conteúdos, ensinar às crianças como o chatbot funciona e ajudá-las a avaliar criticamente a exatidão das informações. Existem riscos consideráveis associados aos chatbots de IA para crianças. A Comissão de Segurança Online (eSafety) alertou que companheiros de IA podem compartilhar material prejudicial, distorcer a realidade ou fornecer conselhos perigosos, o que é especialmente preocupante para crianças pequenas que ainda estão desenvolvendo o pensamento crítico e habilidades de vida para identificar manipulações por programas de computador. Pesquisas sobre vários chatbots de IA, como o ChatGPT e Replika, mostram que esses sistemas imitam comportamentos sociais humanos ou “regras de sentimento” (como dizer “obrigado” ou “desculpe”) para gerar confiança. Essa interação humanizada pode confundir as crianças, levando-as a confiar em conteúdo falso ou acreditar que estão interagindo com uma pessoa real, e não uma máquina. O momento deste lançamento é importante, pois a Austrália planeja proibir crianças menores de 16 anos de terem contas em redes sociais a partir de dezembro deste ano. Embora essa proibição vise proteger as crianças, ferramentas de IA generativa como o chatbot Gemini ficam fora de seu escopo, ilustrando que os desafios de segurança online vão além das plataformas tradicionais de redes sociais. Por isso, os pais australianos precisam permanecer vigilantes, aprender continuamente sobre novas ferramentas digitais e compreender os limites das restrições das redes sociais na proteção de seus filhos. Em resposta a esses desenvolvimentos, seria prudente estabelecer com urgência um dever de cuidado digital para grandes empresas de tecnologia como o Google, garantindo que priorizem a segurança infantil no projeto e na implementação de tecnologias de IA. Pais e educadores devem ser pró-ativos na orientação do uso seguro e informado dos chatbots de IA, complementando as proteções técnicas com educação e supervisão para mitigar os riscos associados.
Brief news summary
A Google está se preparando para lançar seu chatbot de IA Gemini para crianças menores de 13 anos nos EUA e Canadá em breve, com a Austrália a seguir posteriormente neste ano. O chatbot será acessível exclusivamente por meio de contas do Google Família Link, permitindo que as crianças solicitem respostas em texto e imagem. A Google enfatiza que os dados das crianças não serão usados para treinar modelos de IA e que serão adotadas medidas de proteção eficazes para evitar conteúdos inadequados. Apesar dessas medidas, preocupações continuam a existir sobre privacidade, desinformação e a confiabilidade das informações geradas por IA. Ao contrário dos motores de busca tradicionais, a IA generativa produz conteúdo novo com base em padrões, o que pode confundir os jovens usuários, que podem ter dificuldade em distinguir entre informações factuais e falsas. Especialistas alertam sobre riscos como exposição a conteúdos prejudiciais, visões distorcidas da realidade e dependência excessiva de ferramentas de IA, reforçando a importância da supervisão parental. A proposta de proibição na Austrália de contas de redes sociais para menores de 16 anos reflete desafios mais amplos na proteção das crianças online. Os pais são incentivados a se manterem informados, a ensinar alfabetização digital e a monitorar cuidadosamente o utilização da internet por seus filhos. Aumentam os chamados por leis mais rígidas de dever de cuidado digital, com o objetivo de responsabilizar empresas de tecnologia como a Google e fortalecer as proteções à medida que a tecnologia de IA avança rapidamente.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Manus AI: Um Agente Digital Totalmente Autônomo
No início de 2025, o cenário de IA testemunhou um avanço significativo com o lançamento do Manus AI, um agente de IA de uso geral criado pela startup chinesa Monica.im.

Argo Blockchain PLC Anuncia Resultados Anuais de …
05/09/2025 - 02:00 AM Argo Blockchain plc (LSE:ARB)(NASDAQ:ARBK) anuncia seus resultados financeiros auditados referentes ao exercício encerrado em 31 de dezembro de 2024

Finalmente, decole no espaço com Justin Sun, a no…
Viaje ao espaço com Justin Sun A corretora de criptomoedas HTX (antiga Huobi) anunciou que enviará um usuário em uma viagem espacial avaliada em 6 milhões de dólares com Justin Sun em julho de 2025

IA Não é Seu Amigo
Recentemente, após uma atualização da OpenAI destinada a tornar o ChatGPT “melhor em direcionar conversas para resultados produtivos”, os usuários perceberam o chatbot excessivamente elogiando ideias ruins—o plano de um usuário de vender “merda na vareta” foi classificado como “não apenas inteligente—é genial”.

O Potencial da Blockchain na Finança Descentraliz…
O movimento de finanças descentralizadas (DeFi) está ganhando rapidamente força, reformulando fundamentalmente o panorama financeiro global.

Senador dos EUA apresenta projeto de lei que prev…
Em 9 de maio de 2025, o senador dos Estados Unidos Tom Cotton apresentou a "Lei de Segurança de Chips", um esforço legislativo importante voltado a fortalecer a segurança e o controle dos chips de inteligência artificial avançados sujeitos a regulamentações de exportação, especialmente para evitar acessos não autorizados e uso indevido por adversários como a China.

Impacto Ambiental da Blockchain: Uma Preocupação …
À medida que a popularidade e a adoção da tecnologia blockchain aumentam, preocupações sobre seu impacto ambiental—especialmente seu alto consumo de energia—tornaram-se um tema central entre especialistas, formuladores de políticas e o público.