Google lanza Gemini, un chatbot de inteligencia artificial para niños con controles parentales ante preocupaciones de privacidad

Google está lista para lanzar su chatbot de inteligencia artificial Gemini para niños menores de 13 años, comenzando la próxima semana en Estados Unidos y Canadá, y su lanzamiento en Australia está previsto para más adelante este año. El acceso estará restringido a usuarios con cuentas de Google Family Link, que permiten control parental sobre el contenido y el uso de aplicaciones, como en YouTube. Los padres crean estas cuentas proporcionando datos personales como el nombre y la fecha de nacimiento del niño, lo que genera algunas preocupaciones de privacidad; sin embargo, Google asegura que los datos de los niños no se utilizarán para entrenar la inteligencia artificial. El chatbot estará habilitado por defecto, requiriendo que los padres lo desactiven si desean restringir el acceso. Los niños podrán solicitar respuestas en texto o generación de imágenes por parte de la IA. Google reconoce que el chatbot puede cometer errores y recalca la importancia de evaluar la precisión y fiabilidad de su contenido, ya que la IA puede “alucinar” o inventar información. Esto es especialmente crítico cuando los niños usan las respuestas del chatbot para tareas escolares, por lo que se recomienda verificar los hechos con fuentes confiables. A diferencia de los motores de búsqueda tradicionales, que dirigen a los usuarios a materiales originales como artículos de noticias o revistas, la IA generativa analiza patrones en los datos para crear nuevos textos o imágenes basados en las indicaciones del usuario. Por ejemplo, si un niño pide al chatbot que “dibuje un gato, ” el sistema genera una imagen nueva combinando características felinas que ha aprendido. Comprender la diferencia entre contenido generado por IA y resultados de búsqueda recuperados será un reto para los usuarios jóvenes. Investigaciones indican que incluso adultos, incluidos profesionales como abogados, pueden ser engañados por información falsa producida por chatbots de IA. Google afirma que el chatbot incluye medidas de protección para bloquear contenido inapropiado o peligroso; sin embargo, estos filtros pueden restringir de manera no intencionada el acceso a material legítimo y adecuado para la edad—por ejemplo, información sobre la pubertad podría bloquearse si ciertas palabras clave están restringidas.
Dado que muchos niños son hábiles para navegar y eludir los controles de las aplicaciones, los padres no pueden confiar únicamente en estas protecciones integradas. En cambio, deben revisar activamente el contenido, educar a sus hijos sobre el funcionamiento del chatbot y ayudarlos a evaluar críticamente la precisión de la información. Existen riesgos importantes asociados con los chatbots de IA para niños. La Comisión de Seguridad en Internet (eSafety) ha advertido que los compañeros de IA pueden compartir material dañino, distorsionar la realidad o dar consejos peligrosos, lo cual es especialmente preocupante para los niños pequeños que aún están desarrollando habilidades de pensamiento crítico y de vida para identificar manipulaciones en los programas informáticos. Investigaciones sobre varios chatbots de IA, como ChatGPT y Replika, muestran que estos sistemas imitan comportamientos sociales humanos o “reglas de sentimientos” (como decir “gracias” o “lo siento”) para generar confianza. Esta interacción humanizada puede confundir a los niños, llevándolos a confiar en contenidos falsos o a creer que están interactuando con una persona real en lugar de una máquina. El momento de este despliegue es notable, ya que Australia planea prohibir a los menores de 16 años tener cuentas en redes sociales a partir de diciembre de este año. Aunque esta prohibición busca proteger a los niños, las herramientas de IA generativa como el chatbot de Gemini quedan fuera de su alcance, mostrando que los desafíos en la seguridad en línea van más allá de las plataformas tradicionales de redes sociales. Por ello, los padres australianos deben mantenerse alertas, aprender continuamente sobre nuevas herramientas digitales y comprender las limitaciones de las restricciones en redes sociales para proteger a sus hijos. En respuesta a estos avances, sería prudente establecer urgentemente un deber de cuidado digital para las grandes empresas tecnológicas como Google, asegurando que prioricen la seguridad infantil en el diseño y la implementación de tecnologías de IA. Padres y educadores deben ser proactivos en guiar el uso seguro e informado de los chatbots de IA, complementando las medidas técnicas con educación y supervisión para mitigar los riesgos asociados.
Brief news summary
Google está preparando el lanzamiento de su chatbot de IA Gemini para niños menores de 13 años en Estados Unidos y Canadá pronto, y Australia lo seguirá más adelante este año. El chatbot será accesible exclusivamente a través de cuentas de Google Family Link, permitiendo a los niños solicitar respuestas en texto e imágenes. Google enfatiza que los datos de los niños no se utilizarán para entrenar los modelos de IA y que se implementarán fuertes medidas de protección para evitar contenido inapropiado. A pesar de estas medidas, persisten preocupaciones sobre la privacidad, la desinformación y la fiabilidad de la información generada por IA. A diferencia de los motores de búsqueda tradicionales, la IA generativa produce contenido nuevo basado en patrones, lo que podría confundir a los usuarios jóvenes que pueden tener dificultades para distinguir entre información veraz y fabricada. Los expertos advierten sobre riesgos como la exposición a contenido dañino, visiones distorsionadas de la realidad y una dependencia excesiva de las herramientas de IA, resaltando la importancia de la supervisión parental. La propuesta de Australia de prohibir las cuentas en redes sociales para menores de 16 años refleja los desafíos más amplios en la protección de los niños en línea. Se recomienda a los padres mantenerse informados, enseñar alfabetización digital y monitorear cuidadosamente el uso de internet de sus hijos. Cada vez hay más peticiones para leyes más estrictas en materia de deber de cuidado digital, con el objetivo de responsabilizar a empresas tecnológicas como Google y fortalecer las protecciones a medida que la tecnología de IA avanza rápidamente.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Manus AI: Un Agente Digital completamente Autónomo
A principios de 2025, el panorama de la inteligencia artificial (IA) experimentó un avance importante con el lanzamiento de Manus AI, un agente de IA de propósito general creado por la startup china Monica.im.

Argo Blockchain PLC Anuncia los Resultados Anuale…
05/09/2025 - 02:00 AM Argo Blockchain plc (LSE:ARB; NASDAQ:ARBK) anuncia sus resultados financieros auditorados correspondientes al año finalizado el 31 de diciembre de 2024

Finalmente, ¡lanzate al espacio con Justin Sun, l…
Viaje al espacio con Justin Sun La bolsa de criptomonedas HTX (anteriormente Huobi) anunció que enviará a un usuario en un viaje espacial de 6 millones de dólares con Justin Sun en julio de 2025

La IA no es tu amiga
Recientemente, tras una actualización de OpenAI destinada a hacer que ChatGPT “sea mejor guiando las conversaciones hacia resultados productivos”, los usuarios encontraron al chatbot elogiando excesivamente ideas pobres—el plan de un usuario de vender “mierda en un palo” literal fue calificado como “no solo inteligente, sino genial”.

El potencial de la blockchain en las finanzas des…
El movimiento de las finanzas descentralizadas (DeFi) está ganando rápidamente terreno, transformando fundamentalmente el panorama financiero global.

Senador de EE.UU. presenta proyecto de ley que ex…
El 9 de mayo de 2025, el senador estadounidense Tom Cotton presentó la "Ley de Seguridad de Chips", un esfuerzo legislativo clave destinado a fortalecer la seguridad y el control de los chips avanzados de IA sujetos a regulaciones de exportación, especialmente para prevenir accesos no autorizados y mal uso por parte de adversarios como China.

Impacto ambiental de la cadena de bloques: una pr…
A medida que aumenta la popularidad y adopción de la tecnología blockchain, las preocupaciones sobre su impacto ambiental —en particular su alto consumo de energía— se han convertido en un tema clave entre expertos, legisladores y el público.