None
Brief news summary
Un rapport de l'UNESCO et du Congrès juif mondial a soulevé des inquiétudes concernant l'utilisation de l'IA générative dans l'éducation et son impact potentiel sur les jeunes apprenants. Le fait de diffuser des informations déformées sur l'Holocauste via du contenu généré par l'IA est particulièrement préoccupant, étant donné l'utilisation croissante de l'IA par les jeunes. La forte dépendance de l'IA générative aux données introduit involontairement des biais et perpétue la désinformation. Plus inquiétant encore, du contenu faux lié à l'Holocauste a été créé en manipulant des modèles d'IA, en ciblant les jeunes utilisateurs des médias sociaux. Le manque de données fiables a conduit à la fabrication de récits et d'événements par l'IA. Pour répondre à ces préoccupations, le rapport suggère d'incorporer les principes éthiques de l'UNESCO et de favoriser la collaboration entre les gouvernements, les entreprises technologiques, la communauté juive, les historiens et les autres parties prenantes. Les systèmes éducatifs devraient également mettre l'accent sur la littératie numérique et la pensée critique afin de permettre aux jeunes de lutter contre la désinformation et de développer une compréhension précise de l'Holocauste.En collaboration avec le Congrès juif mondial, le rapport de l'UNESCO révèle que l'utilisation croissante de l'IA générative par les apprenants pour terminer des devoirs et accéder à l'information en ligne présente un risque d'exposition à des informations déformées sur l'Holocauste. De telles désinformations ont trouvé de nouveaux moyens de diffusion grâce au contenu généré par l'IA. Étant donné que 80% des jeunes âgés de 10 à 24 ans utilisent désormais l'IA quotidiennement à des fins variées, notamment l'éducation et le divertissement, il est crucial de prendre des mesures immédiates pour guider éthiquement ces nouvelles technologies. Le rapport souligne que l'IA générative a la capacité d'absorber et d'amplifier les biais sociétaux. Comme les systèmes d'IA sont entraînés sur de grandes quantités de données, souvent sourcées sur Internet, il est possible d'incorporer des contenus trompeurs ou nuisibles, héritant ainsi des préjugés humains et déformant potentiellement les informations sur des événements spécifiques, en particulier l'Holocauste. Le rapport constate que la supervision, l'orientation et la modération insuffisantes de la part des développeurs d'IA peuvent amener les outils d'IA générative à être entraînés sur des données provenant de sites de négation de l'Holocauste. De plus, il a été constaté que l'IA permet aux acteurs malveillants de déformer le contenu lié à l'Holocauste en créant des témoignages fabriqués et en altérant des archives historiques. Les images et contenus audio générés par IA générative, tels que les deepfakes, sont particulièrement convaincants, exposant ainsi les jeunes à de tels contenus sur les plateformes de médias sociaux. L'application Historical Figures permettait aux utilisateurs d'interagir avec des nazis célèbres comme Adolf Hitler et Joseph Goebbels, prétendant à tort que des individus comme Goebbels n'étaient pas intentionnellement impliqués dans l'Holocauste et avaient tenté de prévenir la violence contre les Juifs. Les modèles d'IA générative sont susceptibles d'inventer ou de "halluciner" des événements, des personnalités et même des phénomènes historiques lorsqu'ils manquent de données suffisantes. Le rapport met en évidence des cas où ChatGPT et Bard de Google ont produit du contenu détaillant des événements liés à l'Holocauste qui ne se sont jamais produits.
Par exemple, ChatGPT a entièrement inventé le concept de "campagnes d'Holocauste par noyade", prétendant que les nazis avaient noyé des Juifs dans les rivières et les lacs. Bard a également généré de fausses citations de témoins pour soutenir des récits déformés de massacres de l'Holocauste. Outre les risques de manipulation et d'"hallucinations" qui sapent les faits établis et érodent la confiance envers les experts, le rapport souligne les dangers de la simplification excessive de l'histoire complexe par l'IA en privilégiant une plage étroite de sources et d'événements. Les moteurs de recherche, propulsés par l'IA, affichent de 60 à 80% des principales images liées à un seul site de l'Holocauste, à savoir Auschwitz-Birkenau. Comme solution, l'UNESCO exhorte les gouvernements à accélérer la mise en œuvre de sa Recommandation sur l'éthique de l'IA, adoptée à l'unanimité par les États membres en 2021 et constituant la seule norme mondiale en la matière. Cette recommandation est déjà intégrée dans la législation de plus de cinquante pays. De plus, l'UNESCO appelle les entreprises technologiques à respecter ses normes en intégrant les principes de l'équité, de la transparence, des droits de l'homme et de la diligence raisonnable dans la conception des applications d'IA. En février 2024, huit entreprises technologiques ont été les premières à s'engager à appliquer une approche éthique au développement de nouveaux outils d'IA à la demande du Directeur général de l'UNESCO. Les entreprises technologiques sont encouragées à collaborer étroitement avec la communauté juive, les survivants de l'Holocauste et leurs descendants, les éducateurs, les experts en antisémitisme et les historiens dans le développement de nouveaux outils d'IA. De plus, l'UNESCO en appelle aux systèmes éducatifs pour jouer un rôle dans la protection des faits de l'Holocauste en dotant les jeunes de compétences en littératie numérique, en pensée critique et d'une compréhension globale de l'histoire de ce génocide.
Watch video about
None
Try our premium solution and start getting clients — at no cost to you