lang icon English

All
Popular
April 5, 2024, 7:33 a.m. Microsoft met en garde contre l'utilisation de l'IA par la Chine pour influencer les élections américaines - Business Insider

Un rapport récemment publié par Microsoft révèle l'utilisation de l'intelligence artificielle (IA) par des comptes de médias sociaux chinois.

April 5, 2024, 5:17 a.m. Comment détecter les deepfakes générés par l'IA - The Washington Post

Un nombre croissant de chercheurs et de start-ups travaillent sur des outils pour identifier et suivre les images deepfake afin de lutter contre leur propagation en ligne.

April 5, 2024, 4:21 a.m. Ne vous laissez pas tromper par les vidéos et les photos trafiquées grâce à l'intelligence artificielle pendant cette période électorale.

Pendant cette période électorale, les deepfakes IA sont devenus un problème important, avec la diffusion massive de contenus audio et vidéo falsifiés.

April 5, 2024, 3:06 a.m. Que diable font les éthiciens de l'IA ?

J'ai été intrigué et amusé par les conversations philosophiques profondes que j'ai eues lors de mes entretiens avec des éthiciens professionnels de l'intelligence artificielle.

April 5, 2024, 1:25 a.m. Une opportunité d'investissement unique en son genre : 1 action de croissance en Intelligence Artificielle (IA) à acheter dès maintenant - Non, ce n'est pas Nvidia - The Motley Fool

Nvidia est considérée comme une action de premier plan dans le domaine de l'IA, mais les investisseurs devraient diversifier leurs portefeuilles pour atténuer les risques.

April 5, 2024, 12:48 a.m. La ville de New York défend le chatbot d'IA qui a conseillé aux entrepreneurs de violer les lois - New York Post

Le maire de New York, Eric Adams, soutient le nouveau chatbot d'intelligence artificielle de la ville malgré les problèmes récents.

April 4, 2024, 11:12 p.m. Les chatbots d'intelligence artificielle tels que ChatGPT traitent différemment les noms d'origine africaine, selon une étude - USA TODAY

Une étude récente menée par des chercheurs de l'école de droit de Stanford a révélé des disparités significatives dans les réponses des chatbots en fonction des connotations raciales et de genre des noms d'utilisateurs.