lang icon En
Nov. 24, 2024, 8:29 p.m.
2259

Repenser la formation intensive en données : L'avenir des modèles d'IA

Brief news summary

Les leaders de l'industrie de l'IA reconsidèrent la forte dépendance aux grands ensembles de données pour entraîner les modèles linguistiques. Des entreprises comme OpenAI, Meta et Google ont traditionnellement cru que plus de données améliorent les performances, en particulier avec les architectures de transformateurs. Cependant, des inquiétudes grandissent quant à la possibilité que cette stratégie offre des rendements décroissants, ce qui incite à explorer des méthodes alternatives. Alexandr Wang, de Scale AI, met en avant les problèmes liés à une focalisation excessive sur les lois d'échelle. Aidan Gomez, PDG de Cohere, critique les inefficacités de l'approche actuelle, plaidant pour des modèles plus petits et rentables. Certains experts doutent que les techniques existantes puissent atteindre une intelligence artificielle générale. Richard Socher suggère une méthode novatrice pour améliorer la précision des modèles en transformant les questions en code. Malgré ces préoccupations, certains demeurent optimistes concernant l'échelle. Kevin Scott, directeur technologique de Microsoft, offre une perspective différente, et OpenAI continue d'innover. En septembre, OpenAI a introduit le modèle o1, excellent dans les tâches quantitatives et surpassant ChatGPT. Selon Waleed Kadous, bien que GPT-4 fournisse des réponses rapides, le modèle o1 offre une analyse plus approfondie, offrant aux utilisateurs des capacités interprétatives améliorées.

Les leaders de l'IA réévaluent la formation de modèles linguistiques de grande taille nécessitant beaucoup de données, car les modèles traditionnels, se développant de manière linéaire avec les données, pourraient avoir atteint leurs limites. L'industrie soutient désormais des modèles plus petits, plus efficaces, et des méthodes d'entraînement innovantes. Pendant des années, des entreprises comme OpenAI, Meta et Google ont rassemblé d'énormes ensembles de données, supposant que plus de données conduisaient à des modèles plus intelligents. Cependant, cette sagesse conventionnelle est remise en question. Les recherches indiquent que les transformers, les réseaux neuronaux derrière ces modèles, s'adaptent en fonction des données et de la puissance de calcul qu'ils reçoivent. Alex Voica, consultant à l'Université d'Intelligence Artificielle Mohamed bin Zayed, a expliqué que les modèles transformers traditionnels suivent cette relation linéaire. Mais les dirigeants commencent à percevoir les limites de cette approche et explorent de nouvelles façons de faire progresser la technologie. Les gros investissements en IA reposaient sur la croyance que cette évolution continuerait, le PDG de Scale AI, Alexandr Wang, la décrivant comme la "plus grande question de l'industrie. " Certains soutiennent que la méthode actuelle est simpliste; Aidan Gomez, PDG de Cohere, affirme qu'augmenter simplement la taille des modèles et la puissance de calcul est à la fois la méthode la plus fiable et la moins innovante pour améliorer les modèles. Gomez prône des modèles plus petits et rentables, obtenant le soutien de l'industrie.

Cependant, des inquiétudes subsistent quant à la capacité de cette approche à atteindre l'intelligence artificielle générale, une IA capable d'intelligence au niveau humain, que les grandes entreprises technologiques souhaitent développer. Les modèles linguistiques de grande taille sont entraînés à "prédire le prochain token" dans une séquence, comme l'explique Richard Socher, PDG de You. com. Il propose d'améliorer les modèles en faisant en sorte qu'ils transforment les questions en code, réduisant ainsi les erreurs et améliorant les capacités. Tous les leaders ne sont pas d'accord pour dire que l'IA a atteint un point mort. Kevin Scott, directeur technologique de Microsoft, soutient que le scaling continue de produire des résultats, contrairement à certaines croyances de l'industrie. OpenAI, par exemple, a cherché à améliorer les modèles existants comme o1, sorti en septembre, qui utilise toujours des techniques de prédiction mais est spécialisé pour les tâches quantitatives telles que la programmation et les mathématiques. La distinction entre o1 et ChatGPT réside dans le temps de traitement amélioré d'o1 pour générer des réponses. Waleed Kadous, ancien leader en ingénierie, compare GPT-4 à un ami loquace qui propose de nombreuses idées, tandis qu'o1 est comme un ami réfléchi qui offre des réponses concises et précises.


Watch video about

Repenser la formation intensive en données : L'avenir des modèles d'IA

Try our premium solution and start getting clients — at no cost to you

I'm your Content Creator.
Let’s make a post or video and publish it on any social media — ready?

Language

Hot news

Dec. 20, 2025, 1:24 p.m.

5 atouts culturels qui pourraient faire ou défair…

Résumé et reformulation de « La synthèse » sur la transformation par l’IA et la culture organisationnelle La transformation par l’IA représente avant tout un défi culturel plutôt qu’un simple enjeu technologique

Dec. 20, 2025, 1:22 p.m.

Agent de vente AI : Top 5 des catalyseurs de croi…

L'objectif ultime des entreprises est d'accroître leurs ventes, mais une concurrence féroce peut freiner cet objectif.

Dec. 20, 2025, 1:19 p.m.

IA et SEO : une alliance parfaite pour renforcer …

L’intégration de l’intelligence artificielle (IA) dans les stratégies d’optimisation pour les moteurs de recherche (SEO) transforme fondamentalement la manière dont les entreprises améliorent leur visibilité en ligne et attirent du trafic organique.

Dec. 20, 2025, 1:15 p.m.

Progrès de la technologie deepfake : implications…

La technologie de la deepfake a fait des progrès considérables récemment, produisant des vidéos manipulées très réalistes qui représentent de manière convaincante des individus faisant ou disant des choses qu'ils n'ont jamais réellement faites.

Dec. 20, 2025, 1:13 p.m.

L'initiative d'IA open source de Nvidia : acquisi…

Nvidia a annoncé une expansion importante de ses initiatives open source, indiquant un engagement stratégique à soutenir et faire avancer l’écosystème open source dans les domaines du calcul haute performance (HPC) et de l’intelligence artificielle (IA).

Dec. 20, 2025, 9:38 a.m.

La gouverneure de New York, Kathy Hochul, signe u…

Le 19 décembre 2025, la gouverneure de New York, Kathy Hochul, a signé la loi sur la Responsabilité, la Sécurité et l’Éthique de l’Intelligence Artificielle (RAISE), marquant une étape importante dans la réglementation des technologies avancées d’IA dans l’État.

Dec. 20, 2025, 9:36 a.m.

Stripe lance la Suite Agentic Commerce pour la ve…

Stripe, la société de services financiers programmables, a lancé la Agentic Commerce Suite, une nouvelle solution visant à permettre aux entreprises de vendre via plusieurs agents IA.

All news

AI Company

Launch your AI-powered team to automate Marketing, Sales & Growth

and get clients on autopilot — from social media and search engines. No ads needed

Begin getting your first leads today