メタ、4050億パラメータのLlama 3.1 AIモデルを公開
Brief news summary
メタは、これまでで最大のLlamaモデル、Llama 3.1を発表し、理由のベンチマークを含むいくつかの分野でOpenAIのGPT-4oを上回るとされています。Llamaモデルは「オープンモデル」であり、ユーザーはアプリケーションを構築したりモデルを変更したりすることができます。専有モデルよりも小さく能力は低いものの、Llama 3.1のリリースはギャップを埋めることが期待されています。メタはDatabricksやAWSなどの企業と提携してLlama 3.1モデルをホストし、関連するツールとサービスを提供しています。しかし、モデルの大きさ、コスト、およびパラメータ調整と商用ライセンス制限に関する懸念が残ります。Llama 3.1の信頼性の問題は、KU Leuven、ケンブリッジ大学、およびイタリアの大学の研究者によって提案されたハイブリッドアプローチによって解決されるかもしれません。概念ベースのメモリ推論器は、透明性と意思決定を強化するためにニューラルネットワークと記号ルールを組み合わせます。メタは最新のAIモデル、Llama 3. 1を発表しました。このモデルは4050億のパラメータを持ち、さまざまなベンチマークパフォーマンスでOpenAIのGPT-4oを上回ると言われています。以前のLlamaモデルとは異なり、Llama 3. 1は「オープンモデル」であり、変更や使用に料金が必要ありません。しかし、大規模なモデルをホスティングするには大量の計算リソースが必要であり、メタはAWSやMicrosoft Azureなどのいくつかの企業と提携して、モデルをホスティングするためのサービスとツールを提供しています。倫理的な使用と費用対効果についての懸念が残る中、開発者がモデルのパラメータを調整する柔軟性を持つかどうかも重要な問題です。
Watch video about
メタ、4050億パラメータのLlama 3.1 AIモデルを公開
Try our premium solution and start getting clients — at no cost to you