A Meta bemutatja a Llama 3.1 MI modellt 405 milliárd paraméterrel
Brief news summary
A Meta kiadta eddigi legnagyobb Llama modelljét, a Llama 3.1-et, amely több területen, így például a következtetési benchmarkokban is felülmúlja az OpenAI GPT-4o-t a kiszivárgott teljesítményi adatok szerint. A Llama modellek 'nyitott modellek', amelyek lehetővé teszik a felhasználóknak az alkalmazások építését és a modell módosítását. Bár kisebbek és kevésbé képesek, mint a tulajdonképpeni modellek, a Llama 3.1 kiadása várhatóan áthidalja a szakadékot. A Meta több céggel, mint például a Databricks és az AWS partnerségben hostolja a Llama 3.1 modellt és biztosítja a kapcsolódó eszközöket és szolgáltatásokat. Azonban aggodalmak merülnek fel a modell nagy mérete, költségei, a paraméterek beállítására és a kereskedelmi licencelési korlátozásokra vonatkozóan. A Llama 3.1 megbízhatósági problémáit egy hibrid megközelítéssel kezelhetik, amelyet a KU Leuven, a Cambridge-i Egyetem és olasz egyetemek kutatói javasolnak. A Konceptalapú Memória Érvelő kombinálja a neurális hálózatot szimbolikus szabályokkal, hogy fokozza az átláthatóságot és a döntéshozatalt.A Meta kiadta legújabb mesterséges intelligencia modelljét, a Llama 3. 1-et, amely 405 milliárd paraméterrel büszkélkedhet. A modell állítólag különböző benchmark teljesítménymutatókban felülmúlja az OpenAI GPT-4o-t. Az előző Llama modellekkel ellentétben a Llama 3. 1 egy 'nyitott modell', amely módosítható és használható fizetés nélkül.
Azonban a nagy modell tárolása jelentős számítási erőforrásokat igényel, és a Meta több céggel, például az AWS-szel és a Microsoft Azure-rel partnerségben kínálja a modell tárolásához szükséges szolgáltatásokat és eszközöket. Etikai használatra és gazdaságosságra vonatkozó aggályok továbbra is fennállnak, ahogyan az is kérdéses, hogy a fejlesztőknek lesz-e rugalmasságuk a paraméterek beállításában.
Watch video about
A Meta bemutatja a Llama 3.1 MI modellt 405 milliárd paraméterrel
Try our premium solution and start getting clients — at no cost to you