मेटा एआई ने कॉड लामा 70 बिलियन मॉडल जारी किया: कॉड लामा परिवार में सबसे बड़ा और सबसे अच्छा प्रदर्शन करने वाला भाषा मॉडल
मेटा एआई ने हाल ही में कॉड लामा श्रृंखला के मॉडलों में अपना नवीनतम संस्करण - कॉड लामा 70 बिलियन मॉडल पेश किया है। यह नया मॉडल कॉड लामा परिवार का सबसे बड़ा और सबसे शक्तिशाली भाषा मॉडल है, और इसमें कोडिंग संबंधी कार्यों पर gp4 से बेहतर प्रदर्शन करने की क्षमता है। इस लेख में, हम कॉड लामा 70 बिलियन मॉडल की विशेषताओं और क्षमताओं का पता लगाएंगे और यह बाजार में अन्य मॉडलों की तुलना में कैसा है।
कॉड लामा 70 बिलियन मॉडल का परिचय
कॉड लामा 70 बिलियन मॉडल तीन अलग-अलग संस्करणों में उपलब्ध है। पहला संस्करण मूलभूत मॉडल है, जिसे विशिष्ट कार्यों के लिए और भी बेहतर बनाया जा सकता है। पायथन प्रोग्रामिंग के लिए एक विशेष संस्करण भी है, साथ ही एक निर्देश संस्करण भी है जिसे प्राकृतिक भाषा निर्देशों को समझने के लिए बेहतर बनाया गया है।
लामा 2 के शीर्ष पर निर्मित
कॉड लामा श्रृंखला के मॉडल कोई नई वास्तुकला नहीं हैं, बल्कि इन्हें लामा 2 के शीर्ष पर बनाया गया है। मेटा के अनुसार, उनके बेंचमार्क परीक्षण में, कॉड लामा कोड-संबंधित कार्यों पर अत्याधुनिक सार्वजनिक रूप से उपलब्ध भाषा मॉडलों से बेहतर प्रदर्शन करता है, जो कि जीपी4 की तुलना में एक उल्लेखनीय उपलब्धि है।
प्रभावशाली प्रदर्शन
ओपनएआई द्वारा जारी मूल जीपी4 मॉडल का मानव विकास डेटासेट पर स्कोर 67.0 था - प्रोग्रामिंग के लिए एक लोकप्रिय बेंचमार्क। इसकी तुलना में, कॉड लामा 70 बिलियन मॉडल 77.0 का मानव विकास परीक्षण स्कोर प्राप्त करता है, जो किसी भी अन्य उपलब्ध ओपन सोर्स बड़े भाषा मॉडल की तुलना में काफी अधिक है। यह जीपी4 द्वारा रिपोर्ट किए गए स्कोर से भी अधिक है। हालाँकि, यह ध्यान रखना महत्वपूर्ण है कि यह स्कोर जीपी4 के मूल संस्करण के लिए है, और हम जीपी4 के नवीनतम संस्करण के लिए मानव विकास स्कोर नहीं जानते हैं।
उपयोग और लाइसेंसिंग
कॉड लामा 70 बिलियन मॉडल को लामा 2 के समान लाइसेंस के तहत जारी किया गया है, जिसका अर्थ है कि इसका उपयोग अनुसंधान और वाणिज्यिक दोनों उद्देश्यों के लिए किया जा सकता है। मेटा से मॉडल तक पहुँचने के लिए, आपको एक अनुरोध पहुँच फ़ॉर्म भरना होगा। वैकल्पिक रूप से, मॉडल पहले से ही हगिंग पीएच प्रारूप में उपलब्ध है, और एक क्वांटाइज़्ड संस्करण जल्द ही उपलब्ध हो सकता है।
प्रशिक्षण प्रक्रिया
सभी कॉड लामा मॉडल लामा 2 आर्किटेक्चर पर आधारित हैं और 500 बिलियन टोकन के लिए प्रशिक्षित हैं। 70 बिलियन पैरामीटर संस्करणों के लिए, अतिरिक्त 500 बिलियन टोकन का उपयोग किया जाता है। पायथन संस्करण सुपर फेड फाइन-ट्यूनिंग के लिए 100 बिलियन टोकन के डेटासेट का उपयोग करता है। 16,000 टोकन की लंबी संदर्भ विंडो के लिए डिज़ाइन किया गया इंस्ट्रक्ट फाइन-ट्यून संस्करण अतिरिक्त 20 बिलियन टोकन का उपयोग करता है। दूसरी ओर, बेस संस्करण केवल 20 बिलियन टोकन का उपयोग करता है।
स्थानीय स्तर पर कॉड लामा 70 बिलियन मॉडल चलाना
कोड लामा 70 बिलियन मॉडल को स्थानीय रूप से चलाने के लिए, आपको सबसे पहले वेबसाइट से ओलामा डाउनलोड करना होगा। आपके ऑपरेटिंग सिस्टम के आधार पर इंस्टॉलेशन प्रक्रिया अलग-अलग होती है। एक बार इंस्टॉल हो जाने के बाद, आप मॉडल को चलाना शुरू करने के लिए "रन कोड लामा 70 बिल" कमांड का उपयोग कर सकते हैं। मॉडल के लिए अलग-अलग क्वांटिज़ेशन स्तर भी उपलब्ध हैं, जिससे आप अपनी ज़रूरतों के हिसाब से विशिष्ट संस्करण चुन सकते हैं।
प्रदर्शन
एक प्रदर्शन में, कॉड लामा 70 बिलियन मॉडल को एक ऐसा फ़ंक्शन लिखने के लिए कहा गया जो फ़िबोनाची अनुक्रम को आउटपुट करता है और एक बटन के साथ एक वेब पेज के लिए HTML कोड लिखने के लिए कहा गया था जो पृष्ठभूमि का रंग बदलता है और क्लिक करने पर एक यादृच्छिक चुटकुला प्रदर्शित करता है। मॉडल ने अपनी क्षमताओं को प्रदर्शित करते हुए, वांछित आउटपुट सफलतापूर्वक उत्पन्न किए।
भविष्य की तुलना
वीडियो के प्रस्तुतकर्ता ने कॉड लामा 70 बिलियन मॉडल के साथ हुई प्रगति के बारे में उत्साह व्यक्त किया और भविष्य में इस मॉडल और जीपी4 के बीच व्यापक तुलना करने की योजना का उल्लेख किया। यह तुलना कोडिंग-संबंधी कार्यों पर उनके प्रदर्शन का पता लगाएगी, क्योंकि कॉड लामा 70 बिलियन मॉडल को जीपी4 के बराबर बताया गया है।
कुल मिलाकर, कॉड लामा 70 बिलियन मॉडल की रिलीज़ बड़े भाषा मॉडल के क्षेत्र में एक महत्वपूर्ण मील का पत्थर है। इसका प्रभावशाली प्रदर्शन और क्षमताएं इसे डेवलपर्स और शोधकर्ताओं दोनों के लिए एक मूल्यवान उपकरण बनाती हैं। जैसा कि मेटा एआई नवाचार करना और एआई तकनीक की सीमाओं को आगे बढ़ाना जारी रखता है, हम भविष्य में और भी अधिक प्रगति की उम्मीद कर सकते हैं।



