إذا كنت تقوم بتشغيل مواد دراسية محلية، فإن AMA هي واحدة من أفضل الخيارات المتاحة
مقدمة
في تعليق حديث على قناة Discord الخاصة بي، سأل جاستن عما إذا كان من الممكن استخدام نموذج تم تحميله على LM Studio بدلاً من استخدام AMA (Adaptive Model Artifacts). هذا جعلني أفكر، لماذا لا أستخدم AMA مع GPT المحلي؟ Local GPT هو مشروع يسمح لك بالدردشة مع مستنداتك على أجهزتك المحلية أو السحابة الخاصة باستخدام قوة llms (نماذج اللغات الكبيرة). سأوضح لك في هذا الفيديو كيفية استخدام نموذج يعمل على AMA مع GPT المحلي، مع سطرين إضافيين فقط من التعليمات البرمجية.
إعداد GPT المحلي
الخطوة الأولى هي إعداد GPT المحلي. للقيام بذلك، تحتاج إلى استنساخ مستودع GPT المحلي. يمكنك القيام بذلك عن طريق نسخ رابط المستودع واستخدام أمر Git clone. بمجرد استنساخ المستودع، ستحتاج إلى إنشاء بيئة افتراضية لـ GPT المحلي باستخدام الأمر "conda create -n localGPT python="
تحضير الوثائق
لتتمكن من استخدام GPT المحلي، يجب أن يكون لديك بعض المستندات للدردشة معها. يأتي مستودع GPT المحلي مزودًا بورق Ora الأصلي في مجلد المستندات المصدر. ومع ذلك، سوف تحتاج إلى تقديم المستندات الخاصة بك. انسخ مستنداتك إلى مجلد المستندات المصدر. إذا كنت تستخدم جهازًا افتراضيًا تم تكوينه مسبقًا من MK compute، فسوف يرشدك مستند الترحيب حول كيفية نقل مستنداتك إلى الجهاز الظاهري البعيد.
إنشاء متجر المتجهات
بعد ذلك، تحتاج إلى إنشاء مخزن متجه للمستندات. يمكن القيام بذلك عن طريق تشغيل البرنامج النصي python "injest.py" في مستودع GPT المحلي. يأخذ هذا البرنامج النصي المستندات الموجودة في المجلد، وينشئ أجزاء، ويحسب التضمينات، ويضعها في مخزن المتجهات. يعتمد الوقت المستغرق لهذه الخطوة على عدد الملفات لديك.
تكوين OpenAI المحلي
من أجل تشغيل دراسة باستخدام OpenAI Local (olama)، تحتاج إلى تنزيل وتثبيت AMA. انتقل إلى موقع OpenAI، وقم بتنزيل AMA، وحدد الخيار المناسب بناءً على نظام التشغيل الخاص بك. اتبع تعليمات التثبيت المقدمة. بمجرد تثبيت AMA، اختر نموذج LLM لتشغيله. في هذا المثال سوف نستخدم نموذج "ميستول". انسخ الأمر الخاص بتشغيل النموذج والصقه في جهازك. في المرة الأولى التي تقوم فيها بتشغيل الأمر، سيتم تنزيل النموذج، لذلك قد يستغرق الأمر بعض الوقت. بمجرد تنزيل النموذج، سيكون جاهزًا لبدء التفاعل معه.
استخدام AMA مع GPT المحلي
الآن بعد أن قمنا بإعداد كل من AMA وGPT المحلي، يمكننا استخدام AMA مع GPT المحلي. في مستودع GPT المحلي، افتح الملف "run_localgpt.py". قم باستيراد حزمة "oLama" من مكتبة "lchaim" باستخدام السطر "من lchaim.llms import oLama". يرجى ملاحظة أن إصدار lchaim المستخدم في هذا المثال أقدم نسبيًا، ولكنه الإصدار الذي يدعم AMA. أضف هذا السطر إلى الملف. بعد ذلك، انتقل إلى السطر الذي تم تحميل النموذج فيه (السطر 140) وقم بالتعليق على الكود الموجود. استبدله بالسطر "lm = oLama(model_name='Mistol')"، حيث يكون "Mistol" هو اسم نموذج AMA الذي تستخدمه. احفظ التغييرات.
تشغيل GPT المحلي مع AMA
بعد اكتمال الإعداد، يمكنك الآن تشغيل GPT المحلي باستخدام AMA. في المحطة، انتقل إلى دليل GPT المحلي وقم بتشغيل الأمر "python run_localgpt.py". سيُظهر الناتج أن نموذج التضمين قد تم تحميله، ولكن ليس الملف من ملف الثوابت، حيث أننا نقوم بتشغيل الملف من AMA. يمكنك الآن التفاعل مع النموذج عن طريق طرح الأسئلة أو بدء محادثة.
خاتمة
يتيح لك استخدام AMA مع GPT المحلي الاستفادة من قوة llms في بيئتك المحلية. باستخدام بضعة أسطر فقط من التعليمات البرمجية، يمكنك دمج نماذج AMA في إطار عمل GPT المحلي لديك. Local GPT هو إطار عمل مرن يسمح لك بإحضار مكونات مختلفة من مصادر مختلفة. جربها وأخبرني برأيك!




