يُعَد Ollama أداة مفيدة تسمح لك بتشغيل نماذج اللغة الكبيرة (LLMs) محليًا على جهاز Mac الخاص بك. بفضل تطويره المفتوح المصدر والمتألق، كل ما عليك فعله هو إدخال أوامر مختلفة في نافذة CMD على حاسوبك للحصول على جميع أنواع المعلومات. بالإضافة إلى ذلك، فإن قوة نظام تشغيل آبل قادرة على إنتاج إجابات بسرعة قياسية.
تشغيل ميتا لاما 3 والنماذج الأخرى على جهاز Mac الخاص بك
مع Ollama، الاستفادة من قوة النماذج مثل Phi 3 وMistral وGemma وLlama 2 وLlama 3 على جهاز الكمبيوتر الخاص بك تصبح بسيطة للغاية. إذا كنت ترغب في استخدام LLM الأكثر تقدمًا من Meta، فقط أدخل ollama run llama3 في CMD الخاص بجهاز الكمبيوتر الخاص بك لبدء التثبيت. مع ذلك، من المهم التأكد من وجود مساحة كافية على القرص الصلب الخاص بك، لأن هذا النموذج اللغوي يتطلب عدة جيجابايت من المساحة الحرة للعمل بسلاسة.
المحادثات مع الكثير من السياق
مع Ollama، يمكن دائمًا تخزين الأسئلة والأجوبة السابقة للحصول على سياق إضافي. كما هو الحال مع LLMs أخرى عبر الإنترنت مثل ChatGPT وCopilot، ستأخذ هذه الأداة هذا السياق في الاعتبار عند توليد النتائج. بهذه الطريقة، يمكنك الاستفادة الكاملة من الإمكانيات الهائلة التي يوفرها كل نموذج لغوي.
تثبيت واجهة مرئية لـ Ollama على جهاز Mac الخاص بك
سوف يجعل تثبيت واجهة مرئية على جهاز Mac الخاص بك استخدام Ollama أكثر سهولة. لتحقيق ذلك، يمكنك ببساطة استخدام Docker لتشغيل الأمر Docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main. بعد ذلك، يمكنك استخدام هذه الأداة من خلال واجهة أسهل بكثير من النافذة النصية.
قم بتحميل Ollama لجهاز Mac للاستفادة من جميع ميزاته وتشغيل أي نموذج لغة محليًا دون صعوبات.
التعليقات
رائع جدا