يشهد مجال الذكاء الاصطناعي المحلي انتشارًا متزايدًا في الفترة الأخيرة، حيث يمكن للمُستخدمين استخدام العديد من نماذج الـ AI بدون إنترنت بالاعتماد فقط على قدرات الكمبيوتر، الأمر الذي يضمن أن بياناتك لن تغادر جهازك إطلاقًا، كما أن تجربة التخصيص والتحكم في أسلوب المعالجة أعلى بكثير، ويمكن الاستفادة منها لحل الكثير من المشكلات، حتى في الأماكن ضعيفة الاتصال بالشبكة. لكن قبل أن تبدأ في تثبيت أدوات مثل Ollama أو LM Studio لتثبيت هذه النماذج، من المهم أن تعرف أولًا ما إذا كان جهازك قادرًا بالفعل على تشغيلها، وأي نوع منها يناسب إمكانياته. وهنا يأتي دور موقع بسيط تم إطلاقه مؤخرًا يساعدك على فهم قدرات جهازك بشكل سريع، وتحدد لك النماذج التي يمكنك تشغيلها بسلاسة، مما يوفر عليك الوقت والتجربة العشوائية، ويساعدك على اتخاذ قرار مناسب قبل الدخول في تجربة الذكاء الاصطناعي المحلي. الرائع أن كل ذلك من خلال المتصفح دون الحاجة إلى تثبيت أي برامج، إليك كيف…
معرفة النماذج التي يمكن تشغيلها محليًا
كما أشرنا، نعتمد في هذه الطريقة على موقع خارجي يُدعى CanIRun.ai، فبعد الدخول إليه يبدأ تلقائيًا بالتعرّف على مواصفات جهازك باستخدام تقنيات موجودة في المتصفح، مثل كرت الشاشة (GPU) وحجم الـ VRAM، والرامات، وعدد أنوية المعالج. وبالتالي لا تحتاج إلى إدخال أي بيانات، فكل شيء يتم بشكل تلقائي بمجرد زيارة الموقع، علمًا أنه يمكن تعديل هذه المواصفات بسهولة في حال أخطأ الموقع في اكتشاف مكونٍ ما. على سبيل المثال، إذا كنت تستخدم لابتوب ويعمل بأكثر من كرت شاشة، فيمكنك تحديد كرت الشاشة الأقوى (الخارجي) الذي ستعتمد عليه في تشغيل نماذج الذكاء الاصطناعي محليًا، وذلك من القائمة الموجودة بالأعلى.
عمومًا، خلال ثوانٍ قليلة، يحصل كل نموذج في الموقع على تقييم من 100، مع تصنيف يوضح مدى توافقه مع جهازك، مثل "يعمل بكفاءة عالية" Runs Great أو "يتطلب موارد أكبر" Too Heavy. كما يعرض الموقع تقديرًا لسرعة الأداء بعدد التوكنز في الثانية، ونسبة استخدام الرام. تتم جميع هذه العمليات داخل المتصفح مباشرًة، دون إرسال أي بيانات إلى خوادم خارجية. أيضًا تعتمد هذه التقديرات على تقنية WebGPU في المتصفح، وقد لا تكون دقيقة تمامًا في بعض الحالات، خاصة على الأجهزة التي تحتوي على كرت شاشة مدمج، حيث تكون ذاكرة الـ VRAM مشتركة مع الرام. ويقوم الموقع بالتنبيه إلى ذلك بوضوح أسفل قسم عرض مواصفات الجهاز.
استخدام موقع CanIRun.ai
يضم الموقع مكتبة غنية تضم نحو 60 نموذجًا مفتوح المصدر تغطي مختلف الاستخدامات، مثل الدردشة، والبرمجة، والتحليل المنطقي، ومعالجة الصور. وتشمل هذه المكتبة نماذج معروفة مثل Llama و Qwen و Mistral و Gemma و Kimi و DeepSeek و Phi. ولتسهيل الوصول إلى النموذج المناسب، يتيح الموقع مجموعة من الفلاتر مثل التقييم، ونوع المهمة، والجهة المطوّرة، ونوع الترخيص، وحجم السياق.
كما يمكن ترتيب النماذج وفق معايير مختلفة مثل الأداء، وعدد المعاملات، وسرعة التنفيذ، أو تاريخ الإصدار. كذلك تحتوي صفحة كل نموذج على معلومات شاملة، منها حجم الملف بالجيجابايت حسب مستوى الضغط (مع توفر سبعة مستويات مختلفة)، وحجم السياق، وبنية النموذج، والحد الأدنى الموصى به من الرامات المطلوبة، بالإضافة إلى تقدير لسرعته على جهازك. كما تتضمن الصفحة أوامر التثبيت المباشرة لأدوات مثل Ollama وllama.cpp، مما يوفر عليك البحث عن هذه المعلومات في مصادر أخرى.
إلى جانب الصفحة الرئيسية، يوفّر موقع CanIRun.ai ثلاث أقسام أو أدوات إضافية يمكن الوصول إليها من خلال القائمة بالأعلى. قسم "Tier List" والذي يعرض جميع النماذج في جدول مُرتّب من الفئة S إلى F بناءً على إمكانيات جهازك، مع إمكانية تصدير النتائج على شكل صورة يمكن حفظها على جهازك. أما صفحة "Compare" فتتيح لك مقارنة جهازين جنبًا إلى جنب بشكل مباشر لمعرفة أداء كلٍ منهما مع مختلف النماذج.
وأخيرًا، يحتوي قسم "Docs" على شرح مبسّط للمصطلحات التقنية مثل تقليل الدقة (Quantification)، وذاكرة الـ VRAM، ونماذج MoE، وعدد التوكنز في الثانية، وعرض النطاق الترددي للذاكرة. يتم شرح كل هذه المفاهيم بطريقة سهلة، مما يجعل هذا القسم مفيدًا حتى خارج استخدام الموقع، خاصة للمبتدئين.



