تمتلك شركة إنفيديا موديلّات عديدة من كروت الشاشة بتسميات يُفرقها حرفا الـ "Ti"، وكلمة "Super"، إلخ. تركيزنا في هذا المقال سينصب على هذه البطاقات الرسومية المميزة بحرفيّ الـ "Ti"؛ سنعرف المُراد بهذين الحرفين، والفرق بين هذه النوعية من كروت الشاشة وكروت إنفيديا العادية، كما سنُخصص جزءًا لنتحدث عن الفرق بينها وبين كروت الشاشة التي تحمل تسمية "SUPER"، وبالطبع سنتحدث عن أنوية الـ CUDA، أو الـ CUDA Cores، نظرًا للدور المحوري الذي تلعبه في كروت شاشة إنفيديا، وأخيرًا سنعرف ما إذا كانت كروت الـ "Ti" هي الأفضل من إنفيديا أم لا وسنذكر عيبها الوحيد؛ دون أن نطيل عليكم، دعنا نبدأ مباشرًة.
بطاقات Ti الرسومية من إنفيديا
أولًا: ماذا يعني رمز "Ti" في كروت إنفيديا؟
اختلفت دلالة هذا الرمز بين الماضي والحاضر؛ في البداية، وتحديدًا في أوائل الألفية الجديدة مع كروت الـ GeForce 4 Ti و GeForce 3 Ti كان هذان الحرفان يشيران إلى كلمة "تيتانيوم" Titanium للدلالة على الأداء الأفضل ولتمييز هذه الكروت عن نظيراتها من نفس السلسلة والتي لا تمتلك الأداء نفسه.
وكان كارتا الـ GeForce 3 Ti200 و GeForce3 Ti500 من أوائل كروت إنفيديا التي تحمل هذا الرمز ليقدما أداءً أفضل على مستوى السرعة والذاكرة تحديدًا مقارنةً بالإصدارات العادية من موديلّات الـ GeForce3. أعقبت الكارتين المذكورين سلسلة الـ GeForce4 Ti series بكروتها المختلفة مثل الـ Ti 4200 والـ Ti 4400 والـ Ti 4600 وجميعهم رسّخوا عند المستهلكين ارتباط رمز الـ "Ti" بالأداء القوي من حيث السرعة وحجم الذاكرة.
ومع ذلك، كان أداء بعض كروت الشاشة التي تمتلك رمز الـ "Ti" أقل من نظيراتها التي لا تمتلك هذا الرمز. على سبيل المثال: كان أداء الـ GeForce 3 Ti 200 أقل من كارت GeForce3 العاديّ، وهو ما لم نعد نراه اليوم.
أصبحت جميع كروت إنفيديا الموسومة برمز الـ "Ti" تُعرَف بأنها الأفضل من ناحية الأداء والكارت الذي يمتلك اسمه "Ti" يكون الأخير في السلسلة أو الجيل، علاوة على ذلك، عادةً ما تحتوي هذه الكروت المتطورة على عددٍ أكبر من أنوية CUDA ومساحة أكبر على مستوى الرامات، ولكن، لا يجب أن ننسى أن الأداء الأعلى دائمًا ما يرتبط بزيادة استهلاك الطاقة.
وكما نعرف جميعًا، عادة ما تصدر كروت الـ "Ti" بعد الكروت الأساسية لأن هذا هو التدرج المنطقي في الأداء، إلا أن إنفيديا تستغل الظروف أحيانًا وتُصدر الكارتين في نفس الوقت أو حتى تعكس الآية، أي تُصدر الـ "Ti" قبل النسخة الأساسية؛ في 2021 مثلًا، استغلت إنفيديا مشكلة نقص كروت الشاشة والطلب الزائد عليها من قِبل المستخدمين الذين يعملون في تعدين العملات المشفرة تحديدًا وأطلقت الـ RTX 3060 Ti قبل الموديل العادي RTX 3060.
ثانيًا: ما هي أنوية CUDA؟
بشكلٍ عام، تختص أنوية CUDA الموجودة في كروت إنفيديا بمعالجة المهام المُعقدة المُهلكة للرسوميات، كما يمكن اعتبارها كواجهة تطبيقات برمجية (API) تتيح للمطورين الاستفادة من موارد كارت الشاشة وتسخيرها من خلال لغات برمجة مثل لغة الـ C والـ ++C.
وتُستخدم أنوية CUDA في العديد من المجالات، مثل "الجيمنج" وفيه تحسب قيّم البكسلات للنماذج ثلاثية الأبعاد، وتطبّق تأثيرات الظلال والإضاءة، وتحاكي الحركات والتفاعلات الواقعية داخل بيئات الألعاب. كذلك تُستخدم من قِبل أكبر الشركات – مثل Pixar – في "رندرة" أو تصيير الرسوم المتحركة المعقدة وتطبيق التأثيرات البصرية المختلفة، حيث تتولي كل نواة مسؤولية جزء معين من الصورة. ومن الاستخدامات الحديثة نسبيًا لأنوية CUDA أيضًا أنها تدخل في تدريب الذكاء الاصطناعي ومجال تعلم الآلة بالطبع، ناهيك أنها تستخدم في البحث العلمي، وتحديدًا في تشغيل نماذج المحاكاة للظواهر الفيزيائية مثلًا، فضلًا عن تحليل كميات البيانات الضخمة وإجراء الحسابات المعقدة.
ثالثًا: لماذا تتفوق كروت الـ "Ti" عن كروت الشاشة العادية؟
إذا أخذنا الـ RTX 3090 والـ RTX 3090 Ti كمثال، فسنجد أن عدد أنوية CUDA في الأول 10496 وفي نسخة الـ "Ti" يبلغ 10752، السرعة الأساسية من 1.4 جيجا هيرتز إلى 1.67 جيجا هيرتز، والقصوى من 1.7 إلى 1.86 جيجا هيرتز لصالح الـ "Ti". الكارتان يمتلكان نفس الذاكرة الداخلية (VRAM)، وهي 24 جيجابايت من نوع GDDR6X (384 بت)، كما يتشاركان نفس الأنوية مثل "التنسور" وأنوية تتبع الأشعة، وعليه فلا عجب أنهما يقومان على نفس المعمارية.
وتُعد نسخة الـ "RTX 3090 Ti" مثالًا ممتازًا وبسيطًا لتوضيح الفرق بين نسخ الـ "Ti" والنسخ العادية: نفس المعمارية والجيل، إلا أن الـ "Ti" أفضل من حيث السرعة، وفي مثالنا هذا فإن أداءه أفضل من النسخة العادية بنسبة 13%، وإن كان هناك عيب واضح وهو استهلاك الطاقة الكبير كما أشرنا، حيث يحتاج الـ RTX 3090 Ti حوالي 450 واط بينما يحتاج الـ RTX 3090 حوالي 350 واط.
لنأخذ مثالًا آخر أكثر تعقيدًا لنبين شيئًا في غاية الأهمية: الـ RTX 3060 والـ RTX 3060 Ti؛ الأول يمتلك 3584 نواة CUDA، وسرعة أساسية 1.32 جيجا هيرتز، وقصوى 1.78 جيجا هيرتز، و12 جيجابايت من الـ GDDR6 VRAM بواجهة 192 بت.
الثاني (RTX 3060 Ti)، يمتلك 4864 نواة CUDA، وسرعة أساسية 1.41 جيجا هيرتز، وقصوى 1.67 جيجا هيرتز، و8 جيجابايت من الـ GDDR6 VRAM بواجهة 256 بت. ماذا تُلاحظ؟
على الرغم من أن نسخة الـ RTX 3060 تمتلك VRAM أعلى (12 مقابل 8)، فإن الـ 3060Ti يفوقها أداءً بنسبة 35% حسبما جاء في موقع UserBenchmark. هذا الفرق في الأداء ناتجٌ عن الزيادة في الـ CUDA Cores، ما يعني أن هذه الأنوية هي العامل الرئيسي في تحديد سرعة وأداء المعالج الرسومي، وليس الـ VRAM.
رابعًا: ماذا عن كروت الـ "Super"؟
بجانب كروت الـ "Ti"، تمتلك إنفيديا أيضًا مجموعة من كروت الشاشة التي يحتوي اسمها على كلمة "Super" مثل الـ GTX 1660 Super والـ GTX 2080 Super وغيرهما، فما الفرق بين هذه الكروت وكروت الـ "Ti"؟
على الرغم من أن كروت الـ "Super" أفضل من الكروت العادية أو الأساسية، فإنها لا تزال أقل في الأداء من كروت الـ "Ti" بشكلٍ عام. إن الغرض من وجود كروت الـ "Super" أساسًا يكمن في أن الشركة لا تريد لمستهلكيها أن يمَلوا من الموديلّات الموجودة منذ وقتٍ طويل، فتُصدِر لهم هذه الكروت بتحديثات طفيفة في عدد أنوية الـ CUDA لينعشوا السوق قليلًا.
الخلاصة.. هل كروت الـ "Ti" هي الأفضل دائمًا؟
لا شك أنها أفضل كروت من إنفيديا (للمستخدمين العاديين وليس لشركات الذكاء الاصطناعي مثلًا) من حيث الأداء في الألعاب، والمونتاج، وكل المهام الرسومية – ثلاثية الأبعاد – الشبيهة، ولكن المشكلة أن هذه النوعية من الكروت تستهلك طاقةً أعلى، وهو ما قد لا يناسب البعض، ولكن بالنسبة للأغلبية العظمى، فلا مشكلة في استهلاك الطاقة والأهم هو الأداء.