4 أخطاء ينبغي تجنبها عند استخدام روبوتات الذكاء الاصطناعي



تابع قناة عالم الكمبيوتر علي التيليجرام


شهد العالم مؤخّرًا ثورة تقنية جديدة تمثّلت في تطوير روبوتات المحادثة وأدوات توليد النصوص باستخدام الذكاء الاصطناعيّ، وكانت برامج مُعالجات اللغة والمُحادثة باستخدام الذكاء الاصطناعيّ مثل ChatGPT و Google Bard و Bing Chat وبرامج إنشاء الصور بالذكاء الاصطناعيّ من مُجرد وصف نصيّ مثل Dall-E أحد أبرز منتجات هذه التقنية وأكثرها شعبية وانتشارًا على مستوى العالم.

تتطوّر نماذج وأدوات الذكاء الاصطناعيّ في الآونة الأخيرة بوتيرة سريعة، ومع ذلك فلا تزال التقنية وليدة وفي بداياتها، ولا تزال تُعاني من بعض المُشكلات كإعطاء نتائج مُتحيّزة أو غير دقيقة أو حتّى غريبة وبعيدة عن السياق تمامًا. وعلى الرغم من أنّ المستخدم لا يحتاج لامتلاك الكثير من الخبرة كي يتمكّن من استخدام تلك الأدوات، فإنّ مُراعاة بعض الأمور وتجنّب أخطاء الاستخدام الشائعة قد يُساعده كثيرًا في الحصول على نتائج أفضل وتحقيق أقصى استفادة ممكنة من هذه الأدوات. وفي السطور التالية نوضّح أهمّ الأخطاء التي علينا تجنّبها عند استخدام روبوتات الذكاء الاصطناعي في سبيل الحصول على نتائج مثاليّة.


  ما هي روبوتات الذكاء الاصطناعي؟


عبارّة عن نماذج أو أدوات قادرة على تحليل ومُعالجة كميات هائلة من البيانات واستخدامها لإنتاج نوع جديد تمامًا من المُخرجات مثل توليد النصوص والرسوم والصور والأعمال الفنية والأكواد البرمجية والأصوات ومقاطع الفيديو وغيرها من المخرجات. اعتمدت أدوات الذكاء الاصطناعيّ على نماذج سابقة من نماذج تعلم الآلة والتعلم العميق كالمحولات (Transformers) ونماذج اللغة المتقدّمة التي يُمكنها تتبُّع الروابط بين الكلمات ليس فقط في الجمل المُنفردة ولكن في الصفحات والفصول والكتب أيضًا، والتي ساهمت بشكل هائل في تطوير نماذج اللغة الكبيرة (LLMs)، وهي نماذج تحتوي على مليارات أو حتى تريليونات المعلومات والبيانات التي يتمّ تدريب الذكاء الاصطناعيّ عليها لإخراج نتائج جديدة مثلما هو الحال في ChatGPT.


لا تُعتبر روبوتات الذكاء الاصطناعي جديدة تمامًا، ففي ستينيات القرن العشرين كانت هُناك نماذج بدائيّة من روبوتات المُحادثة، إلّا أنّ التقنية شهدت نقلة نوعيّة حقيقيّة في عام 2014 مع تطوير شبكات GAN، وهي نوع من خوارزميّات التعلّم الآلي التي يُمكنها إنشاء صور ومقاطع فيديو ومقاطع صوتيّة تبدو وكأنها واقعيّة بشكلٍ مُذهل. يمكن أن تُساعد الروبوتات ونماذج الذكاء الاصطناعيّ التوليديّة في تحسين عدد من المجالات المختلفة عن طريق المُساهمة في أداء العديد من العمليّات مثل كتابة أكواد برمجيّة، وتطوير المنتجات، وإعادة هيكلة العمليّات التجارية، إلخ.

  آلية عمل روبوتات الذكاء الاصطناعي


إنّ فهم كيفيّة عمل روبوتات الذكاء الاصطناعي قد يُساعدنا كثيرًا في الحصول على نتائج مُرضية منها عند استخدامها. وعلى الرغم من وجود الكثير من الاختلافات بين هذه الأدوات، فإنّ مُعظمها تتشابه في آلية عملها، ولنأخذ ChatGPT كمثال. يعتمد روبوت المحادثة المدعوم بالذكاء الاصطناعيّ هذا على نموذج LaMDA الذي تمّ تدريبه على كمية هائلة من البيانات من شبكة الإنترنت أو مصادر أخرى لكي يتمكّن من إعطاء استجابات وردود تفاعلية تُشبه الاستجابات البشرية في المُحادثات النصّية أو الصوتية الطبيعية.

  أخطاء تجنبها عند استخدام روبوتات الذكاء الاصطناعي



كتابة المطالبات بشكل خاطئ


تعتمد جودة ودقّة النتائج التي يُمكننا الحصول عليها من روبوتات الذكاء الاصطناعي على مدى جودة تدريب هذه النماذج في المقام الأوّل، ثُمّ تعتمد في المقام الثاني على مدى صحّة ووضوح المُدخلات والمُطالبات التي يُقدّمها المُستخدم. فعلى سبيل المثال، تؤثّر الأخطاء الإملائيّة والنحويّة التي تحتويها النصوص عند إدخالها إلى ChatGPT على قُدرة البوت على ربط الكلمات والمفردات ببعضها وبالبيانات التي تدرّب عليها ممّا يؤثّر في النهاية بشكل واضح على دقّة المعلومات التي يُقّدمها للردّ على استفساراتنا، وبالتالي؛ فإنّ أولى الخطوات للحصول على ردود وإجابات جيّدة هي كتابة وإدخال نصوص واضحة وسليمة إملائيًّا ونحويًّا.

وبوجه عام، تُعدّ كتابة المُدخلات والمُطالبات إلى أدوات الذكاء الاصطناعيّ بصورة واضحة وفعّالة ووضعها في سياق مُتّصل مهارة يُمكن للمُستخدم التدرب عليها واكتسابها بمرور الوقت، بل وأدى ذلك إلى ظهور مصطلح هندسة الأوامر "Prompt Engineering" ليشير إلى وظيفة تدريب المستخدمين وتعليمهم أفضل طرق صياغة الأوامر عند التعامل مع روبوتات الذكاء الاصطناعي.

الثقة المفرطة بالروبوتات


لا تزال مسألة خصوصيّة وأمان البيانات التي يتمّ تداولها ومُشاركتها مع روبوتات الذكاء الاصطناعي مُثيرة للقلق، حيث واجهت شركة OpenAI التي تُعتبر أحد أبرز رواد هذه التقنية في العالم، والمطوّرة لعدد من أشهر أدوات وتطبيقات الذكاء الاصطناعيّ التوليديّة انتقادات بشأن استخدام تطبيقاتها كوسائل لجمع البيانات بصورة قد تُعرّض خصوصية بيانات المستخدم وأمانها للخطر، لم يتوقّف الأمر عند بيانات تسجيل الدخول ومعلومات الحساب فقط، فحتّى البيانات البنكيّة وبيانات بطاقات الدفع والمُحادثات الخاصّة وكُلّ ما تكتبه في تطبيق مثل ChatGPT يُمكن أن تصل بوسيلة أو بأخرى لجهات وأطراف خارجيّة، ممّا دفع الحكومة الإيطاليّة لحظر استخدام تطبيق ChatGPT داخل حدودها، لذا لا يُنصح أبدًا بمُشاركة أيّ نوع من المعلومات الشخصيّة الحسّاسة والبيانات السريّة مع هذه النوعيّة من التطبيقات.

الاعتماد على الروبوتات كمصدر موثوق للمعلومات



تعتمد إجابات روبوتات المُحادثة المدعومة بالذكاء الاصطناعيّ مثل ChatGPT و Bing Chat و Google Bard على المعلومات التي تمّت تغذية البوت بها وتدريبه عليها مُسبقُا، والتي تكون محدودة في مُعظم الأحوال بمدى زمنيّ مُعيّن، فعلى سبيل المثال لا يُمكن الحصول من ChatGPT على أيّ معلومات توفّرت بعد عام 2021، وبالتالي؛ فإنّ دقّة وموثوقيّة أدوات الذكاء الاصطناعيّ التوليديّة تظلّ محلّ شكّ بالإضافة إلى خلوّها من أيّ أدوات تسمح بمُراجعتها والتوثّق من صحّتها وتعديلها في حالة وجود أخطاء بها استنادًا إلى مصادر أكثر موثوقيّة.

لذا لا يُمكننا الاعتماد عليها باعتبارها مصادر موثوقة للمعلومات، ولا يُمكن استخدامها على سبيل المثال للحصول على معلومات طبية أو الاستعانة بها في الأبحاث المدرسية. وهُناك سابقة شهيرة قدّم فيها تطبيق Google Bard خلال العرض التقديميّ له في فبراير 2023 مجموعة من المعلومات غير الدقيقة حول تليسكوب جيمس ويب الفضائيّ (JWST).

الإفراط في الاعتماد على الروبوتات لكتابة التقارير


أصبحت بعض روبوتات الذكاء الاصطناعي المتوفّرة على الإنترنت قادرة على كتابة مقالات كاملة من الصفر، ومع ذلك تظلّ هُناك الكثير من الأسباب التي تمنع صانعوا المحتوى والمؤلّفين والناشرين من الاعتماد على هذه الروبوتات في مهام الكتابة، فحتّى إن تغاضينا عن مشاكل نقص الدقّة والاستجابات المتحيّزة، فلا تزال ركاكة الأسلوب وضعف الصياغة تُمثّلان عيوبًا خطرة في النصوص التي يكتبها الذكاء الاصطناعيّ، وخاصّة عند الكتابة بلغات غزيرة المعاني كاللغة العربيّة المليئة بالأساليب البلاغيّة، والتي قد تُخفي فيها الكلمات الظاهرة معانٍ أكثر عُمقًا، ومن ثّمّ تفتقر الكتابات التي يُستخدم فيها الذكاء الاصطناعيّ للعمق والإبداع.

ويؤدّي الإفراط في الاعتماد على الروبوتات إلى قتل الإبداع لدى الكُتّاب البشريّين، وجعلهم أكثر كسلا وقُدرة على التعبير، بالإضافة ما قد تحتويه هذه النصوص من كتابات مُقتبسة جزئيًّا أو كُلّيًا من كُتّاب بشريّين آخرين ممّا قد يُعرّض الناشر عند استخدامها لمسائلات قانونية تتعلّق بانتهاك حقوق الملكيّة الفكريّة.

لا يعني هذا بالطبع أنّ روبوتات الذكاء الاصطناعي لا فائدة تُرجى منها على الإطلاق، ولكن ينبغي اللجوء إليها في نطاق محدود للحصول على صياغات بديلة وأفكار مُقترحة لعناوين الصُحف على سبيل المثال، وتجنّب استخدامها بشكلٍ مُفرط.

——————

أصبحت روبوتات الذكاء الاصطناعي بجميع إيجابيّاتها وسلبيّاتها، وسواء رضي عنها البعض أم لم يرضى، جزءًا لا يُمكن تجاهله من مُفردات واقعنا التقنيّ اليوم، وعلى الرغم من تركيزنا في هذه المقالة على بعض من الجوانب السلبيّة للتقنية ونقاط الضعف الكامنة فيها فلا ينفي عنها كُلّ ما ذكر امتلاكها للعديد من نقاط القوّة والاستخدامات النافعة، وفي النهاية تظلّ أفضل الخيارات المطروحة أمامنا هي التعامل مع التقنية واستخدامها بصورة رشيدة لتحقيق الاستفادة القصوى منها، وهو ما يضمن أيضًا استمراريّة تطويرها لتحسين أدائها وزيادة كفاءتها في المستقبل القريب.

تعليقات