عندما نتحدث عن روبوتات الذكاء الاصطناعي
فربما أول ما يتبادر إلى ذهنك
روبوت ChatGPT
أو ربما Gemini
أو Grok
أو غيرها من الأسماء التي أصبحت
بمكانة جوجل في ذاكرتنا، وذلك لما تقدمه من تسهيلات كبيرة في مجالات متعددة مثل الكتابة، البحث عن
المعلومات، الترجمة، وحتى إنشاء الصور. لكن الشيء المشترك بين معظم هذه الروبوتات هو اعتمادها على بيانات المستخدمين
لتحسين نماذجها وتطوير أدائها. بمعنى آخر، قد تُستخدم محادثاتك
وعمليات البحث
والتفاعلات التي تجريها
لتدريب أنظمة الذكاء الاصطناعي. لحسن الحظ، هناك طرق تمكّنك من إيقاف ذلك لكنها تختلف حسب كل خدمة، لذلك
سنستعرض فيما يلي كيفية منع استغلال بياناتك لتدريب الذكاء الاصطناعي عبر
أبرز الروبوتات الحالية، ومع ظهور منصات جديدة باستمرار، سيجري تحديث هذا
المقال.
حماية بياناتك من روبوتات الذكاء الاصطناعي
لماذا تحتاج نماذج الذكاء الاصطناعي إلى بياناتنا؟
تعتمد أدوات الذكاء الاصطناعي التوليدي على نماذج لغوية أو بصرية تحتاج إلى
تدريب مستمر لاستيعاب متطلبات المستخدمين، فكلما توفرت لهذه النماذج بيانات
أحدث وأكثر تنوعًا، أصبحت قدرتها على إنتاج إجابات دقيقة وطبيعية أكبر. ولهذا
السبب، تقوم بعض الشركات بتحليل تفاعلات المستخدمين مثل الأسئلة التي يطرحونها،
والنصوص التي يكتبونها، والعمليات التي يبحثون عنها، وحتى الملفات التي
يشاركونها أحيانًا.
الغاية من ذلك يمكن أن نقول أنها "مزدوجة" بحيث يمكن استخدام البيانات لتحسين
دقة النماذج من جهة، وجعلها أكثر توافقًا مع الاستخدامات الواقعية من جهة أخرى.
غير أن هذه الممارسات تثير مخاوف تتعلق بالخصوصية، إذ إن البيانات التي تُستخدم
في تدريب الذكاء الاصطناعي قد تُخزَّن وتُحلَّل، وربما يُعاد توظيفها لإنتاج
محتوى يمكن أن يظهر لمستخدمين آخرين!
المخاطر الخفية التي قد نتعرض لها
الخطر الذي نشير إليه هنا هو احتمالية فقدان السيطرة على بياناتك التي تشاركها مع
الروبوت في المحادثات، فقد تحمل أي دردشة عابرة معلومات شخصية أو مهنية أو حتى
حساسة، يمكن أن تُستخدم لاحقًا في تدريب النماذج، لتُخزن وتُحلل من دون أن تكون
على علم بذلك، خاصًة وإن معظم الشركات لا تقوم بتشفير محادثات المُستخدمين.
نحن هنا لا نضع افتراض نظري، فعدة تحقيقات حديثة كشفت أن آلاف المحادثات مع أدوات
مثل ChatGPT أو Claude أو Grok أصبحت متاحة على الإنترنت فجأة، وبعضها ظهر في
نتائج بحث جوجل. هذه المحادثات تضمنت أحيانًا بيانات حساسة مثل معلومات مالية،
مستندات خاصة بالعمل، أو حتى أحاديث شخصية. تقارير صحفية في مواقع مثل
Forbes
و
Fast Company
و
404Media
أوضحت أن هذه البيانات سُجلت أو جرى نشرها عبر خيارات مشاركة لم يدرك المستخدمون
تبعاتها.
الخطر لا يقتصر على تسريب المعلومات بشكل مباشر، بل هناك احتمال لظهور أجزاء من
بيانات المستخدم في إجابات الذكاء الاصطناعي نتيجة التدريب، إضافة إلى إمكانية
تسرب المعلومات بالخطأ عبر خصائص غير مفهومة جيدًا. كما أن هناك جانبًا أوسع
يتعلق بالخصوصية، إذ يمكن تتبع عاداتك، واهتماماتك، وحتى أسلوب كتابتك لبناء صورة
عنك تُستخدم في تحسين هذه النماذج.
لهذا السبب يُفضل تعطيل خيار استخدام المحادثات في تدريب نماذج الذكاء الاصطناعي،
خصوصًا إذا كنت تعتمد على هذه الخدمات بشكل متكرر. وفيما يلي نشرح لك كيف تفعل
ذلك خطوة بخطوة لكل خدمة على حدة، علمًا أننا سنتجنب تخصيص فقرة عن روبوت Meta AI
باعتبار أن هناك مقال مخصص شرحنا فيه كيف تمنع "ميتا" من استغلال بياناتك في تدريب الذكاء الاصطناعي.
منع ChatGPT من استخدام بياناتك للتدريب
نبدأ مع ChatGPT، أحد أكثر روبوتات الذكاء الاصطناعي استخدامًا على مستوى العالم. بشكل افتراضي، قد تقوم شركة OpenAI بالاعتماد على محادثاتك للمساهمة في تدريب نماذج الذكاء الاصطناعي الخاصة بها وتحسين أداء ChatGPT بشكل عام. لكن يمكنك بكل سهولة إيقاف هذه الخاصية من خلال الانتقال إلى الإعدادات بالضغط على صورة ملفك الشخصي في الزاوية اليسرى بالأسفل ثم تحديد Settings ومن النافذة التي تظهر أمامك توجه إلى قسم Data controls ثم اضغط على Improve the model for everyone وتأكد من تعطيل خيار Improve the model for everyone الموجود بالأعلى. بمجرد إيقاف هذا الخيار، لن تُستخدم محادثاتك بعد ذلك في تدريب النماذج. هذا لا يؤثر على عمل ChatGPT أو قدرته على الإجابة بشكل طبيعي، لكنه يحد من إمكانية "تعلّمه" من محادثاتك الخاصة.
دمجت مايكروسوفت روبوت Copilot داخل ويندوز 11 ومحرك البحث Bing إلى جانب برامج الأوفيس وخدمات أخرى ضمن منظومتها. وبشكل افتراضي، قد تُستخدم محادثاتك مع الأداة للمساهمة في تطوير تقنيات الذكاء الاصطناعي الخاصة بها عبر ما يُعرف بعملية "Machine Learning". لكن في المقابل، يمكنك إيقاف هذه الخاصية بسهولة من خلال بضع ضغطات فقط. كل ما عليك هو التوجه إلى موقع Microsoft Copilot وتسجيل الدخول بحساب مايكروسوفت، ثم الضغط على صورة البروفايل في أعلى اليمين، ثم اضغط على اسم الحساب، بعدها اضغط على قسم "Privacy" وقم بتعطيل خياري "Model training on text" و "Model training on voice" كما موضح في الصورة أعلاه. بذلك لن تُستَخدم تفاعلاتك مع Copilot بعد ذلك في تدريب نماذج الذكاء الاصطناعي التابعة لمايكروسوفت.
المساعد الذكي من جوجل Gemini والمُدمج بشكل مباشر في خدماتها المختلفة مثل البحث وتطبيقات Workspace وحتى نظام أندرويد. بخلاف بعض الخدمات الأخرى، لا تظهر إعدادات الخصوصية في واجهة Gemini نفسها، وإنما يمكن العثور عليها داخل قسم "سجل الأنشطة" في حسابك على جوجل. لذلك إذا أردت منع جوجل من استخدام محادثاتك مع Gemini في تدريب نماذجها، يمكنك التوجه إلى صفحة Gemini Apps Activity بعد تسجيل الدخول إلى حساب جوجل الخاص بك، ثم اضغط على القائمة الموجودة اسفل جزئية "Keep activity" وحدد منها "Turn Off". وعلى هذا النحو، لن تُستَخدم تفاعلاتك المستقبلية مع Gemini في تحسين الخوارزميات أو تطوير النماذج.
منع Claude من استخدام بياناتك للتدريب
قامت شركة Anthropic مؤخرًا بتعديل سياسة الخصوصية الخاصة بها بحيث اعتبارًا من 28 أغسطس 2025 أصبح على مستخدمي روبوت Claude – سواء في النسخة المجانية أو المدفوعة (Pro أو Max) – اتخاذ قرار واضح بشأن السماح للذكاء الاصطناعي باستخدام محادثاتهم لتطوير النماذج أم لا. المشكلة أن هذا الخيار يكون مُفعّلًا تلقائيًا ويظهر بشكل خفي يكاد لا يُلاحظ على الشاشة.
عند تشغيل Claude لأول مرة، تظهر نافذة تطلب منك الموافقة على الشروط الجديدة. للوهلة الأولى يبدو الأمر بسيطًا بالضغط على زر Accept لكن أعلى هذا الزر يوجد خيار مفعّل مسبقًا يسمح لشركة Anthropic باستخدام محادثاتك في تدريب Claude والاحتفاظ بها لمدة تصل إلى خمس سنوات. وإن لم تنتبه لذلك عند قبول الشروط، فلا يزال بإمكانك إيقاف هذه الخاصية يدويًا من خلال إعدادات الحساب.
كل ما عليك هو الانتقال إلى خدمة Claude ثم الضغط على صورة الملف الشخصي بالأسفل واختيار "Settings" من القائمة، بعدها انتقل إلى قسم Privacy من القائمة الجانبية، ثم قم بالتمرير لأسفل لتعطيل خيار "Help improve Claude". بذلك لن يتم استخدام محادثاتك المستقبلية في تدريب نماذج الذكاء الاصطناعي. لكن إذا كنت قد وافقت على ذلك من قبل، فقد تظل المحادثات السابقة التي جُمعت محفوظة وقابلة للاستغلال!
روبوت الذكاء الاصطناعي المثير للجدل دائمًا، والمطور من قبل شركة xAI التابعة لإيلون ماسك، وتم دمجه في منصة X (تويتر سابقًا). لكن رغم الجدل الذي أثير حوله في الفترة الماضية، إلا أن Grok يتيح للمستخدمين خيار رفض استخدام بياناتهم في عملية التدريب. يمكنك العثور على هذا الخيار بعد الانتقال إلى موقع الخدمة على grok.com وتسجيل الدخول، ثم الضغط على صورة الملف الشخصي بالأسفل واختيار Settings من القائمة. ثم في النافذة التي تظهر انتقل إلى قسم "Data Controls" وقم بتعطيل خيار "Improve the Model" حتى لا يتم استخدام محادثاتك لتطوير نموذج Grok أو تدريبه.
لمن لا يعلم، Perplexity هو محرك بحث يعتمد على الذكاء الاصطناعي كليًا، ويُنظر إليه غالبًا كبديل لـ ChatGPT وأيضًا محرك بحث جوجل، إذ يعرض مصادر المعلومات ويقدّم إجابات بصيغة أقرب إلى الحقائق. لكن مع ذلك، قد يتم استخدام محادثاتك للمساعدة في تطوير النماذج… إلا إذا اخترت إيقاف هذا الخيار. كل ما عليك هو التوجه إلى الموقع الرسمي للخدمة والضغط على صورة البروفايل من القائمة الجانبية اليسرى، واختيار "Preferences" وبالأسفل ستجد خيار "AI data retention" قم بتعطيله حتى لا تُستخدم استفساراتك المستقبلية في تدريب النماذج التي يعتمد عليها المُحرك.
منع DeepSeek من استخدام بياناتك للتدريب
يعتبر DeepSeek روبوت الذكاء الاصطناعي المفضل لدى البعض (ربما مُحبي المنتجات الصينية) والذي تم تطويره من قبل شركة تحمل نفس الاسم. ورغم أنه أقل شهرة من ChatGPT أو Claude، فإنه بدأ يثير الانتباه بفضل نماذجه القوية مثل DeepSeek-V3.1 و DeepSeek-R1-0528. على أي حال، لا يزال بإمكانك تعطيل تدريب النموذج على بياناتك. فقط اضغط على صورة الملف الشخصي في الجزء السفلي الأيسر من الواجهة ثم حدد Settings. بعد ذلك انتقل إلى قسم Data وقم بتعطيل خيار Improve the model for everyone. بمجرد فعل ذلك، لن يتم استخدام محادثاتك المستقبلية في أغراض التدريب – على الأقل نظريًا.