لم تعد
روبوتات الذكاء الاصطناعي
عمومًا، والـ ChatGPT على وجه الخصوص، شيئًا ثانويًا في حياتنا، حيث يستخدمه
الجميع على اختلاف أعمارهم وخلفياتهم المهنية أو الدراسية. لقد وصل
استخدام ChatGPT
إلى حدٍ مخيف من الاعتمادية، ليس في المهام المُصمم لأجلها فقط، بل في
أشياء تخصصية تُرهَن الحياةُ بها. على سبيل المثال، أصبح الكثيرون يشاورون هذه الأداة في القرارات المصيرية،
ويطلبون منها استشارات طبية ونفسية دون الرجوع لمختصين، بل إن البعض يطلب منها
نصائح
لمواجهة نوبات القلق والاكتئاب
أو توجيهًا في العلاقات الأسرية والقرارات العاطفية، والأخطر من كل ذلك، أن البعض
يتخذها شريكًا عاطفيًا يُفضفض معه! ولكن ربما حان الوقت لتكف عن ذلك، حيث يؤكد
مؤسس OpenAI صراحةً أن استخدام ChatGPT دون وعي
لن يكون في صالح خصوصيتك.
لا تثق تمامًا في ChatGPT
سام ألتمان: محادثاتك قد تُستخدم ضدك!
في مقابلةٍ حديثة، خرج سام ألتمان، الرئيس التنفيذي لـ OpenAI، ليخبرنا بأن كل هذه الأمور لا يُفترض أن تحدث، قائلًا إن كل ما يقال لـ ChatGPT ليس محميًا بأي شكل من الأشكال على المستوى القانوني، ومضيفًا أن حتى محادثاتك التي قمت بحذفها، قد لا تكون اختفت كما تظن، وربما تُستخدم ضدك إذا وجدت الشركة نفسها في نزاع قضائي!
تحذير ألتمان الأكثر إرباكًا هذا جاء على خلفية النزاع القضائي القائم بين صحيفة
النيويورك تايمز وOpenAI، والذي أُلزمت فيه الأخيرة بالاحتفاظ بكافة سجلات
المحادثات، بما في ذلك المحادثات التي حذفها المستخدمون! ولمن لا يعرف حكاية هذا
النزع القضائي، فالحكاية أنه في أواخر 2023، رفعت صحيفة نيويورك تايمز دعوى أمام المحكمة الفيدرالية في نيويورك متهمةً OpenAI (بالشراكة مع مايكروسوفت) بانتهاك
حقوق النشر عبر استخدام ملايين المقالات التي أنتجتها الصحيفة لتدريب نماذج
الذكاء الاصطناعي مثل ChatGPT دون إذن أو اتفاق تجاري؛ ما ألزم شركة الذكاء
الاصطناعي الشهيرة بالاحتفاظ بكافة سجلات المحادثات للنظر في الدعوى.
بمعنى آخر، إن كنت قد شاركت قصةً شخصية أو حساسة مع ChatGPT في لحظة ضعف، فإنه لا
يوجد ضمانات بأن هذه الكلمات لن تظهر مجددًا في سياق قانوني أو ضمن تحقيقات
داخلية، حتى لو كنت قد حذفتها أو كتبتها في وضع "المحادثات المؤقتة" Temporary
Chat، وهذا على لسان سام ألتمان نفسه.
ما يزيد الوضع تعقيدًا هو عدم وضوح الآلية التي يتم من خلالها التعامل مع
محادثاتك في الخوادم الخلفية لـ OpenAI، خاصةً أن المحتوى الذي تُدخله قد يُستخدم
لتدريب نماذج الذكاء الاصطناعي مستقبلًا، وهذا بدوره يرفع من احتمالية تسرّب هذه
البيانات بشكل غير مباشر عبر ردود يقدمها النموذج لمستخدمين آخرين! نعم، تخيل أن
تظهر محادثاتك السرية إلى صديقك الذي يستخدم ChatGPT! طبعًا لن يُذكَر اسمك (أو
قد يُذكر)، لكن ألا يستدعي هذا الأمر القلق؟
هل ينطبق ذلك على كل المستخدمين؟
ما أثار انتقادات واسعة أيضًا هو استثناء فئتين فقط من هذه السياسة المهترئة التي
يتحدث عنها ألتمان، وهاتين الفئتين هما ChatGPT Enterprise و ChatGPT Edu، أو
بمعنى آخر الشركات والمؤسسات التعليمية، عدا عن ذلك، فكل الخطط الأخرى سواء
المجانية أو المدفوعة (مثل ChatGPT Plus و ChatGPT Pro)، معرّضة لتسريب المحادثات وفضح الخصوصية،
مما يخلق نظامًا طبقيًا لا يحمي إلّا النخب ويترك المستخدمين العاديين عُرضة
للفضيحة!
الخلاصة: حتى يتم إقرار تشريعات واضحة تُنظّم العلاقة بين البشر والذكاء
الاصطناعي، وتمنح المستخدمين نوعًا من "الحصانة القانونية" على غرار السرية
الطبية، يبقى من الحكمة التفكير مليًا قبل كتابة أسرارك لـ ChatGPT. فما تظنه
لحظة آمنة من الفضفضة قد يتحوّل لاحقًا إلى دليل قابل للاستخدام ضدك، في محكمة أو
في موقفٍ لا تتوقعه.
أرجوك لا تستبعد احتمالية حدوث هذه النوعية من المشاكل ولا
تقل "ما الذي قد يجمعني بـ OpenAI في موقفٍ قضائي؟"، فلا أحد يعرف ما الذي يمكن
أن يحدث مستقبلًا. جدير بالذكر أن بعض الشركات بدأت بالتحول نحو نماذج ذكاء
اصطناعي مغلقة وذات تشفيرٍ عالٍ مثل Lumo من شركة Proton، حتى توضَّح سياسات
الخصوصية في ChatGPT وغيره من الأدوات المشابهة.