لحماية خصوصيتك: 6 معلومات لا تشاركها أبدًا مع ChatGPT

نسلط الضوء على أنواع البيانات والمعلومات التي يجب إبقاؤها خاصة عند استخدام ChatGPT أو أي روبوت ذكاء اصطناعي.
يزداد تغلغل أدوات الذكاء الاصطناعيّ في حياتنا اليوميّة يومًا بعد يوم، ولاسيّما بعد ظهور روبوتات متقدمة مثل ChatGPT الذي يُمكنه عمل الكثير من الأشياء بدءًا من الإجابة على الأسئلة والاستفسارات، ومرورًا بكتابة وتحرير المُحتوى وإنشاء الصور. يطوّر هذا الروبوت – وأمثاله من شركات أخرى – أداءه كُلّ يوم بفضل خوارزميّات التعلُّم الآليّ والتعلُّم العميق التي يعتمد عليها، وهو ما جعل مُستخدميه مُتحمّسين دومًا لتجربة كُلّ جديد واكتشاف طُرق الاستفادة منه. قد يدفعهم هذا الحماس أحيانًا للتخلّي عن الحذر ومنح ChatGPT معلوماتهم الحسّاسة بالغة الخصوصيّة، وهو ما يُشكّل خطرًا على أمان هذه البيانات ويُزيد من احتماليّة اختراقها.

يُعدّ الالتزام بإجراءات الأمن السيبرانيّ والحفاظ على أمان وخصوصيّة البيانات أمرًا ضروريًّا لا بُدّ منه عند التفاعل مع أيّ نوع من التقنيات الحوسبيّة لتفادي الكثير من الأضرار والمخاطر المُحتملة كالخسائر الماديّة الفادحة. لذلك دعونا نوضّح في هذه المقالة أنواع البيانات والمعلومات التي يجب الحرص على حماية خصوصيّتها وعدم مُشاركتها مع ChatGPT.
معلومات لا تشاركها مع ChatGPT

معلومات لا ينبغي مشاركتها مع ChatGPT

البيانات والمعلومات الشخصيّة

المعلومات الشخصيّة

للوهلة الأولى قد يبدو لك أنّ مُشاركة بياناتك الشخصيّة كالاسم الكامل وتاريخ الميلاد ورقم الهاتف وعنوان البريد الإلكترونيّ وغيرها مع بوتات الدردشة مثل ChatGPT هو أمر لا ضرر منه على الإطلاق، طالما أنّك تُشارك بعض هذه البيانات بالفعل عبر تطبيقات ومنصّات أخرى كمنصّات وشبكات التواصل الاجتماعيّ، وهو اعتقاد خاطئ تمامًا.

على عكس العديد من شبكات التواصل الاجتماعيّ التي تستخدم التشفير وبعض إجراءات الأمان لحماية بيانات المُستخدمين، لا يتمتّع تطبيق ChatGPT بنفس القدر من الحماية والتشفير، لذا لا يجب مُشاركة بياناتك الشخصيّة والعائليّة وسيرتك الذاتيّة مع الروبوت، بل لا يُنصح كذلك بمُشاركة البيانات الشخصيّة مع أيّ تطبيق آخر بما في ذلك تطبيقات وشبكات التواصل الاجتماعيّ أيضًا.

يطوّر الهاكرز أساليبهم بوتيرة سريعة ويعملون بدأبٍ على اكتشاف الثغرات التي يُمكن استغلالها لتحقيق أهدافهم. وعند حصولهم على البيانات الشخصيّة لأحد الأشخاص يُصبح بمقدورهم انتحال هويّة هذا الشخص والاستيلاء على حساباته وعناوين البريد الإلكترونيّ الخاصّة به، أو استغلاله لتنفيذ هجمات الهندسة الاجتماعيّة والتصيُّد الاحتياليّ عن طريق الاحتيال على مُستخدمين آخرين ممّن يثقون في هذا الشخص وإقناعهم بدفع المال أو الإفصاح عن بياناتهم السرّية أو إقناعهم بتنزيل ملفّات ملغومة على أجهزتهم.

كلمات المرور وبيانات الاعتماد وتسجيل الدخول

بيانات الاعتماد وتسجيل الدخول

يواجه الكثيرون منّا صعوبة في إنشاء وتذكُّر كلمات مرور قويّة وفريدة لحساباتنا على المواقع والمنصّات والأجهزة المُختلفة، وهو ما قد يدفع البعض إلى الاستعانة بتطبيق ChatGPT لاقتراح كلمات المرور القويّة ورُبّما كذلك لاختزان جميع بيانات الاعتماد وتسجيل الدخول التي قد نحتاجها في مكان واحد ممّا يُسهّل الوصول إليها.

 لسوء الحظّ، فإنّ استخدام ChatGPT لهذا الغرض يُعدّ بمثابة خطأ فادح كونه لا يوفر التشفير اللازم لحماية هذا النوع من البيانات، وبالتالي فإنّه يُضرّ بأمان بيانات تسجيل الدخول وخصوصيّة الحسابات ممّا قد يُعرّضها لخطر السرقة والاختراق، لذلك لا ينبغي مُطلقًا مُشاركة بيانات تسجيل الدخول وكلمات المرور مع ChatGPT، وفي حال احتجت لأداة مُساعدة تُعينك على إنشاء كلمات المرور القوية والفريدة اللازمة واختزانها لتسهيل تسجيل الدخول إلى حساباتك يُمكنك اللجوء إلى استخدام برنامج مُشفّر ومُصمّم خصّيصًا لهذا الغرض مثل برنامج مُدير كلمات المرور.

المعلومات الماليّة والمصرفيّة

المعلومات الماليّة

تُعتبر بيانات الحسابات المصرفيّة والبطاقات الائتمانيّة والمعلومات الماليّة بشكل عام من أكثر أنواع البيانات حساسيّة بحيث يجب أن تظلّ سرّية ولا يتمّ الإفصاح عنها أبدًا لأيّ جهة خارجيّة باستثناء الجهات الموثوقة المُشفّرة والمؤمّنة بشكل جيّد والمُصرّح لها بالتعامل مع هذا النوع من البيانات لإتمام عمليّات الدفع الإلكترونيّ وما شابه. ولا يُستثنى من هذا ChatGPT أو أيّ روبوت ذكاء اصطناعيّ. 

يُمكنك بكُلّ تأكيد طلب نصائح ماليّة من ChatGPT والاستعانة به لمُساعدتك في وضع الميزانيّات وترشيد النفقات لمشروع ما، أو حتّى الحصول على إرشاداتٍ ضريبيّة، ولكن حذارِ أن تُشارك أيّ معلومات ماليّة حسّاسة أو أيّ بيانات تتعلّق بحساباتك المصرفيّة وبطاقاتك الائتمانيّة وطُرق الدفع الأخرى، فقد ينتهي بك الأمر لخسارة جميع أموالك إذا تعرّضت هذه البيانات للتسريب أو الاختراق أو وقعت في أيدي أشخاص آخرين يسيئون استخدامها بوسيلة أو بأخرى. في بعض الأحيان يقوم بعض الهاكرز والمُحتالين بتصميم بوتات زائفة تُشبه ChatGPT وحثّ ضحاياهم على مُشاركة بياناتهم ومعلوماتهم الحسّاسة عبر البوت الزائف فيسهل الوصول إليها وإساءة استخدامها.

المُطالبات غير الأخلاقيّة وغير القانونيّة

ادخال بيانات غير قانونيّة

تُعتبر سياسات ChatGPT واضحة بهذا الصدد إذ يرفض الروبوت بشكل قاطع الاستجابة للاستفسارات والمُطالبات غير القانونيّة أو غير الأخلاقيّة كالسؤال عن كيفيّة ارتكاب الجرائم أو كيفيّة إيذاء الآخرين أو اقتراح طُرق الانتحار، وفي بعض الدول يُمكن لمثل هذه الاستفسارات والمُطالبات أن تُعرّض المُستخدم للمُساءلة القانونيّة.

كذلك يحظر ChatGPT على المُستخدمين إنشاء صورًا غير أخلاقيّة باستخدام الذكاء الاصطناعيّ، كما يحدّ التطبيق من إمكانيّة استخدامه لنشر الصور الزائفة والمُضلّلة حيث يُميّز الصور المولّدة باستخدام الذكاء الاصطناعي بعلامات مائيّة غير مرئيّة ولكن يُمكن الكشف عنها باستخدام أدوات التحقّق من المحتوى الزائف.

بيانات الشركات

بيانات سرية

يستخدم ChatGPT جميع البيانات التي يمدّه بها المُستخدمين لتدريب نموذج الذكاء الاصطناعيّ الخاص به وتحسينه لإرضاء العملاء والمُستخدمين ومنحهم أفضل أداء مُمكن، وهو ما يعني أن هذه البيانات والمعلومات لم تعُد مملوكة لأصحابها بالكامل، فجميع البيانات التي يُشاركها المُستخدمين مع ChatGPT تُصبح في نهاية المطاف في متناول شركة OpenAI المطوّرة للروبوت لكي تستخدمها كما تشاء في الأبحاث والدراسات المُتعلّقة بالذكاء الاصطناعي، ورُبّما يتمّ تسريب هذه البيانات والإفصاح عنها لأطراف خارجيّة.

وقد حدثت وقائع مُشابهة لذلك بالفعل، عندما تعرّضت العديد من الشركات العالميّة لتسريب بياناتها من خلال ChatGPT، ولعل أبرزها شركة سامسونج التي اضطرّت في عام 2023 إلى فرض قيود وسياسات صارمة على موظّفيها تمنعهم من مُشاركة بيانات الشركة مع روبوتات الذكاء الاصطناعيّ بعدما تسبّب أحد موظّفي الشركة في خرق أمنيّ وتسريب للبيانات نتيجة قيامه بمُشاركة أكواد ورموز حسّاسة خاصّة بالشركة عبر ChatGPT.

لذلك لا يُعدّ ChatGPT هو المكان المُناسب للإفصاح عن بيانات العمل الحسّاسة إذا كُنت أحد العاملين بواحدة من الشركات والمؤسّسات الكُبرى أو كُنت موظفًا عموميًّا بجهة حكوميّة ما، فرُبّما يتسبّب ذلك في أضرار جسيمة أو يُعرّضك للمُساءلة القانونيّة.

الأعمال الإبداعيّة المحميّة بحقوق الملكيّة الفكريّة

حقوق الملكيّة الفكريّة

واجهت شركة OpenAI في سبتمبر 2023 دعوى قضائيّة أقامتها نقابة المؤلّفين الأمريكيّين أمام المحكمة الفيدراليّة تتّهم ChatGPT باستخدام بعض الأعمال والنصوص الأدبيّة المنشورة والمحميّة بحقوق الطبع والنشر دون الحصول على إذن من مؤلّفيها، في تدريب نموذجه اللغويّ الكبير على تأليف وإنشاء النصوص الأدبيّة بالذكاء الاصطناعيّ، وهي النصوص التي بدت مُشابهة ومتأثّرة إلى حدّ كبير بالأعمال الأدبيّة الأصليّة التي استُخدمت في التدريب.

كان بين المؤلّفين الذين اتّهموا ChatGPT بانتهاك حقوق الملكيّة لمؤلّفاتهم الروائي جورج مارتن مؤلّف سلسلة «أغنية الجليد والنار» التي اقتُبس عنها مُسلسل «صراع العروش»، بالإضافة إلى المؤلّفين جوناثان فرانزن، وجودي بيكولت، وجورج سوندرز، وجون جريشام، كما رفع مؤلّفين أمريكيّين آخرين دعاوى قضائيّة مُماثلة، ومنهم سارة سيلفرمان، و مارجريت أتوود وفيليب بولمان.

يعتمد ChatGPT بشكل أساسيّ على ما يُعرف بالنموذج اللغويّ الكبير (LLMS)، وهو نموذج تعلُّم آليّ يتمّ تدريبه من خلال تحليل كمّية هائلة من البيانات والنصوص المكتوبة التي غالبًا ما تكون متوفّرة على شبكة الإنترنت. وإلى جانب مواقع وصفحات الويب، يستخدم ChatGPT أيضًا لتدريب نموذجه اللغويّ الكبير وتحسين أدائه بيانات ومعلومات مُستمدّة من مُدخلات مُستخدمي الروبوت، وعندما تُفصح عن فكرة لعمل إبداعيّ لم يرى النور بعد، أو تُشارك مع ChatGPT نصًّا أدبيًّا من تأليفك، فإنّك بذلك تتخلّى جزئيًّا عن ملكيّتك لهذا العمل، وتمنحه الإذن باستخدامه في إنشاء النصوص والأعمال الإبداعيّة التي يُمكن أن تظهر لمُستخدمين آخرين كاستجابة لمُطالباتهم، ومن ثمّ يُمكن لأيّ شخص آخر السطو على أفكارك أو إبداعك واستخدامه دون علمك.

إذا لم يكن العمل منشورًا ومحميًّا بحقوق الطبع والنشر سيكون من الصعب عليك إثبات ملكيّتك للعمل وتعرّضك للسرقة الأدبيّة أو الإبداعيّة. بل وحتّى إن كان هذا العمل منشورًا بالفعل ومحميًّا بحقوق الملكيّة الفكريّة، لا يخلو الأمر من مُخاطرة وانتهاكات مُحتملة كما حدث في الدعاوى التي ذكرناها، لذلك انتبه وتجنّب مُشاركة أيّ عمل إبداعيّ أو نصّ أدبيّ من تأليفك مع ChatGPT أو أيّ من روبوتات الذكاء الاصطناعيّ الأخرى، حتّى وإن كان هذا بغرض تطوير العمل وتحسينه أو تدقيقه إملائيًّا ونحويًّا.

الخلاصة

من الضروريّ فهم أهمّية الحفاظ على أمان وخصوصيّة البيانات خلال تفاعلنا مع أيّ منصّة أو موقع موجود على الإنترنت. إنّ البيانات ببساطة هي وحدة بناء العالم الرقميّ، وما كان الهاكرز ليبذلوا جهودًا خرافيّة لاكتشاف الثغرات الأمنيّة التي تسمح لهم باختراق الأنظمة المُختلفة وتُعطيهم صلاحيّات الوصول إلى بيانات العُملاء لولا وعيهم وإدراكهم للقيمة الكبيرة لهذه البيانات وإمكانيّة استغلالها لتحقيق مكاسب وأرباح طائلة.

وكغيره من التطبيقات والأنظمة الأخرى، يتعرّض ChatGPT للهجمات الإلكترونيّة ومحاولات الاختراق بصورة مُستمرّة منذ إطلاقه، فخلال الفترة ما بين يونيو 2022 وحتى مايو 2023 استطاع الهاكرز الوصول إلى بيانات تسجيل الدخول لنحو مائة ألف حساب من الحسابات المدفوعة على ChatGPT ثُمّ بيعها في أسواق الـ Dark Web. تتزايد احتماليّة اختراق الحسابات ومخاطر سرقة البيانات كُلّما قلّ الالتزام بإجراءات الأمان، ومن بينها ألّا يُفصح المُستخدم عن بياناته أو يُشاركها دون حذر مع أطراف آخرين ومع تطبيقات غير مؤمّنة وغير مُخصّصة للتعامل مع تلك البيانات 
يارا فاروق
يارا فاروق
مهندسة كهرباء وكاتبة محتوى تقني بخبرة تزيد عن 6 سنوات، مهتمة بمجال التقنية، حصلت على خمسة جوائز من مؤسسة ويكيميديا في مسابقات كتابة المحتوى.
تعليقات

احدث المقالات