أسرارك في ChatGPT قد تُستغل ضدك

خمس خطوات لحماية بياناتك

ملايين المستخدمين يشاركون بيانات شخصية وطبية وتجارية مع روبوتات المحادثة دون إدراك لعواقب ذلك.. وخبراء يحذرون من مخاطر تسريب المعلومات .


أصبح استخدام أدوات الذكاء الاصطناعي، مثل ChatGPT، جزءًا من حياتنا اليومية. إذ نُدخل إليها بيانات شخصية، طبية، مهنية وحساسة. غير أن الاستخدام غير الحذر قد يؤدي إلى كشف هذه المعلومات وتعريض خصوصيتنا للخطر. والأسوأ أن اختبارات أجراها باحثو أمن سيبراني كشفت أن حصول مخترق متمرّس على هذه البيانات ليس أمرًا صعبًا.

ورغم أن شركة OpenAI تبذل جهودًا كبيرة للحد من هذه المخاطر، إلا أن الأمر يشبه لعبة القط والفأر؛ فكلما سدت الشركة ثغرة، سارع القراصنة إلى إيجاد أخرى. ومع ذلك، هناك خطوات بسيطة يمكن اتباعها لتقليل فرص تسريب المعلومات الحساسة إلى أنظمة خارجية.
الأمن السيبراني أوصى بخمسة إجراءات أساسية:

عند استخدامكم ChatGPT بنسخته المجانية أو المدفوعة (Plus)، قد يكون خيار تدريب النموذج على محادثاتكم مفعّلًا بشكل افتراضي. هذا يعني أن ما تكتبونه، بما في ذلك معلومات شخصية أو طبية أو تجارية، يُخزَّن في قاعدة بيانات OpenAI وقد يُستخدم لاحقًا في تدريب النماذج. أي تسريب أو إعادة استخدام لهذه البيانات قد يؤدي إلى كشف غير مرغوب فيه.

ما يجب فعله:
انتقلوا إلى: الملف الشخصي (Profile) > الإعدادات (Settings) > التحكم بالبيانات (Data Controls) ثم عطّلوا خيار “تحسين النموذج للجميع” (Improve the model for everyone).

يمكن مشاركة المحادثات من ChatGPT عبر رابط، لكنكم لا تتحكمون بما سيحدث لاحقًا لذلك الرابط. فقد يُحفظ أو يُتداول حتى بعد حذف المحادثة من حسابكم.

ما يجب فعله:
الحل الأفضل هو عدم مشاركة أي محادثات تتضمن معلومات حساسة أو شخصية. حاليًا، لا توجد وسيلة للحد من صلاحيات الوصول إلى الرابط المشترك.

هؤلاء الوكلاء قادرون على تنفيذ إجراءات تلقائية، مثل تصفح مواقع أو شراء منتجات. لكنهم يفتقرون للحسّ البشري، ما قد يجعلهم ينقرون على روابط خبيثة أو يدخلون بيانات في مواقع مزيفة.

ما يجب فعله:
عند تشغيل وكيل ذكي، قدّموا تعليمات دقيقة تحدّد ما هو مسموح وما هو ممنوع. وتجنّبوا إدخال كلمات مرور أو بيانات مالية عبر مواقع وصلتم إليها بواسطته. تأكدوا دائمًا من صحة الموقع.

هذه تقنية يستخدمها القراصنة عبر إخفاء أوامر ضارة داخل موقع، مستند أو رابط. عندما يتصفح وكيل الذكاء الاصطناعي موقعًا كهذا، قد ينفّذ الأمر الخفي دون إدراك أنه ضار، ما يعرّض بياناتكم أو حتى حساباتكم للخطر.

ما يجب فعله:
كما في البند السابق، يجب صياغة “برومبت” واضح يتضمن قواعد وحدودًا دقيقة للوكيل. يمكن أيضًا الاستعانة بنموذج ذكاء اصطناعي آخر لمساعدتكم في صياغة تعليمات أكثر أمانًا.

إضافة طبقة حماية إضافية ضرورية. حتى لو تم اختراق كلمة المرور (مثلًا عبر هجوم تصيّد)، فلن يتمكن المهاجم من دخول الحساب دون رمز مؤقت من هاتفكم.

ما يجب فعله:
انتقلوا إلى: الإعدادات (Settings) > الأمان (Security) > المصادقة متعددة العوامل (Multi-factor authentication)، ثم اختاروا طريقة التحقق. الخيار الموصى به هو استخدام تطبيق لتوليد الأكواد.

الخلاصة

استخدام ChatGPT وغيره من أدوات الذكاء الاصطناعي قد يكون مفيدًا وفعّالًا، لكنه ينطوي على مخاطر حقيقية. حماية بياناتكم تبدأ بخطوات بسيطة: إيقاف تدريب النموذج، عدم مشاركة محادثات حساسة، الحذر من الوكلاء والتعليمات المخفية، وأخيرًا، تعزيز الأمان عبر التحقق بخطوتين.


يقول محدّثي :
لمّا تخرج الكلمة للعلن …فلا سلطة لك عليها …
كل يرميها بسهم عينه ..

 

ماهر حمصي

إبداع بلا رتوش
إشترك في القائمة البريدية