كيف يعمل الذكاء الاصطناعي على تعزيز عمليات الاحتيال المالي ، ويجعل من الصعب اكتشافها

بدءًا من النصوص الاحتيالية المكتوبة بسلاسة إلى استنساخ الممثلين السيئين للأصوات وتركيب الوجوه على مقاطع الفيديو، يعمل الذكاء الاصطناعي التوليدي على تسليح المحتالين بأسلحة جديدة قوية.



“أردت أن أبلغك أن تشيس مدين لك باسترداد مبلغ 2000 دولار. لتسريع العملية وضمان استلام المبلغ المسترد في أقرب وقت ممكن، يرجى اتباع التعليمات التالية: 1. اتصل بخدمة عملاء Chase على الرقم 1-800-953-XXXX للاستعلام عن حالة استرداد أموالك. تأكد من أن تفاصيل حسابك وأي معلومات ذات صلة جاهزة…”

إذا كنت تتعامل مع بنك  تشيس  وتلقيت هذه الملاحظة في رسالة بريد إلكتروني أو رسالة نصية، فقد تعتقد أنها شرعية. يبدو الأمر احترافيًا، بدون أي صياغة غريبة أو أخطاء نحوية أو تحيات غريبة تميز محاولات التصيد الاحتيالي التي تقصفنا طوال هذه الأيام. وهذا ليس مفاجئًا، نظرًا لأن اللغة تم إنشاؤها بواسطة  ChatGPT ، وهو برنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي والذي أطلقته شركة  OpenAI القوية في مجال التكنولوجيا  في أواخر العام الماضي. كمطالبة، كتبنا ببساطة في ChatGPT، “أرسل بريدًا إلكترونيًا إلى John Doe، تشيس مدين له باسترداد 2000 دولار. اتصل بالرقم 1-800-953-XXXX لاسترداد أموالك. (كان علينا تقديم العدد الكامل حتى يتعاون ChatGPT، ولكن من الواضح أننا لن ننشره هنا.)


يقول سوبس رانجان، المؤسس المشارك والرئيس التنفيذي لشركة Sardine، وهي شركة ناشئة لمكافحة الاحتيال في سان فرانسيسكو: “يمتلك المحتالون الآن قواعد نحوية لا تشوبها شائبة، تمامًا مثل أي متحدث أصلي آخر”. يتعرض عملاء الخدمات المصرفية للخداع في كثير من الأحيان لأن “الرسائل النصية التي يتلقونها تكاد تكون مثالية”، كما يؤكد مسؤول تنفيذي في مجال الاحتيال في أحد البنوك الرقمية الأمريكية – بعد طلب عدم الكشف عن هويته. (لتجنب أن تصبح أنت الضحية، راجع النصائح الخمس الموجودة في أسفل هذه المقالة.)

في هذا العالم الجديد من الذكاء الاصطناعي التوليدي، أو نماذج التعلم العميق التي يمكنها إنشاء محتوى بناءً على المعلومات التي تم تدريبهم عليها، أصبح من الأسهل من أي وقت مضى بالنسبة لأولئك الذين لديهم نوايا سيئة إنتاج النصوص والصوت وحتى الفيديو الذي لا يمكن أن يخدع الأفراد المحتملين فحسب. الضحايا، ولكن البرامج المستخدمة الآن لإحباط الاحتيال. في هذا الصدد، لا يوجد شيء فريد في الذكاء الاصطناعي – فالأشرار كانوا منذ فترة طويلة من أوائل من تبنوا التقنيات الجديدة، وكان رجال الشرطة يتدافعون للحاق بهم. وبالعودة إلى عام 1989، على سبيل المثال،  كشفت  مجلة فوربس كيف كان اللصوص يستخدمون أجهزة الكمبيوتر العادية وطابعات الليزر لتزوير الشيكات بشكل جيد بما يكفي لخداع البنوك، التي لم تتخذ في ذلك الوقت أي خطوات خاصة للكشف عن المنتجات المزيفة.


الاحتيال: صناعة متنامية

أبلغ المستهلكون الأمريكيون لجنة التجارة الفيدرالية أنهم خسروا رقمًا قياسيًا قدره 8.8 مليار دولار بسبب المحتالين العام الماضي، وهذا لا يشمل المبالغ المسروقة التي لم يتم الإبلاغ عنها.


واليوم، يشكل الذكاء الاصطناعي التوليدي تهديدا، وقد يؤدي في نهاية المطاف إلى اتخاذ تدابير عفا عليها الزمن ومتطورة لمنع الاحتيال مثل التحقق من الصوت وحتى “التحقق من الحياة” المصممة لمطابقة الصورة في الوقت الحقيقي مع الصورة المسجلة. Synchrony ، أحد أكبر مصدري بطاقات الائتمان في أمريكا مع 70 مليون حساب نشط، له مقعد في الصف الأول لهذا الاتجاه. وقال كينيث ويليامز، نائب الرئيس الأول في شركة Synchrony، في رسالة بالبريد الإلكتروني إلى مجلة Forbes : “نرى بانتظام أفرادًا يستخدمون الصور ومقاطع الفيديو المزيفة للمصادقة، ويمكننا أن نفترض بأمان أنه تم إنشاؤها باستخدام الذكاء الاصطناعي التوليدي”  .

في   استطلاع أجرته شركة Deep Instinct السيبرانية في نيويورك في يونيو 2023 وشمل 650 خبيرًا في مجال الأمن السيبراني، لاحظ ثلاثة من أصل أربعة من الخبراء الذين شملهم الاستطلاع ارتفاعًا في الهجمات خلال العام الماضي، “حيث أرجع 85% هذا الارتفاع إلى جهات فاعلة سيئة تستخدم الذكاء الاصطناعي التوليدي” في عام 2022، أبلغ المستهلكون عن خسارة 8.8 مليار دولار بسبب الاحتيال، بزيادة أكثر من 40٪ عن عام 2021، وفقًا لتقارير لجنة التجارة الفيدرالية الأمريكية  . جاءت أكبر خسائر الدولار من عمليات الاحتيال الاستثماري، ولكن عمليات الاحتيال الاحتيالية كانت الأكثر شيوعًا، وهي علامة مشؤومة لأنه من المحتمل أن يتم تعزيزها بواسطة الذكاء الاصطناعي.


يمكن للمجرمين استخدام الذكاء الاصطناعي التوليدي بطرق متنوعة مذهلة. إذا كنت تنشر كثيرًا على وسائل التواصل الاجتماعي أو في أي مكان عبر الإنترنت، فيمكنهم تعليم نموذج الذكاء الاصطناعي كيفية الكتابة بأسلوبك. بعد ذلك، يمكنهم إرسال رسالة نصية إلى أجدادك، ويطلبون منهم إرسال أموال لمساعدتك على الخروج من المأزق. والأمر الأكثر إثارة للخوف هو أنه إذا كان لديهم عينة صوتية قصيرة من صوت الطفل، فيمكنهم الاتصال بالوالدين وانتحال شخصية الطفلة والتظاهر بأنها قد تم اختطافها والمطالبة بدفع فدية. وهذا بالضبط ما حدث مع جينيفر ديستيفانو، وهي أم لأربعة أطفال من ولاية أريزونا، عندما  أدلت بشهادتها أمام الكونجرس في يونيو/حزيران .

لا يقتصر الأمر على الآباء والأجداد فقط. يتم استهداف الشركات أيضًا. يقوم المجرمون، الذين يتنكرون في هيئة موردين حقيقيين، بصياغة رسائل بريد إلكتروني مقنعة للمحاسبين يقولون فيها إنهم بحاجة إلى الحصول على أموالهم في أقرب وقت ممكن – وتتضمن تعليمات الدفع لحساب مصرفي يتحكمون فيه. يقول رانجان، الرئيس التنفيذي لشركة سردين، إن العديد من عملاء شركات التكنولوجيا المالية الناشئة في سردين يقعون أنفسهم ضحية لهذه الفخاخ ويخسرون مئات الآلاف من الدولارات.

وهذا مبلغ صغير مقارنة بمبلغ 35 مليون دولار الذي خسرته شركة يابانية بعد استنساخ صوت مدير الشركة، واستخدامه في عملية احتيال متقنة في عام 2020. كانت هذه الحالة غير العادية،  التي أبلغت عنها مجلة فوربس لأول مرة ، بمثابة نذير لما يحدث بشكل متكرر الآن حيث أصبحت أدوات الذكاء الاصطناعي للكتابة وانتحال الهوية الصوتية ومعالجة الفيديو أكثر كفاءة، وأكثر سهولة في الوصول إليها، وأرخص حتى بالنسبة للمحتالين العاديين. في حين كنت تحتاج إلى مئات أو آلاف الصور لإنشاء فيديو مزيف عالي الجودة، يمكنك الآن القيام بذلك بعدد قليل من الصور، كما يقول ريك سونج، المؤسس المشارك والرئيس التنفيذي لشركة بيرسونا  .، شركة منع الاحتيال. (نعم، يمكنك إنشاء فيديو مزيف دون وجود فيديو حقيقي، على الرغم من أنه من الأسهل أن يكون لديك فيديو للعمل عليه.)

تمامًا كما تعمل الصناعات الأخرى على تكييف الذكاء الاصطناعي لاستخداماتها الخاصة، فإن المحتالين أيضًا يقومون بإنشاء أدوات جاهزة للاستخدام – بأسماء مثل  FraudGPT  وWormGPT – استنادًا إلى نماذج الذكاء الاصطناعي التوليدية الصادرة عن عمالقة التكنولوجيا.

في مقطع فيديو على موقع يوتيوب تم نشره في يناير، بدا أن إيلون ماسك يروج لأحدث فرصة للاستثمار في العملات المشفرة: هبة ترعاها شركة Tesla بقيمة 100,000,000 دولار تعد بإعادة ضعف المبلغ الذي كان المشاركون في البيتكوين أو الإيثر أو الدوغكوين أو التيثر على استعداد للتعهد به. “أعلم أن الجميع اجتمعوا هنا لسبب ما. “الآن لدينا بث مباشر حيث سيتمكن كل مالك عملة مشفرة من زيادة دخله،” قال شخصية ماسك منخفضة الدقة على خشبة المسرح. “نعم، لقد سمعت جيدًا، أنا أستضيف حدثًا كبيرًا للعملات المشفرة من SpaceX.”

نعم، كان الفيديو مزيفًا للغاية – استخدم المحتالون  محاضرة ألقاها في فبراير 2022  حول برنامج مركبة فضائية قابلة لإعادة الاستخدام من SpaceX لانتحال شكله وصوته. قام موقع YouTube بسحب هذا الفيديو، على الرغم من أن أي شخص أرسل العملات المشفرة إلى أي من العناوين المقدمة قد فقد أمواله بالتأكيد. يعد Musk هدفًا رئيسيًا لانتحال الشخصية نظرًا لوجود عينات صوتية لا حصر لها منه لتشغيل النسخ الصوتية المدعمة بالذكاء الاصطناعي، ولكن الآن يمكن انتحال شخصية أي شخص تقريبًا.

في وقت سابق من هذا العام، كان لاري ليونارد، البالغ من العمر 93 عامًا والذي يعيش في مجتمع للمتقاعدين بجنوب فلوريدا، في المنزل عندما ردت زوجته على مكالمة هاتفية على الخط الأرضي. وبعد دقيقة سلمته الهاتف، فسمع ما يشبه صوت حفيده البالغ من العمر 27 عامًا يقول إنه في السجن بعد أن صدم امرأة بشاحنته. بينما لاحظ أن المتصل يناديه بـ “الجد” بدلاً من “جده” المعتاد، فإن الصوت وحقيقة أن حفيده يقود شاحنة دفعه إلى وضع الشكوك جانبًا. عندما رد ليونارد بأنه سيتصل بوالدي حفيده، أغلق المتصل الخط. سرعان ما علم ليونارد أن حفيده بخير، وأن القصة بأكملها – والصوت الذي يرويها – ملفقة.

يقول ليونارد لمجلة فوربس : “كان الأمر مخيفًا ومدهشًا بالنسبة لي أنهم تمكنوا من التقاط صوته بدقة، ونغماته ونغماته”  . “لم تكن هناك فترات توقف بين الجمل أو الكلمات التي من شأنها أن تشير إلى أن هذا يخرج من آلة أو يقرأ من برنامج. لقد كان الأمر مقنعا للغاية.”

غالبًا ما يتم استهداف كبار السن الأمريكيين في مثل هذه عمليات الاحتيال، ولكن الآن يتعين علينا جميعًا أن نكون حذرين من المكالمات الواردة، حتى عندما تأتي من أرقام قد تبدو مألوفة، مثل أرقام الجيران. تقول كاثي ستوكس، مديرة برامج منع الاحتيال في AARP، وهي منظمة الضغط والخدمات التي تضم ما يقرب من 38 مليون عضو: “لقد أصبح الأمر أكثر صعوبة أننا لا نستطيع الوثوق بالمكالمات الهاتفية الواردة بسبب انتحال (أرقام الهواتف) في المكالمات الآلية”. الذين تتراوح أعمارهم بين 50 وما فوق. “لا يمكننا أن نثق في بريدنا الإلكتروني. لا يمكننا أن نثق في رسائلنا النصية. لذلك نحن محرومون من الطرق المعتادة التي نتواصل بها مع بعضنا البعض.

التطور المشؤوم الآخر هو الطريقة التي يتم بها التهديد حتى بالإجراءات الأمنية الجديدة. على سبيل المثال، تقدم المؤسسات المالية الكبرى مثل مجموعة فانجارد، عملاق صناديق الاستثمار المشتركة الذي يخدم أكثر من 50 مليون مستثمر، للعملاء القدرة على الوصول إلى خدمات معينة عبر الهاتف من خلال التحدث بدلا من الإجابة على سؤال أمني. “صوتك فريد من نوعه، تمامًا مثل بصمة إصبعك”، يوضح مقطع  فيديو من Vanguard في نوفمبر 2021  يحث العملاء على التسجيل للتحقق الصوتي. لكن التقدم في مجال استنساخ الصوت يشير إلى أن الشركات بحاجة إلى إعادة التفكير في هذه الممارسة. يقول رانجان من شركة Sardine إنه شاهد بالفعل أمثلة لأشخاص يستخدمون استنساخ الصوت للمصادقة بنجاح مع أحد البنوك والوصول إلى الحساب. ورفض متحدث باسم فانجارد التعليق على الخطوات التي قد تتخذها للحماية من التقدم في الاستنساخ.

الشركات الصغيرة (وحتى الأكبر منها) التي تطبق إجراءات غير رسمية لدفع الفواتير أو تحويل الأموال تكون أيضًا عرضة للجهات الفاعلة السيئة. لقد كان من الشائع منذ فترة طويلة أن يقوم المحتالون بإرسال فواتير مزيفة عبر البريد الإلكتروني للمطالبة بالدفع، وهي فواتير يبدو أنها واردة من أحد الموردين. والآن، باستخدام أدوات الذكاء الاصطناعي المتاحة على نطاق واسع، يستطيع المحتالون الاتصال بموظفي الشركة باستخدام نسخة مستنسخة من صوت المسؤول التنفيذي والتظاهر بالموافقة على المعاملات أو مطالبة الموظفين بالكشف عن بيانات حساسة في هجمات “التصيد الاحتيالي” أو “التصيد الصوتي”. يقول ريك سونج، الرئيس التنفيذي لشركة بيرسونا، الذي يصف هذا بأنه “أكبر مخاوفه على الجانب الصوتي”: “إذا كنت تتحدث عن انتحال شخصية مسؤول تنفيذي بتهمة الاحتيال عالي القيمة، فهذا تهديد قوي للغاية وحقيقي للغاية”.

على نحو متزايد، يستخدم المجرمون الذكاء الاصطناعي التوليدي للتغلب على المتخصصين في منع الاحتيال – شركات التكنولوجيا التي تعمل كحراس مسلحين وشاحنات برينكس للنظام المالي الرقمي إلى حد كبير اليوم.

إحدى الوظائف الرئيسية لهذه الشركات هي التحقق من هوية المستهلكين الذين يقولون إنهم هم – حماية المؤسسات المالية وعملائها من الخسارة. إحدى الطرق التي تحاول بها شركات منع الاحتيال مثل Socure وMitek وOnfido التحقق من الهويات هي “التحقق من الحياة” – حيث يطلبون منك التقاط صورة شخصية أو مقطع فيديو، ويستخدمون اللقطات لمطابقة وجهك مع صورة بطاقة الهوية التي استخدمتها. ‘إعادة مطلوبة أيضا لتقديم. ومن خلال معرفة كيفية عمل هذا النظام، يقوم اللصوص بشراء صور لرخص القيادة الحقيقية على شبكة الإنترنت المظلمة. إنهم يستخدمون برامج تحويل الفيديو – الأدوات التي أصبحت أرخص ومتاحة على نطاق أوسع – لتركيب هذا الوجه الحقيقي على وجوههم. يمكنهم بعد ذلك التحدث وتحريك رؤوسهم خلف الوجه الرقمي لشخص آخر، مما يزيد من فرصهم في خداع التحقق من الحيوية.

يقول سونج: “لقد كان هناك ارتفاع كبير جدًا في الوجوه المزيفة – وجوه عالية الجودة تم إنشاؤها وهجمات آلية لانتحال صفة عمليات التحقق من الحيوية”. ويقول إن الزيادة تختلف حسب الصناعة، ولكن بالنسبة للبعض، “ربما نرى حوالي عشرة أضعاف ما شهدناه في العام الماضي”. وقد شهدت شركات التكنولوجيا المالية والعملات المشفرة قفزات كبيرة بشكل خاص في مثل هذه الهجمات.

وقال خبراء الاحتيال  لمجلة فوربس  إنهم يشتبهون في أن مقدمي خدمات التحقق من الهوية المعروفين (على سبيل المثال، Socure وMitek) قد شهدوا تراجعًا في مقاييس منع الاحتيال الخاصة بهم نتيجة لذلك. يصر جوني آيرز، الرئيس التنفيذي لشركة Socure، على أن “هذا ليس صحيحًا بالتأكيد”، ويقول إن نماذجهم الجديدة التي تم طرحها خلال الأشهر القليلة الماضية أدت إلى زيادة معدلات التقاط الاحتيال بنسبة 14% لأعلى 2% من الهويات الأكثر خطورة. ومع ذلك فهو يعترف بأن بعض العملاء كانوا بطيئين في تبني نماذج Socure الجديدة، الأمر الذي يمكن أن يضر بالأداء. يقول آيرز: “لدينا أحد البنوك الثلاثة الأولى التي تتأخر بأربعة إصدارات في الوقت الحالي”.

رفضت شركة Mitek التعليق بشكل محدد على مقاييس الأداء الخاصة بها، لكن نائب الرئيس الأول كريس بريجز يقول إنه إذا تم تطوير نموذج معين قبل 18 شهرًا، “نعم، يمكنك القول بأن النموذج الأقدم لا يؤدي أداءً جيدًا مثل النموذج الأحدث”. يتم تدريب نماذج ميتيك وإعادة تدريبها باستمرار بمرور الوقت باستخدام تدفقات البيانات الواقعية، بالإضافة إلى البيانات المخبرية.

رفض كل من JPMorgan وBank of America وWells Fargo التعليق على التحديات التي يواجهونها في عمليات الاحتيال المولدة بواسطة الذكاء الاصطناعي. يقول متحدث باسم Chime، وهو أكبر بنك رقمي في أمريكا والذي عانى في الماضي من  مشاكل احتيال كبيرة ، إنه لم يشهد ارتفاعًا في محاولات الاحتيال المرتبطة بالذكاء الاصطناعي.

يتراوح اللصوص الذين يقفون وراء عمليات الاحتيال المالي اليوم من الذئاب المنفردة إلى مجموعات متطورة مكونة من عشرات أو حتى مئات المجرمين. تتمتع الحلقات الأكبر، مثل الشركات، بهياكل تنظيمية متعددة الطبقات وأعضاء على درجة عالية من التقنية، بما في ذلك علماء البيانات.

يقول رانجان: “لديهم جميعًا مركز القيادة والسيطرة الخاص بهم”. يقوم بعض المشاركين ببساطة بإنشاء عملاء محتملين، حيث يرسلون رسائل بريد إلكتروني ومكالمات هاتفية للتصيد الاحتيالي. إذا حصلوا على سمكة على المحك بسبب عملية احتيال مصرفي، فسوف يسلمونها إلى زميل يتظاهر بأنه مدير فرع البنك ويحاول إقناعك بنقل الأموال من حسابك. خطوة رئيسية أخرى: سيطلبون منك غالبًا تثبيت برنامج مثل Microsoft TeamViewer أو Citrix، والذي يتيح لهم التحكم في جهاز الكمبيوتر الخاص بك. يقول رانجان: “يمكنهم حجب شاشتك تمامًا”. “وبعد ذلك، قد يقوم المحتال بإجراء المزيد من عمليات الشراء وسحب [الأموال] إلى عنوان آخر تحت سيطرته.” إحدى العبارات الشائعة المستخدمة لخداع الناس، وخاصة كبار السن، هي القول بأن حساب العلامة قد تم  الاستيلاء عليه بالفعل   من قبل اللصوص و أن المتصلين بحاجة إلى تعاون العلامة  لاسترداد  الأموال.

لا يعتمد أي من هذا على استخدام الذكاء الاصطناعي، ولكن أدوات الذكاء الاصطناعي يمكن أن تجعل المحتالين أكثر كفاءة ومصداقية في حيلهم.

حاولت OpenAI تقديم ضمانات لمنع الأشخاص من استخدام ChatGPT للاحتيال. على سبيل المثال، اطلب من ChatGPT أن يقوم بصياغة رسالة بريد إلكتروني تطلب من شخص ما رقم حسابه البنكي، لكنه يرفض قائلاً: “أنا آسف جدًا، لكن لا يمكنني المساعدة في هذا الطلب”. ومع ذلك يبقى من السهل التلاعب بها.

رفضت OpenAI التعليق على هذه المقالة، ووجهتنا فقط إلى منشورات مدونة الشركة الخاصة بها، بما في ذلك إدخال  مارس 2022  الذي ينص على ما يلي: “لا توجد حل سحري للنشر المسؤول، لذلك نحاول التعرف على قيود نماذجنا وإمكاناتها ومعالجتها”. سبل إساءة الاستخدام، في كل مرحلة من مراحل التطوير والنشر.

يُعد Llama 2، وهو نموذج اللغة الكبير الذي أطلقته شركة Meta، أسهل في التسليح للمجرمين المتطورين لأنه مفتوح المصدر، حيث تكون جميع أكواده البرمجية متاحة للرؤية والاستخدام. يقول الخبراء إن هذا يفتح مجموعة أوسع بكثير من الطرق التي يمكن للجهات الفاعلة السيئة أن تجعلها ملكًا لها وتسبب الضرر. على سبيل المثال، يمكن للأشخاص إنشاء أدوات ذكاء اصطناعي ضارة فوقها. لم تستجب ميتا  لطلب فوربس  للتعليق، على الرغم من أن الرئيس التنفيذي مارك زوكربيرج قال في يوليو إن إبقاء Llama مفتوح المصدر يمكن أن يحسن “السلامة والأمن، نظرًا لأن البرامج مفتوحة المصدر تخضع لمزيد من التدقيق ويمكن لعدد أكبر من الأشخاص العثور على إصلاحات للمشكلات وتحديدها”. “.

تحاول شركات منع الاحتيال الابتكار بسرعة لمواكبة ذلك، وتبحث بشكل متزايد عن أنواع جديدة من البيانات لاكتشاف الجهات الفاعلة السيئة. يقول رانجان: “كيف تكتب، أو كيف تمشي، أو كيف تمسك بهاتفك – هذه الميزات تحدد هويتك، ولكن لا يمكن الوصول إليها في المجال العام”. “لتعريف شخص ما بأنه الشخص الذي يقول إنه متصل بالإنترنت، سيكون الذكاء الاصطناعي الجوهري مهمًا.” بمعنى آخر، سوف يتطلب الأمر الذكاء الاصطناعي للقبض على الذكاء الاصطناعي.

خمس نصائح لحماية نفسك من عمليات الاحتيال المدعومة بالذكاء الاصطناعي


تحصين الحسابات: 
 تتطلب المصادقة متعددة العوامل (MFA) منك إدخال كلمة مرور ورمزًا إضافيًا للتحقق من هويتك. تمكين MFA على جميع حساباتك المالية.

كن خاصًا:  يمكن للمحتالين استخدام المعلومات الشخصية المتاحة على وسائل التواصل الاجتماعي أو عبر الإنترنت لانتحال شخصيتك بشكل أفضل.

مكالمات الشاشة:  لا ترد على المكالمات الواردة من أرقام غير مألوفة، كما يقول مايك شتاينباخ، رئيس قسم الجرائم المالية ومنع الاحتيال في سيتي.

إنشاء عبارات مرور:  يمكن للعائلات تأكيد هوية أحبائهم من خلال طلب كلمة أو عبارة متفق عليها مسبقًا. يمكن للشركات الصغيرة اعتماد رموز المرور للموافقة على إجراءات الشركة مثل التحويلات البنكية التي يطلبها المسؤولون التنفيذيون. انتبه من الرسائل الواردة من المديرين التنفيذيين التي تطلب شراء بطاقات الهدايا، فهذه عملية احتيال شائعة.

تخلص منها:  إذا كنت تشك في حدوث خطأ ما أثناء مكالمة هاتفية، فحاول طرح سؤال عشوائي، مثل ما هو الطقس في أي مدينة يتواجدون فيها، أو شيء شخصي، كما ينصح  فرانك ماكينا ، أحد مؤسسي شركة PointPredictive لمنع الاحتيال.


forbes


يقول محدّثي :
لمّا تخرج الكلمة للعلن …فلا سلطة لك عليها …
كل يرميها بسهم عينه ..

 

ماهر حمصي

إبداع بلا رتوش
إشترك في القائمة البريدية