«التزييف العميق» غزو شخصي.. وإرهاق للجيوب - لاين نيوز

الخليج 0 تعليق ارسل طباعة تبليغ حذف

* 240 ألف أسترالي ضحية.. 568 مليون دولار خسائر فردية
إعداد: مصطفى الزعبي
جلب التطور السريع للذكاء الاصطناعي فوائد ومخاطر في الوقت نفسه، إذ يستطيع المحتالون في غضون ثوانٍ استنساخ صوت شخص ما وخداع الناس وإقناعهم بأن أحد الأصدقاء أو أحد أفراد الأسرة يحتاج إلى المال بشكل عاجل.
وتحذر وسائل الإعلام الإخبارية، بما في ذلك شبكة «سي إن إن»، أن هذا النوع من عمليات الاحتيال يحتمل أن يؤثر على ملايين الأشخاص وفقاً لما نشرته جامعة تشارلز ستورت، وبما أن التكنولوجيا تجعل من السهل على الهاكرز غزو مساحاتنا الشخصية، فإن الحذر بشأن استخدامها أصبح أكثر أهمية من أي وقت مضى.
أدى ظهور الذكاء الاصطناعي إلى خلق إمكانيات لإنشاء الصور والنصوص والصوت والتعلم الآلي، وفي الوقت الذي يقدّم العديد من الفوائد، فإنه يوفر أيضاً للمحتالين أساليب جديدة لاستغلال الأفراد مقابل المال.
ومن خلال ما يسمى «التزييف العميق»، بإنشاء صور ومقاطع فيديو وحتى أصوات مزيفة، غالباً ما تتضمن مشاهير أو سياسيين، واستنساخ الصوت، نوع من تقنية تنشئ نسخة رقمية من صوت شخص بالتقاط أنماط كلامه ولهجته وتنفسه من عينات صوتية قصيرة.
بمجرد التقاط نمط الكلام، يمكن لمولد الصوت بالذكاء الاصطناعي تحويل النص المدخل إلى كلام واقعي للغاية يشبه صوت الشخص المستهدف، وأصبح من الممكن استنساخ الصوت بعينة صوتية مدتها ثلاث ثوانٍ فقط.
في حين أن عبارة بسيطة مثل «مرحباً»، هل يوجد أحد هنا؟ تؤدي إلى عملية احتيال لاستنساخ الصوت، فإن المحادثة الأطول تساعد المحتالين على التقاط المزيد من التفاصيل الصوتية، لذلك من الأفضل أن تكون المكالمات قصيرة حتى تتأكد من هوية المتصل.
ويوجد لاستنساخ الصوت تطبيقات قيّمة في مجال الترفيه والرعاية الصحية فهو يتيح العمل الصوتي عن بعد للفنانين (حتى بعد وفاتهم) ومساعدة الأشخاص الذين يعانون من إعاقات في النطق، ومع ذلك، فإنه يثير مخاوف خطيرة بشأن الخصوصية والأمن، ما يؤكد الحاجة إلى توفير الضمانات.
انتحال شخصيات
يستغل الهاكرز تقنية استنساخ الصوت لانتحال شخصيات مهمة ويخلقون حالة من الاستعجال، ويكتسبون ثقة الضحية ويطلبون المال عبر بطاقات الهدايا أو التحويلات البنكية أو العملات المشفرة.
تبدأ العملية بجمع عينات صوتية من مصادر مثل «يوتيوب» و«تيك توك»، وتقوم التقنية بتحليل الصوت لتوليد تسجيلات جديدة، وبمجرد استنساخ الصوت، يمكن استخدامه في الاتصالات الخادعة، وغالباً ما يكون ذلك مصحوباً بتزييف هوية المتصل ليبدو كأنه جدير بالثقة، وعلى سبيل المثال وقع رجل أعمال في مومباي ضحية لعملية احتيال باستنساخ الصوت من خلال مكالمة وهمية.
في أستراليا، استخدم المحتالون نسخة طبق الأصل من صوت كوينزلاند ستيفن مايلز، رئيس وزراء ولاية، لمحاولة خداع الناس للاستثمار في البيتكوين.
عمليات احتيال
تشير الأبحاث الحديثة إلى أن 28% من البالغين في المملكة المتحدة واجهوا عمليات احتيال تتعلق باستنساخ الأصوات العام الماضي، بينما لم يكن 46% منهم على علم بوجود هذا النوع من الاحتيال، وفي عام 2022، أبلغ 240 ألف أسترالي عن وقوعهم ضحايا لعمليات احتيال استنساخ الصوت، وخسارة بلغت 568 مليون دولار أسترالي.
الحماية
وضع الباحثون أربعة خطوات للحماية من مثل هذه الحيل، وهي:
1- يمكن أن تساعد حملات التوعية العامة والتثقيف في حماية الأشخاص والمؤسسات والتخفيف من هذه الأنواع من الاحتيال.
2- ينبغي على الأفراد والمؤسسات أن يتطلعوا إلى استخدام الأمان البيومتري مع الكشف عن حيوية الصوت، وهي تقنية جديدة يمكنها التعرف إلى الصوت الحي والتحقق منه بدلاً من الصوت المزيف، وينبغي للمؤسسات التي تستخدم التعرف إلى الصوت أن تفكر في اعتماد المصادقة متعددة العوامل.
3- تعزيز القدرة على التحقيق ضد استنساخ الصوت يعد إجراءً حاسماً آخر لإنفاذ القانون.
4- قواعد دقيقة ومحدثة للدول لإدارة المخاطر المرتبطة بها.
تعترف سلطات إنفاذ القانون الأسترالية بالفوائد المحتملة للذكاء الاصطناعي.
تقليل المخاطر
بما أن الجرائم الإلكترونية تكلف الاقتصاد الأسترالي 42 مليار دولار، فإن الوعي العام والضمانات القوية أمران ضروريان، فإن دولاً مثل أستراليا تدرك الخطر المتزايد، وتعتمد فعالية التدابير المتخذة لمكافحة استنساخ الأصوات وغيرها من أشكال الاحتيال على مدى قدرتها على التكيف وتكلفتها وقابليتها للتطبيق ومدى امتثالها للقواعد التنظيمية.

إخترنا لك

أخبار ذات صلة

0 تعليق