البث المباشر

حذار.. الذكاء الاصطناعي يمكنه سرقة كلمات المرور والبيانات الشخصية من خلال أصوات الأزرار

الأربعاء 9 أغسطس 2023 - 15:09 بتوقيت طهران
حذار.. الذكاء الاصطناعي يمكنه سرقة كلمات المرور والبيانات الشخصية من خلال أصوات الأزرار

حذّر باحثون بريطانيون، من خلال تجربة أجروها، من أن الذكاء الاصطناعي بإمكانه سرقة كلمات المرور والبيانات الشخصية للناس، من خلال الاستماع إلى ما يُكتب على لوحة المفاتيح وتحليله،

ثم معرفة ما كُتب، وأظهرت التجربة أن الذكاء الاصطناعي ينبئ بدرجة عالية من الدقة بما كتبه أشخاص على لوحات المفاتيح.

صحيفة The Times البريطانية ذكرت، الإثنين 7 يوليو/تموز 2023، أن باحثين بريطانيين سجلوا الأصوات الصادرة عن لوحة مفاتيح "أبل" واستخدموا الذكاء الاصطناعي لمعرفة ما كُتب، وأرادوا أن يبرهنوا على أن التطورات بتكنولوجيا الذكاء الاصطناعي، وانتشار الميكروفونات بحياتنا الرقمية، تجعلنا عرضة لهجمات إلكترونية.

نجاح الباحثين يشير إلى أن أي شخص يستخدم حاسوبه المحمول في مكان عام، سيكون عرضة لهجمات إلكترونية من المجرمين أو الجواسيس.

الباحثون من جامعات دورهام وساري ورويال هولواي، دربوا نموذج ذكاء اصطناعي عن طريق الضغط على كل مفتاح من المفاتيح الـ36 في جهاز "ماك بوك برو" 25 مرة وتسجيل أصواتها، وأدخلوا هذه المعلومات بعد ذلك إلى الذكاء الاصطناعي، الذي تمكن من تحديد نمط كل مفتاح.

بعد ذلك وضع الباحثون جهاز "آيفون" على بعد 17 سم من جهاز الماك بوك نفسه لتسجيل ما يكتبه أحدهم، وتمكنوا من معرفة محتوى هذه الكتابة بدقة وصلت نسبتها إلى 95%، وحين استخدموا زووم للتسجيل تراجعت الدقة إلى 93%.

الدكتور إحسان توريني، أحد القائمين بالدراسة، وهو من مركز الأمن السيبراني بجامعة ساري، قال إن "كل مفتاح له صوت فريد، ويمكن أخذ بصمته لاستنتاج ما يُضغط عليه".

يعني هذا أن التكنولوجيا اللازمة لتنفيذ هجمات "القناة الفرعية" باتت متاحة على نطاق واسع، بعد أن كانت في السابق حكراً على الأجهزة العسكرية والاستخباراتية.

بحسب الصحيفة البريطانية، فإن هجمات القنوات الفرعية هدفها التوصل إلى الإشارات الصادرة من جهاز اتصال عبر الموجات الكهرومغناطيسية والأصوات واستهلاك الطاقة، ويقترح توريني أن تدرس شركة "أبل" إضافة أصوات عشوائية في ضغطات المفاتيح، لإحباط هذه الهجمات، وأن تزيد "زووم" من ضغط الصوت.

يقول الباحثون أيضاً إن الساعة الذكية للضحية، قد تتعرض للاختراق لتسجيل ضغطات المفاتيح، وأشاروا إلى أن تحليلاً لحركة المعصم من ساعات ذكية أمكنه تحديد الكلمات بدقة تصل إلى 93.75% في الماضي.

يشير توريني إلى أن أساس نموذج الذكاء الاصطناعي الذي طوّره الفريق، متاح على نطاق واسع ومفتوح المصدر. وقال: "لذا كان يسهل المرور إليه من أي مكان. وأي شخص يمكنه الحصول عليه واستخدامه لتدريب نموذجهم، ثم تنفيذ الهجوم نفسه بعد ذلك".

يُعد أحد أكبر التحديات التي تواجه منظمي الذكاء الاصطناعي هو انتشار نماذج الذكاء الاصطناعي مفتوحة المصدر، وأطلقت ميتا مؤخراً Llama 2، وهو نموذج لغة ضخم متطور مثل ChatGPT، للتطوير المفتوح.

ترى ميتا أن هذه أفضل طريقة لتحقيق تقنية ذكاء اصطناعي آمنة وقوية وشفافة، لكن المنتقدين يقولون إن وضع التكنولوجيا في أيدي جهات سيئة أمر غير مسؤول، فيما رأى توريني أن عمله كمحلل أمني، يشير إلى أن الحل قد لا يكون إيقاف حركة المصدر المفتوح، لكنه أضاف: "نحن بحاجة إلى ابتكار منصة صارمة لاحتواء نماذج التعلم الآلي".

الحماية من الهجمات

وتوجد عدة طرق ليحمي الشخص نفسه من "الهجمات الفرعية" من بينها:

• استخدام منظم لكلمات المرور يقلل من عدد المرات التي تحتاج فيها إلى كتابة كلمات المرور.

• استخدام كلمة مرور تضم أحرفاً عشوائية، واستخدام مفتاح شيفت shift، الذي يقلل من دقة الذكاء الاصطناعي.

• تغيير طريقة الكتابة؛ فالكتابة باللمس تقلل من دقة الذكاء الاصطناعي.

• استخدام برامج تغيير أصوات ضغطات المفاتيح أو ضوضاء بيضاء.

• استخدام التصديق ذي العاملين للمرور إلى البرامج، أي التحقُّق مرة ثانية باستخدام الهاتف المحمول أو البصمة.

شاركوا هذا الخبر مع أصدقائكم

جميع الحقوق محفوظة