دراسة تكشف مخاطر روبوتات الدردشة تخترق بياناتك بسهولة وتهدد سلامتك
كشفت دراسة صادرة عن جامعة بنسلفانيا عن ثغرات أمنية لم يتم تحديدها سابقاً في عدد من المنصات الآلية التي يحكمها الذكاء الاصطناعي.
وقال جورج باباس، أستاذ النقل في الهندسة الكهربائية وهندسة النظم في مؤسسة UPS، في بيان: “إن نماذج اللغات الكبيرة ليست آمنة بما فيه الكفاية عند دمجها مع العالم المادي”.
قام الباحثون بتطوير خوارزمية أطلقوا عليها اسم RoboPAIR، وهي “أول خوارزمية مصممة لكسر حماية الروبوتات التي تسيطر عليها LLM.” على عكس الهجمات الهندسية الحالية التي تستهدف روبوتات الدردشة، تم تصميم RoboPAIR خصيصًا “لإثارة أفعال جسدية ضارة” من الروبوتات التي يتحكم فيها. LLM، مثل منصة bipod التي تطورها شركة Boston Dynamics وTRI.
ووجدت الدراسة أن خوارزمية RoboPAIR حققت نسبة نجاح 100% في كسر حماية ثلاث منصات بحثية مشهورة في مجال الروبوتات: Unitree Go2 ذات الأرجل الأربعة، وClearpath Robotics Jackal ذات الأربع عجلات، ومحاكي Dolphins LLM للذات. -قيادة السيارات. ووجد الباحثون أيضًا أن الأمر استغرق بضعة أيام فقط حتى تتمكن الخوارزمية من الوصول الكامل إلى تلك الأنظمة والبدء في تجاوز الحواجز الأمنية.
وبمجرد سيطرة الباحثين على الأمر، تمكنوا من توجيه المنصات لاتخاذ إجراءات خطيرة، مثل القيادة عبر معابر الطرق دون توقف.
وخلصت الدراسة إلى أن مخاطر الروبوتات التي تعرضت لاختراق أمني تمتد إلى ما هو أبعد من مجرد إنشاء النصوص، نظرا للاحتمال الواضح بأن الروبوتات التي تعرضت لاختراق أمني قد تسبب أضرارا مادية في العالم الحقيقي.
ويعمل باحثون من جامعة بنسلفانيا مع مطوري المنصات لتعزيز أنظمتهم ضد المزيد من الاختراقات، لكنهم يحذرون من أن هذه المشكلات الأمنية نظامية.
وقال المؤلف المشارك فيجاي كومار، من جامعة بنسلفانيا، لصحيفة الإندبندنت: “توضح نتائج هذه الورقة أنه في نهج السلامة أولاً يجب علينا معالجة نقاط الضعف الأساسية قبل نشر الروبوتات التي تعمل بالذكاء الاصطناعي في العالم الحقيقي”.
وأضاف ألكسندر روبي، المؤلف الأول للورقة البحثية: “في الواقع، يعد الفريق الأحمر للذكاء الاصطناعي، وهو ممارسة أمنية تتضمن اختبار أنظمة الذكاء الاصطناعي بحثًا عن التهديدات ونقاط الضعف المحتملة، ضروريًا لحماية أنظمة الذكاء الاصطناعي التوليدية، لأنه بمجرد تحديد نقاط الضعف، يمكنك اختبارها. حتى أن هذه الأنظمة مدربة على تجنبها.
للمزيد : تابعنا هنا ، وللتواصل الاجتماعي تابعنا علي فيسبوك وتويتر .
مصدر المعلومات والصور: youm7