7579HJ
تقنية

مهندس مايكروسوفت يحذر من برنامج Copilot: ليس آمنًا ويمكن أن يولد صورًا ضارة

القاهرة: «رأي الأمة»

تعد Bing Chat من Microsoft واحدة من أولى برامج الدردشة الآلية التي تعمل بالذكاء الاصطناعي والتي تقدم ميزات إنشاء الصور وتوفر للمستخدمين مكانًا يمكنهم من خلاله الحصول على المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي بالإضافة إلى الصور. على مدى الأشهر القليلة الماضية، استمر Bing AI في التطور. يُعرف الآن باسم Copilot، ومع ذلك، وفقًا لأحد موظفي Microsoft، فإن ميزة إنشاء الصور في Copilot ليست آمنة كما ينبغي، حيث يقول أحد مهندسي Microsoft أن Copilot غير آمن، وفقًا لموقع indiatoday.

أعرب شين جونز، مهندس الذكاء الاصطناعي في مايكروسوفت، علنًا عن مخاوفه بشأن برنامج Copilot. وفي منشور على LinkedIn، قال جونز إن أداة الذكاء الاصطناعي الخاصة بالشركة لا تتمتع بالضمانات اللازمة ضد إنتاج صور عنيفة وجنسية، على الرغم من المحاولات المتعددة لتنبيه إدارة Microsoft. بخصوص هذه المشكلات، ادعى جونز أنه لم يتم اتخاذ أي إجراء، وأرسل خطابًا إلى لجنة التجارة الفيدرالية (FTC) ومجلس إدارة مايكروسوفت.

وفي الرسالة المنشورة على LinkedIn، كشف جونز، الذي كان يعمل كمدير أول لهندسة البرمجيات في Microsoft، أن الشركة كانت على علم داخليًا بالمشكلات النظامية المتعلقة بمولد الصور AI، وتحديدًا Copilot Designer من Microsoft. تقوم الأداة، المدعومة بنظام DALL-E 3 AI الخاص بـ OpenAI، بإنشاء صور بناءً على المطالبات النصية. جادل جونز بأن برنامج Copilot Designer واجه “مشكلات نظامية” في إنشاء محتوى ضار وحث على إزالته من الاستخدام العام حتى يتم حل هذه المشكلات.

وأشار جونز إلى أن الأداة تفتقر إلى القيود المناسبة، وكثيرًا ما تولد صورًا تضفي طابعًا جنسيًا على النساء حتى مع وجود ادعاءات غير ذات صلة.

كما انتقد جونز الشركة لتسويق برنامج Copilot Designer باعتباره آمنًا ليستخدمه أي شخص دون الكشف عن المخاطر المعروفة. وقال إن مخاوفه تم التحقق من صحتها من خلال مشكلات تتعلق بالسلامة في يناير، مما دفع Microsoft إلى تحديث برنامج Copilot Designer ومعالجة مشكلات مماثلة. وفي الوقت نفسه، قامت الشركة بترويج برنامج Copilot بشكل كبير باعتباره رفيقًا للذكاء الاصطناعي يمكن الوصول إليه للشركات والمساعي الإبداعية.

استجابة مايكروسوفت

ردت مايكروسوفت، من خلال متحدث باسمها، على رسالة جونز.

وبحسب CNBC، قالت الشركة إنها “ملتزمة بمعالجة أي وجميع مخاوف الموظفين وفقًا لسياسات الشركة”، وأضافت الشركة أنها تقدر جهود موظفيها في “دراسة واختبار أحدث تقنياتها لتعزيز سلامتها”. “.

وكشف جونز أيضًا أنه حاول التحدث علنًا ضد Microsoft Copilot في وقت سابق أيضًا. لقد شارك أنه نشر نفس الشيء تقريبًا على LinkedIn في ديسمبر، ولكن يُزعم أنه تعرض لضغوط من فريق الشؤون القانونية والخارجية والشؤون المؤسسية في Microsoft لإزالة المنشور. وأشار موظف Microsoft إلى أن منشوره يحث… قام مجلس إدارة OpenAI بتعليق DALL-E 3 بسبب مخاوف تتعلق بالسلامة، وعلى الرغم من امتثاله، ادعى جونز أنه لم يتلق أي تفسير من الإدارة القانونية.

للمزيد : تابعنا هنا ، وللتواصل الاجتماعي تابعنا علي فيسبوك وتويتر .

مصدر المعلومات والصور: youm7

 

زر الذهاب إلى الأعلى