موظفو OpenAI يتهمون الشركة بإهمال بروتوكولات السلامة والأمن .. ما الذى يعنيه ذلك؟
كانت شركة OpenAI في طليعة طفرة الذكاء الاصطناعي من خلال روبوت الدردشة ChatGPT ونماذج اللغة الكبيرة المتقدمة (LLMs)، لكن سجل السلامة الخاص بالشركة أثار المخاوف. فقد زعم تقرير جديد أن شركة الذكاء الاصطناعي تتعجل وتتجاهل بروتوكولات السلامة والأمان أثناء تطوير نماذج جديدة. ويسلط التقرير الضوء على أن الإهمال حدث قبل إطلاق أحدث طراز من OpenAI، GPT-4 Omni (أو GPT-4o)، وفقًا لـ gadgets360.
قام العديد من موظفي OpenAI المجهولين مؤخرًا بالتوقيع على خطاب مفتوح يعربون فيه عن مخاوفهم بشأن نقص الرقابة حول بناء أنظمة الذكاء الاصطناعي، كما أنشأت شركة الذكاء الاصطناعي أيضًا لجنة جديدة للسلامة والأمن تضم أعضاء مجلس إدارة ومدراء مختارين لتقييم وتطوير بروتوكولات جديدة.
ويقال إن شركة OpenAI تتجاهل بروتوكولات السلامة، ومع ذلك، قال ثلاثة موظفين لم يتم الكشف عن أسمائهم في شركة OpenAI لصحيفة واشنطن بوست إن الفريق شعر بالضغط لتسريع تنفيذ بروتوكول اختبار جديد مصمم “لمنع نظام الذكاء الاصطناعي من التسبب في أضرار كارثية، لتلبية الموعد النهائي للإطلاق في شهر مايو الذي حدده قادة OpenAI”.
ومن الجدير بالذكر أن هذه البروتوكولات موجودة لضمان عدم قيام نماذج الذكاء الاصطناعي بتوفير معلومات ضارة مثل كيفية بناء الأسلحة الكيميائية والبيولوجية والإشعاعية والنووية (CBRN) أو المساعدة في تنفيذ الهجمات الإلكترونية.
وعلاوة على ذلك، سلط التقرير الضوء على وقوع حادثة مماثلة قبل إطلاق GPT-4o، الذي وصفته الشركة بأنه نموذج الذكاء الاصطناعي الأكثر تقدمًا لديها. لقد خططوا للإطلاق قبل معرفة ما إذا كان من الآمن إطلاقه، ونقل التقرير عن موظف لم يُذكر اسمه في OpenAI قوله: “لقد فشلنا في هذه العملية بشكل أساسي”.
هذه ليست المرة الأولى التي يشير فيها موظفو OpenAI إلى تجاهل واضح لبروتوكولات السلامة والأمان الخاصة بالشركة. في الشهر الماضي، وقع العديد من الموظفين السابقين والحاليين في OpenAI وGoogle DeepMind على خطاب مفتوح يعربون فيه عن مخاوفهم بشأن الافتقار إلى الرقابة في بناء أنظمة الذكاء الاصطناعي الجديدة التي قد تشكل مخاطر كبيرة.
وقد دعت الرسالة إلى تدخل الحكومة وآليات تنظيمية، فضلاً عن توفير حماية قوية للمبلغين عن المخالفات من قبل أصحاب العمل. وقد أيد اثنان من العرابين الثلاثة للذكاء الاصطناعي، جيفري هينتون ويوشوا بينجيو، الرسالة المفتوحة.
في شهر مايو، أعلنت شركة OpenAI عن إنشاء لجنة جديدة للسلامة والأمن، مكلفة بتقييم وتطوير عمليات الذكاء الاصطناعي الخاصة بالشركة والضمانات المتعلقة “بقرارات السلامة والأمن الحاسمة لمشاريع وعمليات OpenAI”. كما شاركت الشركة مؤخرًا إرشادات جديدة لبناء نموذج ذكاء اصطناعي مسؤول وأخلاقي، يسمى Model Spec.
للمزيد : تابعنا هنا ، وللتواصل الاجتماعي تابعنا علي فيسبوك وتويتر .
مصدر المعلومات والصور: youm7
اكتشاف المزيد من رأي الأمة
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.