كل ما تريد معرفتة عن اتفاق OpenAI وAnthropic بمشاركة نماذج الذكاء الاصطناعى
اتفقت شركة OpenAI وشركة Anthropic على مشاركة نماذج الذكاء الاصطناعي قبل وبعد الإصدار مع معهد سلامة الذكاء الاصطناعي الأمريكي. ستقدم الوكالة، التي تم إنشاؤها بموجب الأمر التنفيذي للرئيس بايدن في عام 2023، ملاحظات السلامة للشركات لتحسين نماذجها. ألمح الرئيس التنفيذي لشركة OpenAI سام ألتمان إلى الاتفاقية في وقت سابق من هذا الشهر.
ولم يذكر معهد سلامة الذكاء الاصطناعي أسماء شركات أخرى تعمل في مجال الذكاء الاصطناعي، لكن متحدثًا باسم جوجل قال لموقع إنجادجيت في تصريح له إن الشركة تجري مناقشات مع الوكالة وستشارك المزيد من المعلومات عندما تتوفر. وبدأت جوجل في طرح نماذج محدثة من روبوتات الدردشة ومولدات الصور الخاصة بها لنظام جيميني هذا الأسبوع.
السلامة ضرورية لتحفيز الابتكار التكنولوجي الرائد، وكتبت إليزابيث كيلي، مديرة معهد سلامة الذكاء الاصطناعي، في بيان: “مع وضع هذه الاتفاقيات موضع التنفيذ، نتطلع إلى بدء تعاوننا الفني مع Anthropic وOpenAI لتطوير علم سلامة الذكاء الاصطناعي. هذه الاتفاقيات ليست سوى البداية، لكنها تمثل معلمًا مهمًا بينما نعمل على المساعدة في إدارة مستقبل الذكاء الاصطناعي بشكل مسؤول “.
يعد معهد سلامة الذكاء الاصطناعي جزءًا من المعهد الوطني للمعايير والتكنولوجيا (NIST). وهو ينشئ وينشر المبادئ التوجيهية والاختبارات الموحدة وأفضل الممارسات لاختبار وتقييم أنظمة الذكاء الاصطناعي التي يحتمل أن تكون خطيرة.
قالت نائبة الرئيس كامالا هاريس في أواخر عام 2023 بعد إنشاء الوكالة: “كما أن الذكاء الاصطناعي لديه القدرة على فعل الخير العظيم، فإنه لديه أيضًا القدرة على التسبب في ضرر عميق، من الهجمات الإلكترونية المدعومة بالذكاء الاصطناعي على نطاق يتجاوز أي شيء رأيناه من قبل إلى الأسلحة البيولوجية المصنعة بواسطة الذكاء الاصطناعي والتي يمكن أن تعرض ملايين الأرواح للخطر”.
إن الاتفاق الأول من نوعه يأتي من خلال مذكرة تفاهم (اتفاقية رسمية ولكنها غير ملزمة)، وستتمكن الوكالة من الوصول إلى “النماذج الأولية الرئيسية الجديدة” لكل شركة قبل وبعد إصدارها للجمهور. تصف الوكالة الاتفاقيات بأنها بحث تعاوني للتخفيف من المخاطر من شأنه تقييم القدرات والسلامة، كما سيتعاون معهد سلامة الذكاء الاصطناعي الأمريكي مع معهد سلامة الذكاء الاصطناعي في المملكة المتحدة.
يأتي هذا في الوقت الذي تحاول فيه الهيئات التنظيمية الفيدرالية والولائية إنشاء حواجز وقائية للذكاء الاصطناعي في حين أن التكنولوجيا المتقدمة بسرعة لا تزال في مهدها.
في هذا الأسبوع، أقر مجلس النواب في ولاية كاليفورنيا مشروع قانون سلامة الذكاء الاصطناعي (SB 10147) والذي من شأنه أن يتطلب إجراء اختبارات السلامة على نماذج الذكاء الاصطناعي التي تكلف أكثر من 100 مليون دولار لتطويرها أو تتطلب قدرًا معينًا من قوة الحوسبة. ويتطلب مشروع القانون من شركات الذكاء الاصطناعي أن يكون لديها مفاتيح إيقاف يمكنها إيقاف النماذج إذا أصبحت “غير قابلة للتشغيل أو غير قابلة للإدارة”.
وعلى النقيض من الاتفاق غير الملزم مع الحكومة الفيدرالية، فإن مشروع القانون في كاليفورنيا سيكون لديه بعض القوة التنفيذية، مما يمنح المدعي العام للولاية ترخيصًا لمقاضاة مطوري الذكاء الاصطناعي إذا فشلوا في الامتثال، وخاصة أثناء الأحداث التي تشكل مستوى التهديد.
ومع ذلك، لا يزال الأمر يتطلب تصويتًا إضافيًا وتوقيع الحاكم جافين نيوسوم، الذي سيكون لديه حتى 30 سبتمبر/أيلول ليقرر ما إذا كان سيعطي الضوء الأخضر أم لا.
للمزيد : تابعنا هنا ، وللتواصل الاجتماعي تابعنا علي فيسبوك وتويتر .
مصدر المعلومات والصور: youm7
اكتشاف المزيد من رأي الأمة
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.