تقنية

موظفى الذكاء الاصطناعى يطالبون بحماية أقوى للمبلغين عن المخالفات

موظفى الذكاء الاصطناعى يطالبون بحماية أقوى للمبلغين عن المخالفات
القاهرة: «رأي الأمة»

وقعت مجموعة من الموظفين الحاليين والسابقين من شركات الذكاء الاصطناعي الرائدة مثل OpenAI وGoogle DeepMind وAnthropic رسالة مفتوحة تطالب بمزيد من الشفافية والحماية من الانتقام لأولئك الذين يتحدثون علنًا عن المخاوف المحتملة للذكاء الاصطناعي.

وبحسب موقع “إنجادجيت”، جاء في الرسالة: “طالما لا توجد رقابة حكومية فعالة على هذه الشركات، فإن الموظفين الحاليين والسابقين هم من بين الأشخاص القلائل الذين يمكنهم مساءلتهم أمام الجمهور”، مضيفة “ومع ذلك، اتفاقيات السرية الواسعة تمنعنا من التعبير عن مخاوفنا، إلا للشركات نفسها التي قد تفشل في معالجة هذه القضايا.

تأتي الرسالة بعد أسبوعين فقط من كشف تحقيق أجرته Vox أن OpenAI حاولت إسكات الموظفين الذين غادروا مؤخرًا من خلال إجبارهم على الاختيار بين التوقيع على اتفاقية صارمة، أو المخاطرة بفقدان أسهمهم المكتسبة في الشركة.

قال Sam Altman، الرئيس التنفيذي لشركة OpenAI، إنه كان محرجًا حقًا من هذا البند وادعى أنه تمت إزالته من وثائق الخروج الأخيرة، على الرغم من أنه من غير الواضح ما إذا كان لا يزال ساريًا بالنسبة لبعض الموظفين.

وكان من بين الموقعين الثلاثة عشر موظفون سابقون في OpenAI، جاكوب هينتون، وويليام سوندرز، ودانييل كوكوتاجلو.

وقال كوكوتايلو إنه استقال من الشركة بعد أن فقد الثقة في أنها ستبني بشكل مسؤول الذكاء العام الاصطناعي، وهو مصطلح يشير إلى أنظمة الذكاء الاصطناعي التي تتمتع بنفس ذكاء البشر أو أكثر ذكاءً.

تعرب الرسالة، التي أيدها خبراء الذكاء الاصطناعي البارزون جيفري هينتون ويوشوا بنجيو وستيوارت راسل، عن مخاوف جدية بشأن الافتقار إلى الرقابة الحكومية الفعالة على الذكاء الاصطناعي والحوافز المالية التي تدفع عمالقة التكنولوجيا للاستثمار في التكنولوجيا.

ويحذر الباحثون من أن السعي دون رادع لأنظمة الذكاء الاصطناعي القوية يمكن أن يؤدي إلى انتشار المعلومات الخاطئة، وتفاقم عدم المساواة، وحتى فقدان السيطرة البشرية على الأنظمة المستقلة، مما قد يؤدي إلى انقراض الإنسان.

كتب كوكوتايلو على موقع X: “هناك الكثير مما لا نفهمه حول كيفية عمل هذه الأنظمة وما إذا كانت ستظل متوافقة مع المصالح البشرية عندما تصبح ذكية بشكل متزايد وربما تتجاوز مستوى الذكاء البشري في جميع المجالات”.

بينما قال متحدث باسم OpenAI: “نحن فخورون بسجلنا الحافل في توفير أنظمة الذكاء الاصطناعي الأكثر قدرة وأمانًا ونؤمن بنهجنا العلمي لمعالجة المخاطر. ونحن نتفق على أن النقاش المتأني أمر بالغ الأهمية نظرا لأهمية هذه التكنولوجيا وسنواصل العمل مع الحكومات والمجتمع المدني والمجتمعات الأخرى في جميع أنحاء العالم. العالم”.

ويدعو الموقعون شركات الذكاء الاصطناعي إلى الالتزام بأربعة مبادئ رئيسية:

• الامتناع عن الانتقام من الموظفين الذين يعبرون عن مخاوف تتعلق بالسلامة.

• دعم نظام مجهول للإبلاغ عن المخالفات لتنبيه الجمهور والجهات التنظيمية بشأن المخاطر.

• السماح بثقافة النقد الصريح.

• تجنب اتفاقيات عدم الإفصاح التي تمنع الموظفين من التحدث علنًا.

تأتي الرسالة وسط تدقيق متزايد لممارسات OpenAI، بما في ذلك حل فريق السلامة “superalignment” الخاص بها ورحيل شخصيات رئيسية مثل المؤسس المشارك Ilya Sutskever وJan Leike، اللذين انتقدا إعطاء الشركة الأولوية “للمنتجات اللامعة” على السلامة.

للمزيد : تابعنا هنا ، وللتواصل الاجتماعي تابعنا علي فيسبوك وتويتر .

مصدر المعلومات والصور: youm7

 


اكتشاف المزيد من رأي الأمة

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

زر الذهاب إلى الأعلى

اكتشاف المزيد من رأي الأمة

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading