7579HJ
تقنية

عدم المساواة والمعلومات المضللة أبرز مخاطر الذكاء الاصطناعى ومطالب بالحماية

عدم المساواة والمعلومات المضللة أبرز مخاطر الذكاء الاصطناعى ومطالب بالحماية
القاهرة: «رأي الأمة»

حذر العديد من موظفي OpenAI السابقين في رسالة مفتوحة من أن شركات الذكاء الاصطناعي المتقدمة مثل OpenAI تخنق النقد والرقابة، خاصة مع تزايد المخاوف بشأن سلامة الذكاء الاصطناعي في الأشهر القليلة الماضية.

تقول الرسالة المفتوحة، التي وقعها 13 موظفًا سابقًا في OpenAI (ستة منهم اختاروا عدم الكشف عن هويتهم) وأيدها “عراب الذكاء الاصطناعي” جيفري هينتون، الذي كان يعمل سابقًا في شركة جوجل، إنه في غياب أي رقابة حكومية فعالة، يجب على شركات الذكاء الاصطناعي. الالتزام بما يلي: مبادئ النقد المفتوح. وتشمل هذه المبادئ تجنب إنشاء وإنفاذ شروط عدم الاستخفاف، وتسهيل عملية مجهولة “يمكن التحقق منها” للإبلاغ عن المشكلات، والسماح للموظفين الحاليين والسابقين بإثارة المخاوف للجمهور، وعدم الانتقام من المبلغين عن المخالفات.

تقول الرسالة إنه بينما يؤمنون بإمكانية فائدة الذكاء الاصطناعي للمجتمع، فإنهم يرون أيضًا مخاطر، مثل عدم المساواة الراسخة، والتلاعب والمعلومات المضللة، وإمكانية انقراض الإنسان.

في حين أن هناك مخاوف مهمة بشأن آلة يمكن أن تسيطر على الكوكب، يواجه الذكاء الاصطناعي التوليدي اليوم المزيد من مشاكل الحياة الواقعية، مثل انتهاكات حقوق الطبع والنشر، والمشاركة غير المقصودة للصور الإشكالية وغير القانونية، والمخاوف من أنها قد تقلد أشكال الأشخاص وأحجامهم. وتضليل الجمهور.

يزعم الموقعون على الرسالة أن الحماية الحالية للمبلغين عن المخالفات “غير كافية” لأنها تركز على النشاط غير القانوني بدلاً من المخاوف التي يقولون إنها في الغالب غير منظمة. تنص وزارة العمل على أن العمال الذين يبلغون عن انتهاكات الأجور والتمييز والسلامة والاحتيال وحجب الإجازات يتمتعون بالحماية بموجب القوانين. حماية المبلغين عن المخالفات، مما يعني أنه لا يمكن لأصحاب العمل فصل المبلغين عن المخالفات أو تسريحهم أو تقليل ساعات عملهم أو خفض رتبتهم. ويخشى البعض منا بشكل معقول أشكالاً مختلفة من الانتقام، نظراً لتاريخ مثل هذه الحالات في جميع أنحاء الصناعة. وجاء في الرسالة: “لسنا أول من واجه هذه القضايا أو تحدث عنها”.

وقد تعرضت شركات الذكاء الاصطناعي، وخاصة OpenAI، لانتقادات بسبب عدم كفاية مراقبة السلامة، ودافعت جوجل عن استخدامها لمحات عامة عن الذكاء الاصطناعي في البحث حتى بعد أن ادعى الناس أنها كانت تعطيهم نتائج خطيرة، وإن كانت مضحكة.

كما تعرضت مايكروسوفت لانتقادات شديدة بسبب برنامج Copilot Designer، الذي أنتج صورًا جنسية لنساء في لوحات عنيفة.

وفي الآونة الأخيرة، استقال العديد من الباحثين في شركة OpenAI بعد أن قامت الشركة بحل فريق “Superalignment”، الذي كان يركز على معالجة مخاطر الذكاء الاصطناعي طويلة المدى، ورحيل المؤسس المشارك إيليا سوتسكيفر، الذي كان يدافع عن السلامة في الشركة.

قال جان ليك، أحد الباحثين السابقين: “لقد أفسحت ثقافة وعمليات السلامة المجال أمام المنتجات اللامعة” في OpenAI، ولدى OpenAI فريق جديد للسلامة، بقيادة الرئيس التنفيذي سام ألتمان.

للمزيد : تابعنا هنا ، وللتواصل الاجتماعي تابعنا علي فيسبوك وتويتر .

مصدر المعلومات والصور: youm7

 

زر الذهاب إلى الأعلى