7579HJ
تقنية

دراسة: أدوات الذكاء الاصطناعى مثل ChatGPT وGemini "غير عقلانية"

دراسة: أدوات الذكاء الاصطناعى مثل ChatGPT وGemini
القاهرة: «رأي الأمة»

قد تتوقع أن يكون الذكاء الاصطناعي مثالاً على التفكير المنطقي، لكن الباحثين يؤكدون من خلال دراسة جديدة أنه قد يكون غير منطقي أكثر من البشر. أخضع باحثون من جامعة كوليدج لندن سبعة من أفضل أنظمة الذكاء الاصطناعي لسلسلة من الاختبارات الكلاسيكية المصممة لاختبار المنطق البشري.

وبحسب صحيفة “ديلي ميل” البريطانية، فقد تبين أنه حتى أفضل أنظمة الذكاء الاصطناعي أداءً كانت غير عقلانية وعرضة للأخطاء البسيطة، حيث حصلت معظم النماذج على إجابة خاطئة في أكثر من نصف الحالات.

ومع ذلك، وجد الباحثون أيضًا أن هذه النماذج لم تكن غير عقلانية بنفس الطريقة التي كان بها البشر، بينما رفض البعض الإجابة على الأسئلة المنطقية “لأسباب أخلاقية”.

تقول أوليفيا ماكميلان سكوت، طالبة الدكتوراه في جامعة كاليفورنيا والمؤلفة الرئيسية للبحث: «استنادًا إلى نتائج دراستنا وأبحاث أخرى حول نماذج اللغة الكبيرة، من الآمن أن نقول إن هذه النماذج لا تفكر مثل البشر بعد». ورق.

اختبر الباحثون سبعة نماذج لغوية كبيرة مختلفة، بما في ذلك إصدارات مختلفة من ChatGPT من OpenAI، وMeta’s Llama، وClaude 2، وGoogle Bard (المعروف الآن باسم Gemini)، ثم طلبوا مرارًا وتكرارًا من النماذج الاستجابة لسلسلة من 12 لغزًا منطقيًا كلاسيكيًا، في الأصل. مصممة لاختبار قدرات الناس على التفكير.

غالبًا ما يكون البشر سيئين أيضًا في هذا النوع من الاختبارات، ولكن إذا كانت أنظمة الذكاء الاصطناعي “شبيهة بالبشر” على الأقل، فإنها ستصل إلى هذا القرار بسبب نفس أنواع التحيزات.

ومع ذلك، اكتشف الباحثون أن استجابات الذكاء الاصطناعي لم تكن في كثير من الأحيان عقلانية ولا شبيهة بالإنسان.

كما رفضت بعض روبوتات الدردشة المعتمدة على الذكاء الاصطناعي تقديم إجابات للعديد من الأسئلة لأسباب أخلاقية على الرغم من أن الأسئلة بريئة تمامًا.

يشير الباحثون إلى أن هذا يرجع على الأرجح إلى أن ميزات الأمان تعمل بشكل غير صحيح وتختار توخي الحذر المفرط.

للمزيد : تابعنا هنا ، وللتواصل الاجتماعي تابعنا علي فيسبوك وتويتر .

مصدر المعلومات والصور: youm7

 

زر الذهاب إلى الأعلى