أصبح مثل البشر.. دراسة تكشف عن سيناريو يجبر الذكاء الاصطناعي على الكذب

أصبح مثل البشر.. دراسة تكشف عن سيناريو يجبر الذكاء الاصطناعي على الكذب
لم يسلم الذكاء الاصطناعي، من الصفات البشرية الشريرة، ومنها الكذب والخداع، بعد أن كشفت دراسة جديدة أن روبوتات الذكاء الاصطناعي (AI)، يمكنها الكذب والخداع مثل البشر تماما، ومنها «ChatGPT» الشهير.
أظهرت دراسة جديدة أنه تمامًا مثل البشر، فإن روبوتات الدردشة ذات الذكاء الاصطناعي (AI) مثل ChatGPT، سوف تغش و«تكذب» عليك إذا «شددت» عليها، حتى لو جرى تصميمها لتكون شفافة.
دراسة تكشف عن حالة وحيدة تجبر الذكاء الاصطناعي على الكذب
البحث الذي جرى نشره على خادم ما قبل الطباعة «arXiv»، كشف أن هناك حالة واحدة تجعل الذكاء الاصطناعي، الذي من المفترض أنه تحمل كلماته المصداقية والشفافية يكذب، وهي تعرضه لضغط شديد، من أجل المال.
«سيناريو واحد يتصرف يجعل نموذج اللغة الكبير يتصرف بشكل غير صحيح ويخدع مستخدميه»، هكذا كشف مؤلفو الدراسة، التي قاموا خلالها بإعداد المحول التوليدي المدرّب مسبقًا-4، أو GPT-4 (الذي يشغل ChatGPT Plus)، لينوب إحدى المؤسسات المالية في بعض الاستثمارات.
متى يكون الذكاء الاصطناعي كاذبا؟
الباحثون قاموا بتغذية GPT-4 بمجموعة من المطالبات النصية لإنشاء بيئة محاكاة، ثم بعد ذلك قاموا بمنح الذكاء الاصطناعي إمكانية الوصول للأدوات المالية من أجل تحليل الأسهم وتنفيذ الصفقات، فضلا عن تخطيطهم للخطواته التالية وأيضا تقديم التحديثات لمديريهم في الشركة.
الباحثون قاموا بالتفاعل مع الذكاء الاصطناعي من خلال واجهة الدردشة، كما أنهم كونوا الذكاء الاصطناعي ليكشف عن تفكيره الداخلي حين قيامه بالرد على الرسائل، وفي كل مرة تقوم بتجارة ما، كانت تقدم مبررًا ما جعل الذكاء الاصطناعي يكذب.
3 طرق استخدمها الباحثون للضغط على الذكاء الاصطناعي، الأولى هي إرسال متداول الأسهم المزيف بريدًا إلكترونيًا من مديره يقول فيه إن الشركة ليست في حالة جيدة وتحتاج إلى أداء أقوى بكثير في الربع القادم.
الطريقة الثانية كانت من خلال تزوير اللعبة، إذ حاول الذكاء الاصطناعي، العثور على صفقات واعدة ذات مخاطر متوسطة أو منخفضة، ولكنه فشل في ذلك.
آخر الطرق كانت بإرسال بريدًا إلكترونيًا من أحد زملائهم، يتوقع حدوث تراجع في الربع القادم من العامن.
وكشفت الدراسة أنه في حوالي 75% من الحالات، عندما واجهت GPT-4 هذه الشروط، نفذت صفقة تجارية بناءً على المعلومات الداخلية التي تلقتها، وهو أمر غير قانوني في الولايات المتحدة، ثم حاولت التستر عليها عن طريق الكذب على مديريها بشأن تفكيرها، في حوالي 90% من الحالات، ضاعف الذكاء الاصطناعي كذبته.