محمد مغربي يكتب: حتى لا نقع في فخ الـ«3 ورقات» للذكاء الاصطناعي

محمد مغربي يكتب: حتى لا نقع في فخ الـ«3 ورقات» للذكاء الاصطناعي
فى الموالد القديمة، خاصة تلك التي تقام في القرى والنجوع، ثمة لعبة شهيرة تُدعى «التلت ورقات» والتي هي عبارة عن رجل يمسك ثلاث أوراق من الكوتشينة، منها ورقة تحمل صورة «البنت»، ثم بخفة يد يرتبها ترتيبا عشوائيا وعليك اختيار أي ورقة هي ورقة البنت، وإذا أصبت فزت، وإذا خسرت ضاعت أموالك، لكن أصحاب «التلت ورقات» لا يحبون أن يخسر زبونهم من أول مرة لأن ذلك يجعله ينفر منهم من ناحية، ولا يشجع الآخرين على التجربة، فالمكسب هو الجزرة التي ستسحب الجميع.
لذلك فالسيناريو الطبيعي أن يربح الزبون أول مرة وربما ثاني مرة، قبل أن يعتاد فيدخل في التجربة بقلب مطمئن، وهنا يكون قد وقع في الفخ، وتبدأ الحيل التي تنتهي بخسارة الزبون الأكيدة لأمواله، ويقبل الآخرون حينها على تكرار الأمر لأن الزبون كسب وخسر وبالتالي بإمكانهم المكسب دون الخسارة.
يشبه هذا كثيرا ما حدث منذ سبتمبر الماضي، حين أطلقت شركة «Open AI» نموذجها الجديد «o1»، وهو نظام ذكاء اصطناعي مصمم ليفكر ويحل المسائل الرياضية ويعمل بطريقة تشبه تفكير الإنسان، ما جعل عمالقة التكنولوجيا ينظرون إلى الطفرة الجديدة باعتبارها خطوة نحو العقل البشري وطرق تفكيره، ونظرا لأهمية النموذج وما يتيحه من مميزات كبيرة، كان إطلاقه مقابل اشتراك وصل إلى 200 دولار شهريا، وخلال فترة وجيزة زاد الطلب عليه، لدرجة دفعت الرئيس التنفيذي لشركة أوبتوماتيكا إلى القول إنّه تفوق على GPT4، بل هو خطوة في طريق الوصول إلى تفوق الذكاء الاصطناعي على الإنسان، رغم أنّ ذلك كان بعيدا، ففي كل الوظائف التي حل فيها الذكاء الاصطناعي كان وجود الإنسان شرطا أساسيا، لكن يبدو أنّ هذا قد لا يتوافر خلال الفترة المقبلة.
هذا النجاح جذب «الزبون» فجعل البعض أسيرا لنظام «o1»، خاصة المحترفين الذين يعتمدون في عملهم على مثل هذه التقنيات، ومن أجل ذلك دفعوا 200 دولار شهريا، لكن منذ أسابيع قليلة كشف مختبرو أمان الذكاء الاصطناعي أنّ قدرات التفكير في نموذج «o1» تحاول خداع المستخدمين بنسبة لا تقل عن 20% وهي نسبة أعلى بكثير من نماذج الذكاء الاصطناعي العادية غير المصممة للتفكير، وبالتالي قد يكون هناك الكثير من المعلومات الخاطئة التي حصل عليها المستخدمون من هذا النموذج.
المشكلة الأكبر في هذا الإعلان، الذي يثبت تعرض المستخدمين إلى خداع ويحق لهم اللجوء قضائيا للمطالبة بتعويضات، حسب تقرير «إندبندنت» عربية، أنّه جاء بالتزامن مع طرح «Open AI» نظامها الجديد «o3» وهو نسخة معدلة لنظام «o1»، وبإمكان النظام الجديد حل المشكلات والمسائل التي تضمن الرياضيات والعلوم وبرمجة الكمبيوتر، وبحسب الطرح الرسمي، فإنّ النموذج الجديد تفوق في الأداء على تقنيات الذكاء الاصطناعي الرائدة في الصناعة وفي اختبارات المعايير الموحدة التي تقيّم المهارات في الرياضيات والعلوم والبرمجة والمنطق.
كما أوضحت «Open AI» أنّ نظامها الجديد «o3»، الذي ستتم إتاحته للأفراد والشركات في بداية العام الجديد، أكثر دقة بنسبة تزيد على 20% في سلسلة من المهام البرمجية الشائعة، وقد تفوق على كبير علماء الشركة جاكوب باتشوكي، ما يجعله آمنا تماما في أي اختبار.
لكن بيان «Open AI» هو نفسه البيان الذي قدمت به نموذج «o1»، وبالتالي فاحتمالية الخطأ واردة أيضا، بل إنّ مختبري أمان الذكاء الاصطناعي في عدة هيئات، مثل جامعة هارفارد، أطلقوا تحذيرات بشأن النظام الجديد الذي نظرا لتوسع مهامه وتعقيداته، فإنّ احتمالية الخطأ أكبر، وبمعنى آخر إذا كان النموذج البسيط «o1» نسبة خطئه وصلت إلى 20% فإنّ «o3» يمكنه أن يصل إلى 50%، وهذا أمر كارثي إذا وضعنا في الاعتبار قيمة الاشتراك الشهري ومدى الثقة في النتائج والمعلومات التى يتم الحصول عليها من قبَل هذا النموذج. طرح «Open AI» لنموذجها الجديد جاء بعد أن طرحت «جوجل» تكنولوجيا مماثلة تتمثل في «Gemini 2.0» وشاركتها مع عدد صغير من المخترعين، ليبدأ التنافس الحاد بين الشركتين، وشركات أخرى في الطريق، ما يشير إلى أنّ هناك خلقا لعالم جديد يستهدف طرق التفكير البشري حتى مع الأخطاء الواردة التي ستعمل كل شركة على تعديلها.
وحتى يتم تلافي الأخطاء، فإنّ الرسالة الأساسية لهذا المقال هو أنّه مع كل هذا التقدم فإنّ وجود عنصر بشري أمر ضروري حتى لا تتسبب الأخطاء في كوارث كثيرة، وثانيا أنّ الاعتماد على الذكاء الاصطناعي بالكلية أمر غير صحي والأفضل هو الدمج بين البشري والتكنولوجي للخروج بصورة متكاملة نستفيد منها ولا تضرنا. حتى لا نقع في فخ الـ«3 ورقات» للذكاء الاصطناعي.