شركة «OpenAI» تختبر تدريب الذكاء اصطناعي على الإقناع من خلال «Reddit»

شركة «OpenAI» تختبر تدريب الذكاء اصطناعي على الإقناع من خلال «Reddit»
شهد مجال الذكاء الاصطناعي تطورات متسارعة في السنوات الأخيرة، وأصبح التنافس بين الشركات التقنية منتشر للوصول إلى نماذج أكثر تطورا، إذ كشفت شركة «OpenAI» عن استخدامها لبيانات من تطبيق Reddit الشهير بهدف اختبار قياس قدرات نماذج الاستدلال بالذكاء الاصطناعي وتدريبها على الإقناع وفقاً لما ورد على موقع «techcrunch».
إطلاق نموذج الاستدلال «o3-mini»
في خطوة مثيرة للاهتمام، كشفت شركة OpenAI اعتمادها على أسلوب مبتكر لتدريب نماذج الذكاء الاصطناعي على الإقناع، إذ تستخدم بيانات منتدى r/ChangeMyView على Reddit؛ إذ يوفر هذا المنتدى الذي يضم ملايين المستخدمين مجموعة واسعة من الحجج ووجهات النظر المختلفة، مما يساعد الذكاء الاصطناعي على تعلم كيفية بناء حجج مقنعة والتأثير على المستخدمين.
أصدرت «OpenAI» وثيقة تشرح كيفية عمل نظام الذكاء الاصطناعي الخاص بها، وذلك بالتزامن مع إطلاق نموذج الاستدلال الجديد، «o3-mini»؛ إذ تكشف الوثيقة عن استخدام الشركة لمنتدى r/ChangeMyView على Reddit كمنصة اختبار لقياس قدرات الذكاء الاصطناعي على الإقناع.
ماذا تعرف عن منتديات «Reddit»؟
تعتبر منتديات Reddit، بما في ذلك المنتدى الفرعي r/ChangeMyView، كنزًا لشركات التكنولوجيا مثل OpenAI؛ إذ تتميز هذه المنتديات بتنوعها الكبير في الآراء ووجهات النظر، مما يجعلها مصدرًا مثاليًا لتدريب نماذج الذكاء الاصطناعي على فهم اللغة الطبيعية والتفاعل مع المستخدمين بطريقة أكثر فعالية وتستخدم OpenAI هذه البيانات لتطوير نماذج ذكاء اصطناعي قادرة على الإقناع والتأثير.
نماذج «OpenAI» للذكاء الاصطناعي تتفوق في اختبارات الإقناع
حققت نماذج الذكاء الاصطناعي من OpenAI، بما في ذلك GPT-4o و o3-mini وo1، نتائج مبهرة في اختبارات الإقناع التي أجرتها الشركة على منتدى /ChangeMyView على Reddit ووفقًا لوثيقة نظام o3-mini، فقد أظهرت هذه النماذج قدرات إقناعية قوية، تقارب أو تتفوق على قدرات البشر في هذا المجال.
لا يقتصر هدف OpenAI على تطوير نماذج ذكاء اصطناعي قادرة على الإقناع فقط، بل تسعى أيضًا إلى ضمان عدم تجاوز هذه النماذج للحدود المسموح بها في الإقناع؛ إذ تعمل الشركة على تطوير تقييمات وضمانات جديدة للتحكم في قدرات الإقناع وتوجيهها نحو الاستخدام المسؤول.
تُجرى هذه الاختبارات الإقناعية وسط مخاوف متزايدة من أن نماذج الذكاء الاصطناعي، إذا بلغت مستوى عالياً من الإقناع، قد تشكل خطرًا على المستخدمين من البشر؛ إذ يُعد هذا الخوف دافعًا رئيسيًا وراء هذه الاختبارات، حيث تسعى OpenAI إلى فهم كيفية تأثير الذكاء الاصطناعي على قرارات المستخدمين وسلوكهم.