تعرف على فوائد الذكاء الاصطناعي للطلاب.. هل توجد مخاطر للدردشة الآلية؟

كتب: أسماء زايد

تعرف على فوائد الذكاء الاصطناعي للطلاب.. هل توجد مخاطر للدردشة الآلية؟

تعرف على فوائد الذكاء الاصطناعي للطلاب.. هل توجد مخاطر للدردشة الآلية؟

ذكر مركز المعلومات ودعم اتخاذ القرار بمجلس الوزراء، في تقرير جديد له عن «الذكاء الاصطناعي»، فوائد روبوتات الدردشة للشركات، مشيرًا إلى أهم تلك التطبيقات ومدى اتساع نطاق استخدامها وانتشارها عالميًّا، بالإضافة إلى أبرز «المؤثرين الافتراضيين»، لافتًا إلى أنَّ فوائده تتمثل في الوجود على مدار الساعة طوال أيام الأسبوع، وأتمتة المهام وتقليل تكاليف التشغيل، وتبسيط عملية التوظيف من خلال الفحص المسبق الآلي، إلى جانب تقديم الدعم متعدد اللغات، وتقديم خدمة عملاء استباقية.

أهم فوائد الذكاء الاصطناعي بالنسبة للطلاب

وأوضح المركز في التقرير، أن دمج روبوتات الدردشة والمساعدين الافتراضيين في البيئات التعليمية لديه القدرة على المساهمة في خلق بيئات تعليمية أكثر كفاءة وفعالية؛ إذ تتمتع أدوات الذكاء الاصطناعي بالقدرة على تحسين نجاح الطلاب ومشاركتهم، خاصة بين أولئك المنحدرين من أسر فقيرة، وبناءً عليه تبرز أهم فوائد الذكاء الاصطناعي بالنسبة للطلاب في:

- المساعدة على الواجبات المنزلية والدراسة.

- التعلم الشخصي المرن.

- تنمية المهارات.

- تقييم تعلم الطلاب.

- المساعدة في توفير الوقت.

- تحسين أسلوب التدريس.

التحديات والمخاوف بشأن استخدام برامج الدردشة الآلية

واستعرض التقرير أبرز التحديات والمخاوف التي تم طرحها فيما يتعلق باستخدام برامج الدردشة الآلية والتي تتضمن: الموثوقية والدقة، والتقييمات العادلة، والقضايا الأخلاقية.

وأشار المركز إلى أن دمج روبوتات الدردشة الذكية في التعليم يؤدى إلى توفير التعلم الشخصي للطلاب وكفاءة الوقت للمعلمين، ومع ذلك تنشأ مخاوف بشأن دقة المعلومات وممارسات التقييم العادلة والاعتبارات الأخلاقية، ويعد إيجاد التوازن بين هذه المزايا والمخاوف أمرًا بالغ الأهمية للتكامل المسؤول في مجال التعليم.

الآثار السلبية لتطبيقات الذكاء الاصطناعي

وأشار مركز المعلومات إلى أنَّ التكنولوجيا بما تتضمنه من تطبيقات للذكاء الاصطناعي، توفر وسيلة جديدة وغير محدودة للمعلومات والمعرفة والتواصل الخال من الحدود للأطفال والشباب، لكن الآثار السلبية لها تتعدد وتتنوع لتشمل الصحة الجسدية حيث التأثير السلبي في النشاط البدني، وكذلك الصحة العقلية والنفسية في ظل الإفراط في استخدام الأدوات والتطبيقات الرقمية، الأمر الذي يؤثر في العلاقات الاجتماعية للأطفال والشباب كما يتسبب في حالة من العزلة الاجتماعية والاكتئاب والقلق المستمر، هذا فضلًا عن العديد من المشكلات الأخرى المتعلقة بالتأثير السلبي في القدرة على الإبداع أو حتى التعاطف مع الآخرين.

الآثار السلبية للتكنولوجيا على الشباب والأطفال

وفي هذا السياق غير المتناهي من المشكلات والأزمات الناجمة عن التكنولوجيا وما تحمله من تطبيقات مثيرة وجذابة خاصة بالذكاء الاصطناعي، فالأمر يتطلب عدد الخطوات أو الاستراتيجيات التي يمكن اتباعها للتقليل من هذه الآثار السلبية على الشباب عامة والأطفال خاصة، ويمكن توضيح بعض الآليات على عدة مستويات كالآتي:

أولًا: دور الآباء في الحماية من مخاطر الذكاء الاصطناعي

ويقع على الآباء العبء الأكبر في حماية الأطفال من مخاطر الذكاء الاصطناعي، ويمكن توضيح بعض الآليات المساعدة للآباء ومقدمي الرعاية، ومن بينها: تطبيق قواعد ترسخ مبدأ الاعتدال في استخدام التطبيقات الرقمية وتكنولوجيا الذكاء الاصطناعي، ومراقبة المحتوى، والتفاعل الاجتماعي والتواصل المفتوح، والتوجيه المستمر، وتعزيز الوعي بالخصوصية، ومواكبة التطورات التكنولوجية، وتسخير الذكاء الاصطناعي لحماية الأطفال والشباب، وتجنب العزلة وإيجاد بدائل للتكنولوجيا والذكاء الاصطناعي.

ثانيًا: دور الدول في تعزيز استراتيجيات الحماية من مخاطر الذكاء الاصطناعي

وتقع على عاتق الدول أيضًا مسؤولية كبيرة في حماية الشباب والأطفال من مخاطر الذكاء الاصطناعي، بما يضمن الاستفادة من تطبيقاته وتقنياته المختلفة بشكل أفضل، مع تجنب أو تقليل المخاطر، وتمكن ترجمة هذا على أرض الواقع من خلال عدد من التوصيات والسياسات، ومن بينها: سن وتفعيل قوانين لحماية الأطفال من مخاطر الذكاء الاصطناعي، والاستعانة بالمبادرات الدولية في هذا المجال، وتوفير آليات لضمان سلامة الأطفال والشباب، والتشجيع على ممارسة النظافة الرقمية.

ثالثًا: دور مطوري تطبيقات وأنظمة الذكاء الاصطناعي

ويقع العبء الأكبر في هذا المسار على مطوري وشركات الذكاء الاصطناعي، والذين يجب عليهم تطوير تطبيقات الذكاء الاصطناعي الأخلاقي، والالتزام بالمبادئ التوجيهية التي تعطي الأولوية لسلامة المستخدم وخصوصيته، من خلال عدد من السياسات يمكن الإشارة لبعضها كالتالي: (اعتماد نهج واضح يضمن الخصوصية، دعم القدرة على التحكم في البيانات الشخصية، وإيجاد وسائل للحد من مخاطر الذكاء الاصطناعي، والاختبار المستمر لأنظمة الذكاء الاصطناعي من حيث السلامة والأمن، والشفافية بشأن الأهداف الكامنة وراء عمليات تطوير سياسات الذكاء الاصطناعي، واستخدام لغة مناسبة للعمر لوصف الذكاء الاصطناعي).


مواضيع متعلقة