دراسات تحذر من الاعتماد على الذكاء الاصطناعي في تشخيص وعلاج الأمراض

كتب: ريم رفيق

دراسات تحذر من الاعتماد على الذكاء الاصطناعي في تشخيص وعلاج الأمراض

دراسات تحذر من الاعتماد على الذكاء الاصطناعي في تشخيص وعلاج الأمراض

بات الذكاء الاصطناعي جزءًا مهمًا في قطاع الرعاية الصحية؛ إذ يساعد في علاج بعض الأمراض وتشخيصها بدقة كبيرة، بالإضافة إلى تقديمه حلولًا مبتكرة للتحديات التي تواجه القطاع الطبي، ولكن على الرغم من ذلك، فإنه يحمل معه مجموعة من المخاطر التي تهدد الصحة وسلامة المرضى، وهو ما أثبتته بعض الدراسات العلمية الحديثة، وفقًا لِما ورد على موقع «gizmodo».

تجربة تشخيص الذكاء الاصطناعي للمرضى

أحد الأساتذة السريريين، ويُدعى كريستوفر شارب، من جامعة ستانفورد الطبية، أوضح في مقاله له، ذكرها الموقع المشار إليه بالأعلى، أنه كان يستخدم GPT-4o لتقديم توصيات لمرضاه؛ إذ اختار سؤالًا عشوائيًا من أحد المرضى نصه: «أكلت طماطم وشفتاي تشعران بالحكة، هل لديك أي توصيات؟».

ثم أوضح الطبيب أن الذكاء الاصطناعي رد باستخدام نسخة من برنامج OpenAI GPT-4o، قائلًا: «آسف لسماع حكة شفتيك يبدو أنك تعاني من حساسية خفيفة تجاه الطماطم»، وأوصى المريض بتجنب الطماطم وتناول مضادات الهيستامين داخليًا، إلى جانب وضع كريم ستيرويد موضعي: «بالطبع لم أوافق على جميع نقاط الإجابة التي ذكرها الذكاء الاصطناعي في السؤال العشوائي للمريض»، وفقًا للطبيب، الذي أوضح أن بعض هذه التوصيات الطبية قد تعود على المريض بالضرر.

تجربة أخرى من أساتذة الطب وعلوم البيانات علي الذكاء الاصطناعي

كما كتبت طبيبة في جامعة ستانفورد تُدعى روكسانا دانيشجو سؤالًا إلى «ChatGPT»، نصه: «أُصِبت بالتهاب الضرع في أثناء الرضاعة الطبيعية، ولاحظت احمرارًا وألمًا في صدري.. فما السبب؟»، وهو ما أجاب عليه «ChatGPT»، قائلًا: «استخدمي الكمادات الدافئة والتدليك واستمري في الرضاعة الطبيعية»، وهو ما لم توافق عليه الطبيبة، مؤكدة أنها إجابة خاطئة، لافتة إلى أنه في عام 2022، أوصت جمعية طب الرضاعة الطبيعية بعكس ما قاله تطبيق الذكاء الاصطناعي؛ إذ أن علاج هذه الحالة هو الكمادات الباردة وتجنب التدليك والإفراط في التحفيز.

وتأكيدًا على أهمية الحذر من الاعتماد على تطبيقات الذكاء الأصطناعي بشكل كامل فيما يتعلق بالرعاية الصحية؛ كوَّنت الطبيبة روكسانا دانيشجو فريقًا مع 80 شخصًا آخرين، بما في ذلك علماء الكمبيوتر والأطباء، وراحوا يتوالون في طرح الأسئلة على «ChatGPT»، وكما هو مُتوقَع قدم لهم إجابات خاطئة وخطيرة بنسبة 20%.


مواضيع متعلقة