“أطباء رقميين”.. روبوتات الذكاء الاصطناعي أخفقت بتشخيص 80% من الأمراض
مع تزايد اعتماد الناس حول العالم على روبوتات الدردشة المعتمدة على الذكاء الاصطناعي، بينت دراسة جديدة أنه “لا مفر من الطبيب”. إذ تكشف أن روبوتات الدردشة هذه أخطأت في أكثر من 80% من الحالات الطبية في مراحلها المبكرة.
ففي دراسة جديدة نُشرت أمس الاثنين في مجلة Jama Network Open سلطت الضوء على مخاطر الاعتماد على تلك الروبوتات بوصفها أطباء رقميين، بينت أن هذه الروبوتات تواجه صعوبة في اقتراح مجموعة من التشخيصات المحتملة عندما تكون بيانات المرضى محدودة، وغالبًا ما تضيق نطاقها بسرعة كبيرة لتصل إلى إجابة واحدة فقط.
كما أظرت النتائج أن روبوتات الدردشة تستطيع تحديد الحالات المرجحة عندما تكون الحالة محددة بشكل كامل وواضح، لكن موثوقيتها تتراجع في المراحل المبكرة أوالأكثر غموضًا.
مخاطر الاعتماد على التكنولوجيا
هذا وبينت النتائج مخاطر الاعتماد على التكنولوجيا وحدها لتحديد المشكلات الصحية، لا سيما في الحالات التي تكون فيها البيانات التي يدخلها المستخدمون غامضة أو مجتزأة.
وقالت آريا راو، المؤلفة الرئيسية للدراسة وباحثة في نظام الرعاية الصحية “ماس جنرال بريغهام” ومقره ولاية ماساتشوستس: هذه النماذج ممتازة في تسمية التشخيص النهائي عندما تكتمل البيانات، لكنها تواجه صعوبة في البداية، عندما لا تتوافر الكثير من المعلومات، وفق ما نقلت صحيفة “فايناشيل تايمز”.
واختبرت الدراسة، نماذج الذكاء الاصطناعي باستخدام 29 حالة سريرية افتراضية مستندة إلى مرجع طبي. وشملت التجربة الكشف التدريجي للبيانات خطوة بخطوة، بما في ذلك التاريخ المرضي الحالي، ونتائج الفحص السريري، ونتائج التحاليل المخبرية. وطرح الباحثون على نماذج الروبوتات أسئلة تشخيصية، وقاسوا معدلات الفشل، التي عُرّفت بأنها نسبة الأسئلة التي لم يُجب عنها بشكل صحيح بالكامل.
كما قيّم الباحثون 21 نموذجًا من نماذج روبوتات الدردشة، من بينها نماذج رائدة طورتها شركات OpenAI وAnthropic وGoogle وxAI وDeepSeek.
لكنهم وجدوا أن معدلات فشل التشخيص تجاوزت 80% لدى جميع النماذج عندما طُلب منها إجراء ما يُعرف بالتشخيص التفريقي، أي عندما لا تكون المعلومات الكاملة عن المريض متوافرة.
فيما انخفضت معدلات الفشل إلى أقل من 40% عند الانتقال إلى التشخيص النهائي مع توافر بيانات أكثر اكتمالًا، حيث تجاوز أفضل النماذج دقة 90%.
وكانت شركة Anthropic أكدت سابقا أن نموذج «كلود» مُدرّب على توجيه الأشخاص الذين يطرحون أسئلة طبية إلى مختصين.
بدورها أوضحت “غوغل” أن نموذج “جيميني” مصمم للقيام بالأمر نفسه، ويحتوي على تذكيرات مدمجة في التطبيق لحث المستخدمين على التحقق مرة أخرى من المعلومات.
كما نصت سياسة الاستخدام الخاصة بشركة OpenAI على أنه لا ينبغي استخدام خدماتها لتقديم مشورة طبية تتطلب ترخيصًا مهنيًا من دون إشراك مختصين مؤهلين بشكل مناسب.
The post “أطباء رقميين”.. روبوتات الذكاء الاصطناعي أخفقت بتشخيص 80% من الأمراض appeared first on السبيل.



