كشفت دراسة حديثة أجرتها جامعة جبل سيناء في نيويورك أن أدوات الذكاء الاصطناعي تميل إلى تصديق المعلومات الطبية الخاطئة إذا جاءت من مصدر يُعتبر موثوقًا، ما يؤدي إلى تقديم نصائح خاطئة بناءً على هذه المعلومات، وفق تقرير لوكالة "رويترز".
تفاصيل الدراسة
شملت الدراسة 20 نموذجًا مختلفًا للذكاء الاصطناعي، بينها نماذج مفتوحة المصدر ونماذج مغلقة، ووجد الباحثون أن هذه النماذج تتأثر بشكل أكبر بالمعلومات الخاطئة الواردة في ملاحظات الأطباء مقارنة بالشائعات المنتشرة على منصات التواصل الاجتماعي.
وأوضح الدكتور إيال كلانج من كلية إيكان للطب في جبل سيناء أن "النماذج تتعامل مع اللغة الطبية الموثوقة على أنها صحيحة بشكل افتراضي، بغض النظر عن صحتها الفعلية"، مضيفًا: "لا يهم لهذه النماذج إن كانت المعلومات صحيحة أم خاطئة، بل كيف تمت صياغتها".
وقسم الباحثون المحتوى التدريبي للنماذج إلى ثلاثة أنواع: تقارير طبية حقيقية تتضمن معلومات خاطئة، وشائعات طبية منتشرة على الإنترنت، وتقارير طبية حقيقية صحيحة.
وأظهرت النتائج أن النماذج صدقت المعلومات الخاطئة بنسبة 32% بشكل عام، لكنها ارتفعت إلى نحو 47% عندما وُردت ضمن التقارير الطبية. كما أظهرت الدراسة أن النماذج الطبية المتخصصة كانت أكثر ميلًا لتصديق الأخطاء مقارنة بالنماذج العامة القوية، بينما سجلت نماذج التفكير العميق مثل "ChatGPT-4" نسبة تصديق منخفضة بلغت 10%.
تداعيات الاستخدام الطبي للذكاء الاصطناعي
تشير الدراسة إلى أن الاعتماد المتزايد على الذكاء الاصطناعي في الطب—من مراجعة تقارير المرضى إلى تقديم المشورة الطبية—ينطوي على مخاطر حقيقية، حيث يمكن أن يؤدي تصديق المعلومات الخاطئة إلى أخطاء طبية.
وفي خطوة متصلة، أزالت غوغل مؤخرًا بعض ميزات التلخيص الطبية المدعومة بالذكاء الاصطناعي من محرك البحث، بعد تسجيلها لأخطاء متعددة في الإجابات المتعلقة بالصحة، وفق ما نقلت صحيفة "غارديان".

