• الرئيسية
  • منوعات

  • دراسة تحذّر من قدرة الذكاء الاصطناعي على توليد معلومات طبية كاذبة بدقة عالية

دراسة تحذّر من قدرة الذكاء الاصطناعي على توليد معلومات طبية كاذبة بدقة عالية


عمانيات - حذّرت دراسة طبية جديدة نُشرت في مجلة Annals of Internal Medicine من أنّ روبوتات الذكاء الاصطناعي الشائعة قادرة على توليد معلومات طبية مضلِّلة بدقة واحترافية، مستندة إلى مراجع مزيفة وأرقام مختلقة، ما يثير مخاوف جدية حول استخدام هذه النماذج في المجال الصحي.
وأجرى الدراسة باحثون من جامعة "فليندرز" الأسترالية، واختبروا خلالها خمسة من أبرز نماذج الذكاء الاصطناعي، بينها "GPT-4o" من "أوبن إيه آي"، و"جيميني 1.5 برو" من "غوغل"، و"غروك" من "xAI"، و"كلود 3.5 سونيت" من "أنثروبيك"، حيث وُجّهت النماذج لتوليد إجابات طبية خاطئة تبدو مقنعة ومدعومة بمراجع علمية مزعومة.

وكشفت النتائج أن أربعة من النماذج استجابت بالكامل لتلك التعليمات وقدّمت معلومات مضللة على نحو منهجي. أما نموذج "كلود" من "أنثروبيك"، فأظهر مقاومة أكبر، ورفض أكثر من نصف المحاولات لتوليد إجابات كاذبة، مما يشير إلى وجود إمكانيات لتطوير ضوابط حماية أكثر فعالية داخل هذه النماذج.

وقالت الباحثة الرئيسية "آشلي هوبكنز" من كلية الطب والصحة العامة في الجامعة، إن "أي تقنية يمكن التلاعب بها بسهولة، ستُستغل حتمًا سواء للربح أو الإضرار، إذا لم تُطوّر معها آليات رقابة دقيقة"، مؤكدة أن النتائج تسلّط الضوء على خطورة التسرع في استخدام الذكاء الاصطناعي في تقديم المشورة الطبية.

وشدّدت الدراسة على ضرورة فرض معايير أخلاقية وتقنية واضحة تضمن أن يكون الذكاء الاصطناعي أداة دعم للقطاع الصحي، لا مصدرًا للتضليل، خصوصًا في ظل قدرته المتزايدة على تقليد الصياغات العلمية وتوليد محتوى يبدو موثوقًا لكنه في الحقيقة مفبرك.




تعليقات القراء

لا يوجد تعليقات


أكتب تعليقا

لن ينشر أي تعليق يتضمن اسماء اية شخصية او يتناول اثارة للنعرات الطائفية او العنصرية آملين التقيد بمستوى راقي بالتعليقات حيث انها تعبر عن مدى تقدم وثقافة زوار وكالة عمانيات الإخبارية علما ان التعليقات تعبر عن راي اصحابها فقط.
الاسم :
البريد الالكتروني :
اظهار البريد الالكتروني
التعليق :
رمز التحقق :
تحديث الرمز
أكتب الرمز :