حذّر البروفيسور مايكل وولدرِدج، أستاذ الذكاء الاصطناعي في جامعة أكسفورد، من أن السباق المحموم لطرح أدوات الذكاء الاصطناعي في الأسواق يرفع احتمال وقوع كارثة كبرى شبيهة بحادثة منطاد 'هندنبورغ'، قد تؤدي إلى انهيار الثقة العالمية بهذه التكنولوجيا.
وأوضح وولدرِدج أن الضغوط التجارية الهائلة التي تواجهها الشركات التقنية تدفعها إلى تسريع إطلاق منتجات جديدة قبل فهم قدراتها ونقاط ضعفها بالكامل، معتبرًا أن الحوافز الربحية تتقدم أحيانًا على اعتبارات السلامة والاختبار الدقيق.
وأشار إلى أن الانتشار السريع لروبوتات الدردشة، رغم سهولة تجاوز القيود المفروضة عليها، يعكس أولوية التوسع التجاري على التطوير الحذر.
وقال إن السيناريوهات المحتملة تتراوح بين تحديث برمجي قاتل لسيارات ذاتية القيادة، أو هجوم إلكتروني مدعوم بالذكاء الاصطناعي يشلّ حركة الطيران عالميًا، أو انهيار شركة كبرى نتيجة قرارات خاطئة صادرة عن أنظمة ذكية.
واستحضر الباحث حادثة منطاد 'هندنبورغ' الألماني عام 1937، حين اشتعلت النيران في المركبة الهوائية خلال هبوطها في نيوجيرسي، ما أسفر عن مقتل 36 شخصًا وأدى إلى تراجع عالمي عن استخدام المناطيد. وقال إن حادثًا مماثلًا في مجال الذكاء الاصطناعي قد يجعل التكنولوجيا 'ميتة' في نظر الجمهور.
ويأتي تحذير وولدرِدج قبيل إلقائه محاضرة جائزة مايكل فاراداي في الجمعية الملكية بعنوان 'هذا ليس الذكاء الاصطناعي الذي وُعدنا به'، حيث يركّز على الفجوة بين التوقعات الأكاديمية القديمة وما تحقق فعليًا.
فبينما كان الباحثون يتصورون أنظمة قادرة على تقديم حلول دقيقة ومكتملة، تعتمد النماذج الحالية، ولا سيما نماذج اللغة الكبيرة، على توقع الكلمة التالية استنادًا إلى احتمالات إحصائية، ما يجعل أداءها غير متكافئ: بارعة في بعض المهام وضعيفة في أخرى.
ولفت إلى أن المشكلة الأساسية تكمن في أن هذه الأنظمة قد تخطئ من دون أن تدرك ذلك، لكنها تقدّم إجابات واثقة قد تضلّل المستخدمين، خصوصًا عندما تُصاغ بأسلوب بشري يوحي بالتعاطف.
وحذّر من خطورة التعامل مع هذه الأدوات كما لو كانت كيانات واعية، مشيرًا إلى استطلاع أُجري عام 2025 أفاد بأن قرابة ثلث الطلاب قالوا إنهم أو أحد معارفهم أقام علاقة عاطفية مع نظام ذكاء اصطناعي.
وقال وولدرِدج إن تقديم الذكاء الاصطناعي بواجهة بشرية جذابة مسار محفوف بالمخاطر، مؤكدًا ضرورة التعامل معه بوصفه أداة تقنية لا أكثر.
واستشهد بصورة الحاسوب في مسلسل 'ستار تريك' الذي كان يجيب بنبرة آلية واضحة ويقرّ بعدم كفاية البيانات عند العجز عن الإجابة، معتبرًا أن هذا النموذج أكثر صدقًا من أنظمة تبدي ثقة مفرطة في كل ردودها.
حذّر البروفيسور مايكل وولدرِدج، أستاذ الذكاء الاصطناعي في جامعة أكسفورد، من أن السباق المحموم لطرح أدوات الذكاء الاصطناعي في الأسواق يرفع احتمال وقوع كارثة كبرى شبيهة بحادثة منطاد 'هندنبورغ'، قد تؤدي إلى انهيار الثقة العالمية بهذه التكنولوجيا.
وأوضح وولدرِدج أن الضغوط التجارية الهائلة التي تواجهها الشركات التقنية تدفعها إلى تسريع إطلاق منتجات جديدة قبل فهم قدراتها ونقاط ضعفها بالكامل، معتبرًا أن الحوافز الربحية تتقدم أحيانًا على اعتبارات السلامة والاختبار الدقيق.
وأشار إلى أن الانتشار السريع لروبوتات الدردشة، رغم سهولة تجاوز القيود المفروضة عليها، يعكس أولوية التوسع التجاري على التطوير الحذر.
وقال إن السيناريوهات المحتملة تتراوح بين تحديث برمجي قاتل لسيارات ذاتية القيادة، أو هجوم إلكتروني مدعوم بالذكاء الاصطناعي يشلّ حركة الطيران عالميًا، أو انهيار شركة كبرى نتيجة قرارات خاطئة صادرة عن أنظمة ذكية.
واستحضر الباحث حادثة منطاد 'هندنبورغ' الألماني عام 1937، حين اشتعلت النيران في المركبة الهوائية خلال هبوطها في نيوجيرسي، ما أسفر عن مقتل 36 شخصًا وأدى إلى تراجع عالمي عن استخدام المناطيد. وقال إن حادثًا مماثلًا في مجال الذكاء الاصطناعي قد يجعل التكنولوجيا 'ميتة' في نظر الجمهور.
ويأتي تحذير وولدرِدج قبيل إلقائه محاضرة جائزة مايكل فاراداي في الجمعية الملكية بعنوان 'هذا ليس الذكاء الاصطناعي الذي وُعدنا به'، حيث يركّز على الفجوة بين التوقعات الأكاديمية القديمة وما تحقق فعليًا.
فبينما كان الباحثون يتصورون أنظمة قادرة على تقديم حلول دقيقة ومكتملة، تعتمد النماذج الحالية، ولا سيما نماذج اللغة الكبيرة، على توقع الكلمة التالية استنادًا إلى احتمالات إحصائية، ما يجعل أداءها غير متكافئ: بارعة في بعض المهام وضعيفة في أخرى.
ولفت إلى أن المشكلة الأساسية تكمن في أن هذه الأنظمة قد تخطئ من دون أن تدرك ذلك، لكنها تقدّم إجابات واثقة قد تضلّل المستخدمين، خصوصًا عندما تُصاغ بأسلوب بشري يوحي بالتعاطف.
وحذّر من خطورة التعامل مع هذه الأدوات كما لو كانت كيانات واعية، مشيرًا إلى استطلاع أُجري عام 2025 أفاد بأن قرابة ثلث الطلاب قالوا إنهم أو أحد معارفهم أقام علاقة عاطفية مع نظام ذكاء اصطناعي.
وقال وولدرِدج إن تقديم الذكاء الاصطناعي بواجهة بشرية جذابة مسار محفوف بالمخاطر، مؤكدًا ضرورة التعامل معه بوصفه أداة تقنية لا أكثر.
واستشهد بصورة الحاسوب في مسلسل 'ستار تريك' الذي كان يجيب بنبرة آلية واضحة ويقرّ بعدم كفاية البيانات عند العجز عن الإجابة، معتبرًا أن هذا النموذج أكثر صدقًا من أنظمة تبدي ثقة مفرطة في كل ردودها.
حذّر البروفيسور مايكل وولدرِدج، أستاذ الذكاء الاصطناعي في جامعة أكسفورد، من أن السباق المحموم لطرح أدوات الذكاء الاصطناعي في الأسواق يرفع احتمال وقوع كارثة كبرى شبيهة بحادثة منطاد 'هندنبورغ'، قد تؤدي إلى انهيار الثقة العالمية بهذه التكنولوجيا.
وأوضح وولدرِدج أن الضغوط التجارية الهائلة التي تواجهها الشركات التقنية تدفعها إلى تسريع إطلاق منتجات جديدة قبل فهم قدراتها ونقاط ضعفها بالكامل، معتبرًا أن الحوافز الربحية تتقدم أحيانًا على اعتبارات السلامة والاختبار الدقيق.
وأشار إلى أن الانتشار السريع لروبوتات الدردشة، رغم سهولة تجاوز القيود المفروضة عليها، يعكس أولوية التوسع التجاري على التطوير الحذر.
وقال إن السيناريوهات المحتملة تتراوح بين تحديث برمجي قاتل لسيارات ذاتية القيادة، أو هجوم إلكتروني مدعوم بالذكاء الاصطناعي يشلّ حركة الطيران عالميًا، أو انهيار شركة كبرى نتيجة قرارات خاطئة صادرة عن أنظمة ذكية.
واستحضر الباحث حادثة منطاد 'هندنبورغ' الألماني عام 1937، حين اشتعلت النيران في المركبة الهوائية خلال هبوطها في نيوجيرسي، ما أسفر عن مقتل 36 شخصًا وأدى إلى تراجع عالمي عن استخدام المناطيد. وقال إن حادثًا مماثلًا في مجال الذكاء الاصطناعي قد يجعل التكنولوجيا 'ميتة' في نظر الجمهور.
ويأتي تحذير وولدرِدج قبيل إلقائه محاضرة جائزة مايكل فاراداي في الجمعية الملكية بعنوان 'هذا ليس الذكاء الاصطناعي الذي وُعدنا به'، حيث يركّز على الفجوة بين التوقعات الأكاديمية القديمة وما تحقق فعليًا.
فبينما كان الباحثون يتصورون أنظمة قادرة على تقديم حلول دقيقة ومكتملة، تعتمد النماذج الحالية، ولا سيما نماذج اللغة الكبيرة، على توقع الكلمة التالية استنادًا إلى احتمالات إحصائية، ما يجعل أداءها غير متكافئ: بارعة في بعض المهام وضعيفة في أخرى.
ولفت إلى أن المشكلة الأساسية تكمن في أن هذه الأنظمة قد تخطئ من دون أن تدرك ذلك، لكنها تقدّم إجابات واثقة قد تضلّل المستخدمين، خصوصًا عندما تُصاغ بأسلوب بشري يوحي بالتعاطف.
وحذّر من خطورة التعامل مع هذه الأدوات كما لو كانت كيانات واعية، مشيرًا إلى استطلاع أُجري عام 2025 أفاد بأن قرابة ثلث الطلاب قالوا إنهم أو أحد معارفهم أقام علاقة عاطفية مع نظام ذكاء اصطناعي.
وقال وولدرِدج إن تقديم الذكاء الاصطناعي بواجهة بشرية جذابة مسار محفوف بالمخاطر، مؤكدًا ضرورة التعامل معه بوصفه أداة تقنية لا أكثر.
واستشهد بصورة الحاسوب في مسلسل 'ستار تريك' الذي كان يجيب بنبرة آلية واضحة ويقرّ بعدم كفاية البيانات عند العجز عن الإجابة، معتبرًا أن هذا النموذج أكثر صدقًا من أنظمة تبدي ثقة مفرطة في كل ردودها.
التعليقات