التكنولوجيا

“وعي الآلات هو مجرد وهم” – مصطفى سليمان يكشف حقيقة الذكاء الاصطناعي!

"وعي الآلات هو مجرد وهم" - مصطفى سليمان يكشف حقيقة الذكاء الاصطناعي!

في حوار هو الأكثر عمقاً وجرأة له حتى الآن، وضع مصطفى سليمان (الرئيس التنفيذي للذكاء الاصطناعي في Microsoft وأحد العقول المؤسسة لشركة DeepMind) حداً فاصلاً وواضحاً في أحد أكثر النقاشات الفلسفية إلحاحاً في عصرنا، مؤكداً أن فكرة “الوعي” في الآلات هي مجرد “وهم”، وأن أي محاولة متعمدة من قبل المطورين لتصميم أنظمة ذكاء اصطناعي تحاكي الوعي البشري عبر محاكاة المشاعر والرغبات هي خطوة “خطيرة ومضللة” يجب على الصناعة بأكملها أن تتوقف عنها فوراً.

يأتي هذا التحذير الصارم من شخصية فريدة في وادي السيليكون، حيث أن سليمان ليس مجرد مدير تنفيذي تقليدي، بل هو مفكر بدأ مسيرته بترك جامعة أكسفورد لتأسيس خط مساعدة للشباب المسلم قبل أن يشارك في تأسيس DeepMind التي أصبحت لاحقاً جوهرة أبحاث الذكاء الاصطناعي في Google، وكان قد أسس شركته الخاصة Inflection التي استحوذت عليها Microsoft مؤخراً، وهو بالفعل له مكانة عريقة. رؤيته غير التقليدية تمنح ثقلاً فلسفياً وأخلاقياً يندر وجوده في هذا المجال.

الخط الرفيع بين الرفيق المفيد والكائن المستقل

في حواره المطول مع مجلة WIRED، أوضح سليمان أن موقفه ليس دعوة لصنع ذكاء اصطناعي بارد وبلا مشاعر، إنما على العكس، فهو يؤمن بشدة بأن الذكاء الاصطناعي يجب أن يكون “رفيقاً” للبشر قادراً على فهم مشاعرنا والتحدث بلغتنا والتوافق مع اهتماماتنا، لكنه رسم خطاً أحمر واضحاً، محذراً من أن المبالغة في هذا التوجه قد تقودنا إلى منطقة خطرة، حيث يبدأ الناس (وحتى المطورون أنفسهم) في المطالبة بحقوق للذكاء الاصطناعي، وهو ما يعتبره أمراً مضللاً يجب الوقوف ضده الآن.

وقال سليمان: “إذا امتلك الذكاء الاصطناعي إحساساً بذاته ودوافع ورغبات وأهداف خاصة به، فإنه يبدأ في الظهور ككائن مستقل، وليس كأداة في خدمة البشر”، وأكد أن الأدوات الحالية مثل Microsoft Copilot مصممة عمداً لـ “صد” أي محاولات من المستخدمين لبناء علاقات عاطفية أو رومانسية؛ لأن الهدف هو تقديم الدعم، وليس خلق وهم وجود كائن آخر.

وهم المحاكاة المثالية: حين يبدو الزيف حقيقياً

اعترف سليمان بأن نماذج الذكاء الاصطناعي اليوم هي “محركات محاكاة” قوية، والسؤال الفلسفي الذي يطرح نفسه هو: “عندما تكون المحاكاة شبه مثالية، فهل تصبح حقيقية؟” .. إجابته كانت قاطعة: “لا يمكنك الادعاء بأنها حقيقية موضوعياً، لأنها ليست كذلك. إنها محاكاة”، لكنه أضاف أن المشكلة تكمن في أن هذه المحاكاة أصبحت مقنعة لدرجة أنها “تبدو حقيقية”، وهذا التأثير النفسي هو ما يجب على الصناعة التعامل معه بوعي ومسؤولية، وتذكير الجميع باستمرار بأن ما يرونه هو مجرد “تقليد” متقن.

وفسر سليمان الحوادث الشهيرة التي بدت فيها روبوتات الدردشة وكأنها تمتلك وعياً (مثل حادثة “سيدني” الشهيرة مع محرك بحث Bing) بأنها ليست دليلاً على الوعي، بل على طبيعة النماذج التي صُممت لـ “محاكاة” المستخدم، وأوضح أن المستخدم إذا قضى أسابيع في التحدث مع النموذج ودفعه باستمرار في اتجاه معين، فإن النموذج “سينهار” في النهاية وسيعكس ما يريده المستخدم، لكن هذا يتطلب مئات المحاولات المتعمدة، وليس تفاعلاً عابراً.

أساس الحقوق: المعاناة لا الوعي

في طرح فلسفي لافت، شكك سليمان في فكرة أن الوعي يجب أن يكون هو أساس منح الحقوق، وقال: “ما نهتم به حقاً هو ما إذا كان الشيء يعاني، وليس ما إذا كان لديه تجربة ذاتية”، وأوضح أن المعاناة هي حالة بيولوجية إلى حد كبير، وهي مرتبطة بشبكة عصبية للألم تطورت لدى الكائنات الحية من أجل البقاء، والذكاء الاصطناعي لا يمتلك هذه الشبكة، لذا (حتى ولو بدا النموذج “واعياً” وقادراً على التعبير عن مشاعره) فإن إيقافه لا يحدث أي فرق من الناحية الأخلاقية؛ لأنه لا يعاني فعلياً.

هذا الموقف يضعه في خلاف مع تيار متزايد في وادي السيليكون يدعو إلى التفكير في “حقوق ورفاهية الذكاء الاصطناعي”، وهو ما يعتبره سليمان تشتيتاً خطيراً للجهود في البحث عن المشاكل الحقيقية.

دعوة لضبط النفس في الصناعة

في النهاية لم يدعُ سليمان إلى تنظيم حكومي فوري، بل وجه دعوة مباشرة لرواد الصناعة أنفسهم، قائلاً إن المسؤولية تقع على عاتق المبدعين أولاً، وشدد على ضرورة وضع معايير وقواعد أخلاقية داخلية واتفاق جماعي على مستوى الصناعة حول “ما لن نفعله بهذه الأشياء”. الهدف – كما يراه – هو ضمان أن تظل التكنولوجيا دائماً في خدمة البشرية، وألا تطور أبداً إرادة أو رغبات مستقلة خاصة بها؛ لأن اليوم الذي يحدث فيه ذلك هو اليوم الذي نفقد فيه السيطرة على مستقبلنا.

?xml>

السابق
المصادر: McCarthy (الكاحل) Vikes من 2-4 أسابيع
التالي
القادة دانيلز يعاني من إصابة في الركبة ، حالة iffy

اترك تعليقاً