غاري ماركوس: الذكاء الاصطناعي يمكن أن يشعل حرباً نووية
(أ ف ب)
قضى اختصاصي الذكاء الاصطناعي غاري ماركوس، الأشهر الأخيرة يحذر أقرانه والنواب والجمهور عموماً من المخاطر المرتبطة بتطوير أدوات هذا المجال الجديدة وانتشارها الفائق السرعة، لكنه اعتبر في حديث أجرته معه وكالة «فرانس برس» في سان فرانسيسكو، أن مخاطر انقراض البشرية «مبالغ فيه»، ولكن قد يجر الذكاء الاصطناعي العالم إلى حرب عرضية يمكن أن تتحول إلى حرب نووية.
وأوضح الأستاذ الفخري في جامعة نيويورك الذي قدم إلى كاليفورنيا لحضور مؤتمر: «شخصياً، وفي الوقت الحاضر، لست قلقاً جداً بهذا الشأن، لأن السيناريوهات ليست في غاية الواقعية».
وتابع: «ما يقلقني هو أن نبني أنظمة ذكاء اصطناعي لا نحكم السيطرة عليها».
وابتكر غاري ماركوس، برنامجه الأول للذكاء الاصطناعي في المدرسة الثانوية، وكان برنامجاً لترجمة نصوص من اللاتينية إلى الإنجليزية. وبعد سنوات من دراسة علم النفس للأطفال، أنشأ شركة متخصصة في «تعلّم الآلة» استحوذت عليها «أوبر» لاحقاً.
وفي مارس/آذار، كان من موقعي الرسالة التي نشرها مئات الخبراء للمطالبة بتعليق تطوير أنظمة ذكاء اصطناعي فائقة القوة مثل روبوت الدردشة «تشات جي بي تي» الذي أطلقته شركة «أوبن إيه آي» الناشئة لمدة ستة أشهر للتثبت من أن البرامج المطروحة حالياً للاستخدام «موثوقة وآمنة وشفافة ووفية وموائمة» للقيم البشرية.
لكنه لم يوقّع الإعلان المقتضب الذي أصدرته مجموعة من كبار رجال الأعمال والخبراء هذا الأسبوع وكان له وقع شديد.
ودعا موقّعو الإعلان ومن أبرزهم مبتكر «تشات جي بي تي» نفسه سام التمان، والمهندس الكبير السابق لدى «غوغل» جيفري هينتون الذي يعد من الآباء المؤسسين للذكاء الاصطناعي، ورئيس شركة «ديب مايند» للأبحاث في مجال الذكاء الاصطناعي التابعة لغوغل ديميس هاسابيس، والمدير الفني لمايكروسوف كيفن سكوت، إلى التصدي ل«مخاطر انقراض» البشرية «المرتبطة بالذكاء الاصطناعي».
«حرب عرضية»
وأطلق النجاح الهائل الذي أحرزه برنامج «تشات جي بي تي» القادر على إنتاج أي نوع من النصوص بناء على طلب مستخدميه، سباقاً بين شركات التكنولوجيا العملاقة إلى هذا الذكاء الاصطناعي «التوليدي»، غير أنه أثار في المقابل الكثير من التحذيرات والدعوات إلى وضع ضوابط لهذا المجال.
وصدرت هذه التحذيرات حتى عن مطوري هذه الأنظمة المعلوماتية الذين يعملون من أجل التوصل إلى ذكاء اصطناعي «عام» يتميز بقدرات معرفية شبيهة بقدرات البشر.
وقال غاري ماركوس: «إن كنتم مقتنعين فعلياً بأن هناك خطر وجودي، فلماذا تعملون على ذلك بالأساس؟ هذا سؤال منطقي».
ورأى أن «انقراض الجنس البشري، مسألة في غاية التعقيد في الواقع، يمكننا تصور كل أنواع الآفات، لكن ثمة من سينجو حتماً». وشدد في المقابل على أن هناك سيناريوهات ذات مصداقية يمكن في سياقها أن يتسبب الذكاء الاصطناعي بأضرار هائلة.
وتابع: «قد ينجح البعض على سبيل المثال في التلاعب بالأسواق. وقد نتهم الروس بتحمل المسؤولية ونهاجمهم في حين أن لا ضلوع لهم إطلاقاً، وقد ننجر إلى حرب عرضية تهدد بأن تتحول إلى حرب نووية».
«نظام سلطوي»
وعلى المدى القريب، يعرب غاري ماركوس عن مخاوف على الديمقراطية، فبرمجيات الذكاء الاصطناعي التوليدي قادرة بصورة متزايدة على إنتاج صور زائفة وقريباً فيديوهات واقعية، بكلفة زهيدة. وفي هذا السياق، فإن «الانتخابات ستحسم للذين يبرعون أكثر من سواهم في نشر التضليل الإعلامي، وهؤلاء قد يعدّلون القوانين بعد فوزهم، ويفرضون نظاماً سلطوياً».
وشدد على أن «الديمقراطية تقوم على امتلاك معلومات منطقية واتخاذ قرارات صائبة، وإن لم يعد أحد يميز بين ما هو صحيح وما هو غير صحيح، عندها ينتهي الأمر».
لكن هذا لا يعني برأي الخبير الذي صدر له كتاب بعنوان «إعادة إطلاق الذكاء الاصطناعي» Rebooting AI أن هذه التكنولوجيا لا تحمل وعوداً.
وقال: «ثمة فرصة بأن نستخدم ذات يوم نظام ذكاء اصطناعي لم نبتكره بعد، يساعدنا على إحراز تقدم في العلم، في الطب، في رعاية المسنين، لكننا في الوقت الحاضر غير جاهزين، نحن بحاجة إلى تنظيمات وإلى جعل البرامج أكثر موثوقية».
ولدى مثوله أمام لجنة في الكونغرس الأمريكي في مايو/أيار، دعا إلى إنشاء وكالة وطنية أو دولية يعهد إليها بحوكمة الذكاء الاصطناعي.