مطورو ChatGPT يطالبون بتنظيم الذكاء الاصطناعي لحماية البشرية | أخبار التكنولوجيا
حذر مبتكرو ChatGPT ، روبوت الدردشة الفيروسي ، من أضرار تقنية الذكاء الاصطناعي غير المنظمة ، مشبهاً إياها بالقنبلة الذرية.
نشر مؤسسو OpenAI ، الشركة التي تقف وراء ChatGPT ، ملاحظة على موقعهم الإلكتروني هذا الأسبوع توضح الحاجة إلى حماية البشرية من مخاطر أنظمة الذكاء الاصطناعي “فائقة الذكاء”.
وكتبوا: “فيما يتعلق بكل من الجوانب الإيجابية والسلبية المحتملة ، سيكون الذكاء الخارق أقوى من التقنيات الأخرى التي كان على البشرية مواجهتها في الماضي”.
يمكن أن يكون لدينا مستقبل أكثر ازدهارًا بشكل كبير ؛ ولكن علينا إدارة المخاطر للوصول إلى هناك. نظرًا لاحتمال وجود مخاطر وجودية ، لا يمكننا أن نكون مجرد رد فعل ، “
نُسبت المذكرة إلى الرئيس التنفيذي لشركة OpenAI Sam Altman واثنين من المؤسسين الآخرين جريج بروكمان وإيليا سوتسكيفر ، وهو أيضًا كبير علماء الشركة.
قارنوا تكنولوجيا الذكاء الاصطناعي بالطاقة النووية والحاجة إلى تنظيمها من قبل هيئة مثل الوكالة الدولية للطاقة الذرية التي تدير برامج لتعظيم مساهمة التكنولوجيا النووية في المجتمع مع ضمان استخدامها السلمي.
أُنشئت الوكالة الدولية للطاقة الذرية عام 1957 استجابةً للمخاوف والتوقعات العميقة بشأن التكنولوجيا النووية. للسياق ، كانت التكنولوجيا النووية وراء القنبلة الذرية التي ألقيت على هيروشيما خلال الحرب العالمية الثانية مما تسبب في موت ودمار هائلين.
وإلى أن يتم تشكيل هيئة دولية ، دعا الثلاثي شركات الذكاء الاصطناعي إلى التنسيق والتأكد من أن تطوير هذه النماذج القوية يتكامل بسلاسة مع المجتمع مع إعطاء الأولوية للسلامة.
وقالت المذكرة: “يمكن أن يأتي هذا التنسيق من خلال مشروع تقوده الحكومة ، على سبيل المثال ، أو من خلال اتفاقية جماعية للحد من نمو قدرات الذكاء الاصطناعي”.
في الأسبوع الماضي ، أدلى ألتمان بشهادته أمام الكونجرس الأمريكي حول “أسوأ مخاوفه” بشأن التكنولوجيا الناشئة والحاجة إلى التنظيم.
أخبر ألتمان لجنة بمجلس الشيوخ أن استخدام الذكاء الاصطناعي للتدخل في نزاهة الانتخابات هو “مجال قلق كبير”.
قال الرئيس التنفيذي عن المخاطر التي يشكلها الذكاء الاصطناعي ، بما في ذلك برنامج الدردشة الآلي الخاص بشركته: “أنا متوتر حيال ذلك”.
وقالت المذكرة: “بالنظر إلى المخاطر والصعوبات ، يجدر النظر في سبب بناء هذه التكنولوجيا على الإطلاق”.
وشددوا على أنهم ما زالوا يعتقدون أن التكنولوجيا “ستؤدي إلى عالم أفضل بكثير مما نتخيله اليوم” وأشاروا إلى أن محاولة “إيقاف خلق الذكاء الخارق” ستكون “محفوفة بالمخاطر وصعبة”.
إنه بطبيعته جزء من المسار التكنولوجي الذي نسير فيه ، وسيتطلب إيقافه شيئًا مثل نظام مراقبة عالمي ، وحتى هذا ليس مضمونًا للعمل. لذلك علينا أن نفعل ذلك بشكل صحيح ، “
في مارس ، دعا Elon Musk ومجموعة من خبراء الذكاء الاصطناعي إلى توقف لمدة ستة أشهر في تطوير أنظمة أكثر قوة من OpenAI’s GPT-4 ، في خطاب مفتوح يشير إلى المخاطر المحتملة على المجتمع والبشرية.
المزيد: رئيس ChatGPT ، Sam Altman ، قلق بشأن استخدام الذكاء الاصطناعي للعبث بالانتخابات
أكثر: وجد أن ChatGPT أكثر تعاطفا مع المرضى من الأطباء
احصل على أحدث الأخبار والقصص السعيدة والتحليلات وغير ذلك الكثير