نظرا لمخاطره على البشرية.. خبراء ومشاهير يدعون إلى وقف تطوير الذكاء الاصطناعي الخارق

تصغير
تكبير

دعا أكثر من 700 عالِم وسياسي ورائد أعمال في مجال التكنولوجيا وشخصية عامة اليوم الأربعاء، إلى وقف العمل على تطوير ذكاء اصطناعي قادر على تجاوز القدرات البشرية، نظرا إلى المخاطر التي قد يُشكّلها على البشرية.

وذكرت صفحة المبادرة التي أطلقتها منظمة «فيوتشر أوف لايف إنستيتيوت» غير الربحية التي دائما ما تُحذّر من أضرار الذكاء الاصطناعي، «ندعو إلى وقف تطوير الذكاء الاصطناعي الخارق ما لم يكن هناك إجماع علمي على إمكانية بنائه بطريقة مضبوطة وآمنة، وحتى يحظى بدعم شعبي».

ومن بين الموقعين عدد من روّاد الذكاء الاصطناعي الحديث مثل الحائز على جائزة نوبل في الفيزياء لعام 2024 جيفري هينتون، وأستاذ المعلوماتية في جامعة كاليفورنيا في بيركلي ستيوارت راسل، والأستاذ في جامعة مونتريال يوشوا بنغيو.

تضمّنت القائمة أيضا شخصيات من مجال التكنولوجيا بينهم مؤسس مجموعة «فيرجن» ريتشارد برانسون، وأحد مؤسسي شركة «أبل» ستيف وزنياك، وشخصيات سياسية مثل المستشار السابق للرئيس الأميركي دونالد ترامب ستيف بانون، ومستشارة الأمن القومي في عهد باراك أوباما سوزان رايس، ومسؤولون دينيون منهم مستشار البابا والخبير في مجال الذكاء الاصطناعي في الفاتيكان باولو بينانتي، ومشاهير كالمغني الأميركي وليام آي.آم والأمير هاري وزوجته ميغان ماركل.

ويسعى معظم اللاعبين الكبار في مجال الذكاء الاصطناعي إلى تطوير ما يُعرف بالذكاء الاصطناعي العام، وهي مرحلة يُعادل فيها الذكاء الاصطناعي كل القدرات الفكرية البشرية، فضلا عن الذكاء الخارق الذي يتجاوز هذه القدرات.

وفي كلمة خلال حدث نظمته مجموعة «أكسل سبرينغر» الإعلامية في سبتمبر، اعتبر رئيس شركة «اوبن ايه آي» مبتكرة «تشات جي بي تي» سام ألتمان، أنه يمكن الوصول إلى مرحلة الذكاء الاصطناعي الفائق في غضون خمس سنوات.

وقال رئيس منظمة «فيوتشر أوف لايف إنستيتيوت» ماكس تيغمارك، لوكالة فرانس برس «لا يهم إن كان ذلك سيتحقق بعد عامين أو خمسة عشر عاما، فإنّ بناء تكنولوجيا كهذه أمر غير مقبول»، مؤكدا أن الشركات «لا ينبغي أن تعمل على هذا النوع من المشاريع من دون أي ضوابظ».

وأضاف «قد يؤيد المرء تطوير أدوات ذكاء اصطناعي أكثر قوة، لعلاج السرطان مثلا، بينما يعارض الذكاء الاصطناعي الخارق».

الأكثر قراءة
يومي
اسبوعي