دعا إيلون ماسك ومجموعة من خبراء الذكاء الاصطناعي والمديرين التنفيذيين في الصناعة، إلى التوقف لمدة 6 أشهر عن تطوير أنظمة التدريب لنموذج “جي بي تي-4” (GPT-4) الذي تم إطلاقه حديثًا من “أوبن إيه آي” (OpenAI)، كما أشاروا -في خطاب مفتوح- إلى المخاطر المحتملة على المجتمع والإنسانية.
والرسالة الصادرة عن مؤسسة “فيوتشر أوف لايف” (Future of Life) غير الربحية وقع عليها أكثر من ألف شخص، من بينهم: رئيس شركتي تسلا وتويتر إيلون ماسك، والرئيس التنفيذي لشركة “ستابلتي إيه آي” (Stability AI) عماد مصطفى، والباحثون في شركة “ديب مايند” (DeepMind) التابعة لشركة (Alphabet) مالكة “غوغل”، بالإضافة إلى شخصيات مهمة في مجال الذكاء الاصطناعي مثل يوشوا بنجيو، عالم الحاسوب الكندي ذي الأصل المغربي الذي يعدّ من أبرز علماء الحاسوب المعاصرين، وستيوارت راسل وهو عالم حاسوب ومهندس وأستاذ جامعي من المملكة المتحدة.
ودعا الخبراء إلى وقف تطوير الذكاء الاصطناعي المتقدم حتى يتم تطوير وتنفيذ ومراجعة بروتوكولات السلامة المشتركة لمثل هذه التصاميم من قبل خبراء مستقلين.
وجاء في الرسالة “لا يجوز تطوير أنظمة ذكاء اصطناعي قوية قبل أن نكون واثقين من أن آثارها ستكون إيجابية، وأن مخاطرها يمكن التحكم بها”.
كما تناولت الرسالة بالتفصيل المخاطر المحتملة على المجتمع والحضارة البشرية بسبب أنظمة الذكاء الاصطناعي التنافسية في شكل اضطرابات اقتصادية وسياسية، ودعت المطورين إلى العمل مع صانعي السياسات بشأن الحوكمة والسلطات التنظيمية.
تأتي الرسالة في الوقت الذي انضمت فيه شرطة الاتحاد الأوروبي (يوروبول) يوم الاثنين إلى الجهات التي تحذر من المخاوف الأخلاقية والقانونية بشأن الذكاء الاصطناعي المتقدم مثل “تشات جي بي تي” (ChatGPT)، محذرة من احتمال إساءة استخدام النظام في محاولات التصيد والمعلومات المضللة والجرائم الإلكترونية.
وكان ماسك -الذي يستخدم الذكاء الاصطناعي في شركة السيارات تسلا (Tesla)، خصوصا في نظام السائق الآلي- صريحًا بشأن مخاوفه من الذكاء الاصطناعي.
ومنذ إطلاقه في العام الماضي، حث برنامج “تشات جي بي تي” من شركة “أوبن إيه آي” المدعومة من مايكروسوفت (Microsoft) المنافسين على تسريع تطوير نماذج لغة كبيرة مماثلة، وكذلك الشركات على دمج نماذج الذكاء الاصطناعي التوليدية في منتجاتها.
وقال متحدث باسم “فيوتشر أوف لايف” لرويترز إن سام ألتمان الرئيس التنفيذي لشركة “أوبن إيه آي” لم يوقع الخطاب.
وقال غاري ماركوس الأستاذ الفخري في جامعة نيويورك الذي وقع على الرسالة إنها “ليست مثالية، لكنها تحمل فكرة صحيحة: نحتاج إلى إبطاء سرعة الذكاء الاصطناعي حتى نفهم التداعيات بشكل أفضل”.
وأضاف “يمكن أن يتسببوا في ضرر جسيم، فقد أصبح اللاعبون الكبار أكثر تكتمًا بشأن ما يفعلونه، مما يجعل من الصعب على المجتمع الدفاع من الأضرار التي قد تحدث”.