
وحذر الخطاب ، الذي أصدره معهد Future Of Life غير الربحي ووقعه أكثر من 1000 شخص ، من المخاطر المحتملة على المجتمع في شكل اضطرابات اقتصادية وسياسية.
وجاء في الرسالة أن “أنظمة الذكاء الاصطناعي ذات الذكاء البشري التنافسي يمكن أن تشكل مخاطر كبيرة على المجتمع والإنسانية. يجب تطوير أنظمة ذكاء اصطناعي قوية فقط عندما نكون واثقين من أن آثارها ستكون إيجابية ويمكن التحكم في مخاطرها”.
وأكدت الرسالة وقف “السباق الخطير” لتطوير أنظمة أقوى من “-4” للشركة.
وخلصت الرسالة إلى أن: “يجب على المختبرات والخبراء المستقلين الاستفادة من هذا التوقف لتطوير وتنفيذ مجموعة من بروتوكولات الأمان المشتركة لتصميم وتطوير ذكاء اصطناعي متقدم يمكن إدارته ومراقبته بدقة من قبل خبراء مستقلين. وينبغي أن تضمن هذه البروتوكولات أن الأنظمة إنهم يلتزمون بأمان لا يمكن قياسه “. إنه يترك مجالاً للشك “، بحسب شبكة” سكاي نيوز “البريطانية.
وجاء تحذير ماسك بعد أن حذرت “” وكالة إنفاذ القانون الأوروبية يوم الاثنين من إساءة استخدام أنظمة الذكاء الاصطناعي لنشر معلومات مضللة وجرائم إلكترونية.
قدمت حكومة المملكة المتحدة أيضًا مقترحات لإطار تنظيمي تكيفي حول الذكاء الاصطناعي.