خطر انقراض توسط هوش مصنوعی به اندازه پاندمی و جنگ هسته ای است

خطر انقراض توسط هوش مصنوعی به اندازه پاندمی و جنگ هسته ای است
خبرگزاری مهر

به گزارش خبرگزاری مهر به نقل از رویترز، مدیران ارشد اجرایی هوش مصنوعی از جمله سم آلتمن از شرکت «اوپن ای آی» روز گذشته همراه کارشناسان و پروفسورها درباره ریسک انقراض بشر در نتیجه گسترش هوش مصنوعی هشدار دادند. به اعتقاد آنها سیاست گذاران باید خطر ناشی از هوش مصنوعی را با ریسک پاندمی ها و جنگ هسته ای یکسان بدانند.

بیش از ۳۵۰ امضا کننده در نامه ای که توسط مرکز ایمنی هوش مصنوعی(CAIS) منتشر کرده، نوشته اند: خطر انقراض در نتیجه هوش مصنوعی باید همراه دیگر ریسک های بزرگ مانند پاندمی ها و جنگ هسته ای به یک اولویت جهانی تبدیل شود.

علاوه بر آلتمن، مدیر ارشد اجرایی شرکت های دیپ مایند و آنتروپیک و همچنین مایکروسافت و گوگل این بیانیه را امضا کردند. در کنار آنها جفری هینتون و یوشوا بنجیو (دو نفر از سه پدرخوانده هوش مصنوعی که در سال ۲۰۱۸ میلادی جایزه تورینگ را برای فعالیت خود در یادگیری عمیق دریافت کردند) و همچنین پروفسورهایی از انستیتوهای مختلف از هاروارد گرفته تا دانشگاه تسینگهوا چین نیز نامه را امضا کردند.

البته میان امضا کنندگان بیانیه CAIS نامی از شرکت متا دیده نمی شود چراکه سومین پدرخوانده هوش مصنوعی یعنی یان لی سون در آنجا کار می کند.

انتشار این نامه با ملاقات هیات تجارت و فناوری آمریکا و اتحادیه اروپا در سوئد مصادف شد که قرار بود طی آن درباره قانونمندسازی هوش مصنوعی گفتگو شود.

ایلان ماسک و گروهی از کارشناسان هوش مصنوعی و مدیران صنعتی جزو نخستین افرادی بودند که در ماه آوریل درباره ریسک های احتمالی فناوری برای جامعه هشدار دادند.

منبع خبر: خبرگزاری مهر

اخبار مرتبط: خطر انقراض توسط هوش مصنوعی به اندازه پاندمی و جنگ هسته ای است