تدابیر بین‌المللی علیه هوش مصنوعی جدید

تدابیر بین‌المللی علیه هوش مصنوعی جدید
خبرگزاری مهر

خبرگزاری مهر - گروه دانش و فناوری؛ سیدرضا حسینی: مدتی است که آوازه هوش مصنوعی و پیشرفت‌هایش در سراسر جهان پیچیده و یکی از معروف‌ترین آن‌ها که به‌محض برخورد با کلمه هوش مصنوعی در ذهن تداعی می‌شود چت جی پی تی است؛ اما اکثر اسم‌هایی که با عنوان هوش مصنوعی به گوش ما می‌رسند، در واقع نرم‌افزارهای مبتنی بر هوش مصنوعی هستند.

«ChatGPT» و «Bard» جزو گروه چت‌بات‌ها هستند و «Midjourney» و «Dall.E» از جمله مدل‌های یادگیری ماشینی هستند که برای تبدیل متن به تصویر دیجیتال ساخته شده‌اند.

با گذشت مدتی کوتاه از عرضه عمومی «ChatGPT» و رشد رکورد شکن تعداد کاربران این پلتفرم، مسئله تنظیم‌گری فناوری‌های نوظهور همچون هوش مصنوعی، بار دیگر به اولویت اصلی فعالان این حوزه و دولت‌های سراسر جهان تبدیل شده است. ابراز نگرانی از مضرات این فناوری تا آنجا پیش رفت که جفری هینتون یکی از پیش کسوت‌ها و پدرخوانده هوش مصنوعی به تازگی و پس از آنکه متوجه شد احتمالاً رایانه‌ها از انسان‌ها باهوش‌تر می‌شوند، از شرکت گوگل استعفا داد تا آزادانه درباره خطرات این فناوری صحبت کند.

وی که با ابراز نگرانی درباره خطرات هوش مصنوعی از شرکت گوگل استعفا داده است، گفت: اکنون از کار خود در این رشته پشیمان است.

او در مصاحبه‌ای با نیویورک تایمز درباره ظرفیت این فناوری برای ایجاد تصاویر و متون جعلی اظهار نگرانی کرد و گفت: این فناوری و ابزارهایش دنیایی را به وجود می‌آورند که در آنها انسان‌ها نمی‌توانند واقعیت را تشخیص دهند.

قیام کشورها علیه فناوری‌های نوظهور هوش مصنوعی

با همه اینها به عقیده بسیاری از کارشناسان، هوش مصنوعی فناوری آینده‌ساز خواهد بود و درک ما از زندگی را تا حدود زیادی تغییر خواهد داد. از همین روی با روی کار آمدن و شهرت روز افزون چت جی پی تی، سیاستمداران با عزمی راسخ در پی مهار و کنترل آن برآمده‌اند.

از سوی دیگر، غول‌های فناوری مانند مایکروسافت، گوگل و آمازون نیز در حال رقابت تنگاتنگ برای بهره‌برداری حداکثری از مواهب توسعه این فناوری نوظهور هستند و همین امر، مسئله لزوم تنظیم‌گری این حوزه را بیش از پیش برجسته ساخته است. زیرا در صورت عدم کنترل نهادهای قانون‌گذار و تنظیم‌گر بر قوانین رقابت، هوش مصنوعی مولد می‌تواند سبب کسب مزیت و قدرت نامتعارف از سویشرکت‌های بزرگ فناوری شود و این بنگاه‌های اقتصادی را بر جوامع بشری مسلط کند.

چین؛ از مقابله رویاروی تا چت بات ملی

دولت چین، در راستای مقابله با تهدیدات هوش مصنوعی دو راه حل اساسی اتخاذ کرده است. این کشور در ماه فوریه اعلام کرد که پکن از شرکت‌های پیشرو در ساخت مدل‌های هوش مصنوعی که می‌توانند «Chat GPT» را به چالش بکشند، حمایت خواهد کرد. در ماه آوریل خبرگزاری شینهوا یک بیانیه دولتی بر مبنای نشست فصلی حزب کمونیست منتشر کرد. این بیانیه تأکید می‌کند که چین باید توجه شایانی به توسعه هوش مصنوعی و خلاقیت در این حوزه و مقابله با خطرات پیش‌بینی شده آن داشته باشد. به عقیده برخی کارشناسان این اقدام چین علاوه بر اینکه نشان‌دهنده اولویت چین در تبدیل‌شدن به قدرت اول در حوزه فناوری است، مبین اهمیت «ChatGPT» و لزوم مقابله با قدرت انحصاری این پلتفرم است.

دوم اینکه دولت چین علاوه بر اینکه تلاش دارد تا چت‌بات ملی خود را داشته باشد، تلاش برای تنظیم‌گری هوش مصنوعی مولد را نیز در دستور کار خود قرار داده است. تنظیم‌کننده فضای سایبری چین (CAC) در این راستا از پیش‌نویس اقداماتی برای تنظیم‌گری خدمات هوش مصنوعی رونمایی کرد و در آن از شرکت‌ها خواست که ارزیابی‌های امنیتی خود را قبل از ارائه خدمات به مقامات اعلام کنند. اصول دولت چین در تنظیم‌گری هوش مصنوعی، نظارت بر محتوا، حمایت از حق مالکیت معنوی، مقابله با اطلاعات نادرست، حفظ حریم شخصی و محافظت از داده‌ها و رفع نابرابری است.

اولین گام مهم اتحادیه اروپا

اتحادیه اروپا و نهادهای قانون‌گذار آن در بحبوحه محبوبیت و شهرت «ChatGPT» و سایر چت‌بات‌ها و هوش مصنوعی‌های مولد در پی آسیب‌شناسی و مقابله با خطرات احتمالی این فناوری جدید، بر آمدند. در ادامه مروری بر نظرات مختلف و اقدامات انجام‌شده خواهیم داشت.

برخی از قانون‌گذاران اروپا معتقدند می‌توان از مقررات حفاظت از داده‌های عمومی (GDPR)، جهت کنترل هوش مصنوعی و صاحبان آن استفاده کرد. با توجه به اینکه هوش مصنوعی از داده‌ها برای پاسخ‌های خود استفاده می‌کند «GDPR» با اصول حفاظت از داده‌های خود، می‌تواند با هرگونه استفاده از داده‌های کاربران و نقض حریم شخصی مقابله کند.

برخی دیگر از تنظیم گران مانند هلن دیکسون، عضو هیئت نهاد حفاظت از داده‌ها ایرلند، در جلسه‌ای که در پی ممنوعیت موقت «ChatGPT» برگزار شد، معتقد بودند که عجله در تنظیم‌گری هوش مصنوعی مولد بدون درک و شناخت دقیق کارکرد و فرایند آن، مانع تنظیم‌گری مناسب و صحیح خواهد شد.

در نهایت هیئت حفاظت از داده‌های اروپا، با متحد کردن ناظران ملی حفظ حریم خصوصی اروپا، در ماه آوریل اعلام کرد که کارگروهی مخصوص «ChatGPT» راه‌اندازی کرده است که این حرکت را می‌توان اولین گام مهم قاره سبز در جهت تنظیم قوانین مشترک حفظ حریم خصوصی در حوزه هوش مصنوعی دانست؛ به عبارتی دیگر قانون‌گذاران اتحادیه اروپا همچنان در حال گفتگو، بحث و کارشناسی در مورد معرفی قانون هوش مصنوعی اتحادیه اروپا هستند تا حکمرانی حوزه هوش مصنوعی را بااقتدار پیش ببرد. قانون‌گذاران پیشنهاد کرده‌اند که ابزارهای گوناگون هوش مصنوعی را بر اساس میزان ریسک و خطرپذیری، از کم تا غیرقابل‌قبول درجه‌بندی کنند.

بنا به گفته سخنگوی وزیر صنعت و علوم استرالیا از نهاد اصلی مشاوره علمی کشور درباره نحوه برخورد باهوش مصنوعی درخواست مشورت کرده و در حال تحلیل و بررسی گام‌های بعدی خود است.

ایالات متحده آمریکا؛ تشکیل کارگروه مقابله با هوش مصنوعی

در راستای جذب میلیونی کاربران به سمت «Chat GPT» و تلاش کشورها جهت تنظیم‌گری آن، کاخ سفید در ماه مارس اعلام کرد که آمادگی شنیدن هر گونه پیشنهادی مبنی بر نحوه برخورد با «Chat GPT» و روش مسئولیت‌پذیر و پاسخگو نگه‌داشتن این فناوری جدید را دارد.

کمی قبل‌تر از آن در ماه می جو بایدن، رئیس‌جمهور ایالات متحده طی درخواستی بر بررسی پیامدهای ناشی از توسعه هوش مصنوعی تأکید کرد و شناخت و مقابله با خطرات آن را برای جامعه، امنیت ملی و اقتصاد ضروری دانست و همچنین افزود: «از نظر من، شرکت‌های فناوری مسئولیت دارند که پیش از عرضه عمومی محصولات خود، از ایمنی آن‌ها اطمینان حاصل کنند.» او از اعضای کنگره خواست که یک قانون حریم خصوصی تصویب کنند. چنین قانونی شامل مواردی مانند محدودیت شرکت‌ها در جمع‌آوری داده‌های شخصی، ممنوعیت تبلیغات برای جامعه هدف کودکان و منع انتشار اطلاعات نادرست و… خواهد بود.

طی آخرین اخبار در آوریل، مایکا بنت، سناتور آمریکایی، لایحه‌ای ارائه کرده است که بر اساس آن کارگروهی برای بررسی سیاست‌های ایالات متحده در زمینه هوش مصنوعی و شناسایی راه‌های مناسب مقابله با هر گونه نقض حریم خصوصی و آزادی‌های مدنی در آمریکا تشکیل شده و روندهای قانونی نحوه توسعه این فناوری مشخص خواهد شد.

وزیر امنیت میهن آمریکا نیز اعلام کرد کارگروه هوش مصنوعی همچنین شیوه استفاده از این فناوری برای انجام بهتر کارها مانند بررسی محموله‌های ورودی به کشور برای ردیابی کالاهای غیرقانونی را مطالعه می‌کند.

وی همچنین خواستار استفاده از هوش مصنوعی جهت ایمن سازی شبکه توزیع برق و سیستم‌های ذخیره آب شد. بیم آن می‌رود که هر دو این زیرساخت‌ها هدف دشمنان قرار گیرند.

مایورکاس اعلام کرد این فناوری به طور گسترده‌ای چشم انداز تهدیدها را تغییر می‌دهد.

کارشناسان امنیتی در واشنگتن مدعی احتمال استفاده دشمنان خارجی از قابلیت‌های هوش مصنوعی برای ضربه‌زدن به امنیت ملی ایالات متحده شدند.

وظیفه این کارگروه بر اساس لایحه منتشر شده، شناسایی نقاط ضعف در فرایند نظارت بر هوش مصنوعی و ارائه پیشنهادهایی برای بهبود و اصلاح رویه‌ها خواهد بود. اعضای این کارگروه اعضای برخی از سازمان‌های دولتی مانند: دفتر مدیریت و بودجه، نهاد ملی استاندارد و فناوری، دفتر سیاست دانش و فناوری و افسران آزادی‌های مدنی و حریم خصوصی از وزارت‌خانه‌های دادگستری، امور خارجه، خزانه‎‌داری، دفاع و سایر دستگاه‌های اجرایی هستند.

بر اساس مفاد لایحه، تشکیل این کارگروه موقتی است و بعد از ۱۸ ماه، گزارش نهایی را ارائه کرده و سپس تعطیل می‌شود.

در پنجم ماه می جو بایدن، رئیس‌جمهور ایالات متحده آمریکا به دنبال لزوم تنظیم‌گری هوش مصنوعی در نشستی با حضور مدیران شرکت‌های هوش مصنوعی از جمله مایکروسافت و گوگل به‌وضوح اعلام کرد که شرکت‌ها موظف‌اند ایمنی پلتفرم‌هایشان را قبل از توسعه آن تضمین کنند. محورهای اصلی این جلسه شامل لزوم شفافیت بیشتر شرکت‌ها در مقابل سیاست‌گذاران، اهمیت ارزیابی این محصولات و نیاز به محافظت از آنان در مقابل حملات مخرب بود. همچنین در این جلسه به نگرانی‌هایی درباره هوش مصنوعی مانند نقض حریم خصوصی، تصمیم‌های غلط در استخدام که منجر به ازبین‌رفتن مشاغل شود و ایفای نقش هوش مصنوعی به‌عنوان ناشر اطلاعات نادرست اشاره شد.

بریتانیا؛ مسئولیت پذیر کردن شرکت‌ها از طریق رویکردهای غیرسختگیرانه

دولتمردان بریتانیایی در ماه آپریل اعلام کردند هوش مصنوعی علاوه بر مزایایی که در رشد و پیشرفت بشر دارد ممکن است مشکلاتی را درباره حریم خصوصی، حقوق بشر یا ایمنی افراد ایجاد کند. آن‌ها مدعی شدند که قوانین سخت‌گیرانه و سرکوبگر را راه‌حل مناسبی نمی‌دانند و قصد دارند رویکردهای منعطف‌تر و بر اساس اصولی مانند ایمنی، شفافیت، انصاف و مسئولیت‌پذیری را در پیش گیرند.

کمی بعد استفان آلموند، مدیر اجرایی ریسک‌های امنیت داده از دفتر کمیسری اطلاعات بریتانیا هوش مصنوعی مولد بخصوص «Chat GPT» متعلق به شرکت «OpenAI» را خطری بالقوه برای امنیت داده دانست و بر اهمیت چگونگی استفاده این فناوری از داده‌های شخصی تأکید کرد. او در ادامه به لزوم متعهدشدن سازمان‌هایی که از هوش مصنوعی استفاده می‌کنند به حفاظت از داده‌های شخصی اشاره کرد و پیامدهای اهمیت‌ندادن هوش مصنوعی به حریم شخصی را بزرگ و سخت دانست.

سرانجام بریتانیا در ماه مارس اعلام کرد که قصد دارد به‌جای ایجاد یک نهاد تنظیم‌گر جدید، مسئولیت مدیریت هوش مصنوعی را بین تنظیم‌کننده‌های حقوق بشر، سلامت و ایمنی و رقابت تقسیم کنند.

ایتالیا؛ فیلترینگ و مشروط سازی

ایتالیا در ماه مارس، «ChatGPT» را موقتاً ممنوع اعلام کرد، زیرا مقامات تنظیم‌گر حفاظت از داده‌ها نگرانی‌هایی را در مورد نقض حریم خصوصی، نقض مقررات «GDPR» و کاربران زیر ۱۳ سال داشتند. همچنین سازمان دیده‌بان ایتالیا در ۲۰ مارس گفت که هیچ مبنای قانونی برای توجیه «جمع‌آوری و ذخیره انبوه داده‌های شخصی» به‌منظور «آموزش» الگوریتم‌های زیربنایی عملکرد پلتفرم وجود ندارد.

ایتالیا از شرکت سازنده هوش مصنوعی جدید خواست ابزاری فراهم کند تا همه افرادی که داده‌هایشان در چت جی پی تی مورد استفاده است، بتوانند درخواست تصحیح یا حذف داده‌های شخصی خود که به‌طور نادرست توسط این سرویس ایجاد شده‌اند را مطرح کنند. OpenAI همچنین باید به غیر کاربران اجازه دهد تا «به روشی ساده و در دسترس» با پردازش داده‌های شخصی خود برای اجرای الگوریتم‌های چت جی پی تی مخالفت کنند.

همچنین از این شرکت خواسته شده تا پایان سپتامبر یک سیستم تأیید سن را راه اندازی کند تا دسترسی کاربران زیر ۱۳ سال به چت جی پی تی ممنوع شود.

کمتر از یک ماه پس از اعمال ممنوعیت‌هایی برای ChatGPT به دلیل نگرانی‌های مربوط به حریم خصوصی توسط ایتالیا، دولت این کشور در روز جمعه نسبت به رویکرد خود درباره چت‌بات OpenAI عقب نشینی کرد. تصمیم جدید ایتالیا پس از پاسخگویی این استارتاپ به نگرانی‌هایی که درباره حریم خصوصی و امنیت داده‌های کاربران در پلتفرم هوش مصنوعی آنها مطرح شده بود، اتخاذ شده است.

آلمان و اقدامی مشابه ایتالیا

همچنین در روزهای اخیر ۴۲ انجمن و اتحادیه تجاری آلمانی که نماینده بیش از ۱۴۰ هزار مؤلف و بازیگر هستند از اتحادیه اروپا خواسته اند سریع‌تر پیش نویس قوانین هوش مصنوعی را فراهم کند. آنها به تهدید «چت جی پی تی» برای کپی رایت آثارشان اشاره کردند.

در این نامه به اهمیت نگرانی‌های روزافزون درباره هوش مصنوعی مولد مانند چت جی پی تی که می‌تواند از انسان‌ها تقلید کند و متن و تصویر بسازد، نیز پرداخته شده است.

در بخشی از این نامه آمده است: استفاده غیرمجاز از محتوای آموزشی محافظت شده، پردازش غیرشفاف آن و جایگزین کردن قابل پیش بینی منابع با محصول خروجی هوش مصنوعی مولد سوالاتی بنیادین درباره مسئولیت پذیری و پاداش ایجاد می‌کند که باید قبل از ایجاد آسیب‌های جبران ناپذیر، به آنها پرداخته شود. هوش مصنوعی مولد باید در مرکز هر قانون مربوط به بازار هوش مصنوعی باشد.

از سوی دیگر به نظر می‌رسد آلمان در نظر دارد به دلیل نگرانی در مورد حریم خصوصی، استفاده از چت جی‌پی‌تی را ممنوع کند. به گزارش ایندیپندنت، اولریش کلبر، رئیس حفاظت از داده‌های کشور آلمان، به روزنامه هندلسبلات (Handelsblatt) گفت: «به دنبال ممنوعیت چت جی‌پی‌تی در ایتالیا، ناظران آلمانی با همتایان ایتالیایی خود در ارتباط هستند و حالا این احتمال وجود دارد که چنین اقدامی در آلمان نیز صورت بگیرد.»

ژاپن؛ اجلاس G۷ و بیانیه پایانی با محوریت هوش مصنوعی

وزرای کشورهای عضو گروه ۷ معتقدند باید قوانینی مبتنی بر ریسک برای هوش مصنوعی به کار گیرند.

این در حالی است که قانونگذاران اروپایی سعی دارند هرچه سریع‌تر یک قانون مرتبط با ابزارهای نوظهوری مانند چت جی پی تی وضع کنند البته طبق بیانیه مشترک وزرای گروه ۷، قانون مذکور باید یک محیط باز و توانمند برای توسعه فناوری‌های هوش مصنوعی را حفظ کند و مبتنی بر ارزش‌های دموکراتیک باشد.

این بیانیه در پایان اجلاس ۲روزه گروه در ژاپن صادر شده است.

هر چند به اعتقاد وزرا ممکن است ابزارهای سیاستگذاری برای دستیابی به چشم اندازی یکسان و هدف ایجاد یک سیستم هوش مصنوعی ایمن بین کشورهای عضو این گروه متفاوت باشد، اما توافق مذکور نقطه عطفی در زمینه نظارت کشورهای پیشرفته بر هوش مصنوعی در بحبوحه اوج گیری نگرانی‌های حریم خصوصی و ریسک‌های امنیتی است.

مارگارت وستاگر کمیسر رقابت اتحادیه اروپا پیش از توافق در این باره گفت: نتیجه گیری اجلاس گروه ۷ نشان می‌دهد ما در زمینه قانونگذاری برای هوش مصنوعی تنها نیستیم.

در بخش دیگری از بیانیه وزرای این گروه آمده است: ما تصمیم داریم در آینده مذاکرات درباره هوش مصنوعی مولد را در اجلاس‌های گروه ۷ ادامه دهیم. در این مذاکرات احتمالاً موضوعاتی مانند نظارت، چگونگی حفاظت از حقوق مالکیت معنوی از جمله کپی رایت، ترویج شفافیت، بررسی اطلاعات اشتباه (از جمله اطلاعاتی که توسط نیروهای خارجی دستکاری می‌شود) مورد بحث قرار می‌گیرد.

در این میان ژاپن که رئیس گروه ۷ در سال جاری است، روشی آسانگیرانه تر در خصوص توسعه دهندگان هوش مصنوعی در پیش گرفته و خواستار پشتیبانی عمومی و صنعتی از توسعه هوش مصنوعی شده است.

ژاپن امیدوار است تا گروه ۷ را به یک فرایند نظارتی انعطاف پذیر به جای قوانینی سختگیرانه در خصوص هوش مصنوعی متقاعد کند.

روسیه؛ گیگا چت بومی

بانک روسی «اسبربانک» (Sberbank) رقیب چت جی پی تی به نام «گیگاچت» را ارائه کرده است. این فناوری در حال حاضر در وضعیت آزمایشی است و افراد با استفاده از دعوتنامه می‌توانند از آن استفاده کنند.

به گفته اسبربانک نکته متمایز گیگاچت توانایی برقراری ارتباط هوشمندانه‌تر به زبان روسی نسبت به سایر شبکه‌های عصبی خارجی است.

اسبربانک یا بانک پس‌انداز فدراسیون روسیه بزرگترین بانک در روسیه و اروپای شرقی است که در سال‌های اخیر سرمایه گذاری عظیمی در این فناوری کرده است. هدف این بانک کاهش اتکای کشور به واردات است زیرا پس از حمله روسیه به اوکراین کشورهای غربی صادرات را به شدت کاهش داده و تحریم‌های علیه آن وضع کرده اند.

ضرورت پیوست نگاری برای فناوری‌های نوظهور

«علی زرودی»، پژوهشگر فضای مجازی و مدرس دانشگاه، در گفتگو با خبرنگار مهر درباره تهدیدات بالقوه هوش مصنوعی گفت: هوش مصنوعی مانند بسیاری از فناوری‌های نوظهور گذشته، گرچه مزایای شگفت‌انگیزی دارد و فرصت‌های بی‌بدیلی می‌آفریند؛ اما جوامع بشری را با تهدیدات بزرگی مواجه می‌کند. یکی از مهمترین این تهدیدات نقض امنیت داده و حریم خصوصی است.

وی افزود: تهدید دیگر بیکارشدن بخشی از نیروی کار فعلی جوامع است. افزایش نظارت دولت‌ها و شرکت‌های صاحب فناوری بر کاربران، افزایش دستکاری در افکار عمومی به واسطه تسهیل تولید و انتشار محتوای نادرست و جعلی (مانند ساخت ویدئوی جعلی از سخنرانی یک شخصیت مشهور)، پیچیده‌تر شدن حملات سایبری، جاسوسی و باج‌افزارها نیز از دیگر تهدیدات این فناوری محسوب می‌شوند.

پژوهشگر فضای مجازی گفت: البته هوش مصنوعی برای تقابل با این تهدیدات هم یاریگر انسان‌ها خواهد بود؛ به عنوان مثال تقویت «دفاع سایبری» از مزایای این فناوری محسوب می‌شود. نکته دیگر این است که پیش‌بینی این تهدیدات و اتخاذ تدابیر تنظیم‌گرانه برای مقابله با آن‌ها مهم و ضروری است.

وی در ادامه و در مورد دلیل تمرکز نهادهای تنظیم‌گر جهان بر حوزه فناوری هوش مصنوعی افزود: وظیفه قانون‌گذاران و به طور کلی حکمرانان یک جامعه، تضمین منافع و مصالح عمومی آن جامعه است. هدف محوری شرکت‌های هوش مصنوعی مانند سایر شرکت‌ها در بخش خصوصی، بیشینه کردن سود تجاری است. بنابراین این شرکت‌ها به دنبال خلاقیت و نوآوری روزانه هستند. از آنجا که مطابق نظریات جامعه شناختی، سرعت تغییرات ارزشی و هنجاری در یک جامعه بسیار کمتر از سرعت تغییرات فناوری در آن جامعه است (که اصطلاح تأخر فرهنگی/Cultural Lag را برای این پدیده استفاده می‌کنند) تحولات روزانه فناوری‌ها موجب اختلال در سیستم ارزشی جوامع می‌شود.

زرودی افزود: اگر این تحول فناورانه، به صورت وارداتی باشد، شدت تأخر فرهنگی و اختلال ذکر شده بیشتر خواهد بود. تحولات سیستم ارزشی جامعه پیامدهایی برای سایر سیستم‌ها همچون سیاست، فرهنگ، اقتصاد، تربیت و… دارد و منافع عمومی را به خطر می‌اندازد. قانون‌گذار به ویژه در کشورهایی که واردکننده فناوری هستند، تلاش می‌کند تا با محدودکردن شرکت‌های فناوری از اختلالات ذکر شده بکاهد. به عنوان مثال بریتانیا و اتحادیه اروپا که در زمینه تحولات فناوری از شرکت‌های آمریکایی عقب افتاده‌اند و محصولات فناورانه داخلی آن‌ها نمی‌تواند با محصولات شرکت‌های آمریکایی رقابت کند، به مقررات‌گذاریِ حداکثری برای شرکت‌های آمریکایی روی آورده‌اند.

وی در این مورد گفت: فناوری‌های نوظهور همواره می‌تواند شتاب پیشرفت اقتصادی را بیشتر کند مشروط به آنکه رویکرد فعالانه (بدون تأخیر، آینده‌نگرانه و مبتنی بر طراحی بومی) وجود داشته باشد و زیرساخت‌های حقوقی، اقتصادی، اجتماعی و سیاسی لازم برای توسعه آن فناوری مهیا شود. با درنظر گرفتن چنین شرایطی، فناوری نوظهور می‌تواند در مسیر پیشرفت، جهش ایجاد کند.

هر یک روز تأخیر ما برای ورود به طراحی اکوسیستم بومی یک فناوری منجر به این می‌شود که در آن فناوری عقب‌مانده و بدون قدرت باشیم. اقتضای حکمرانی فعال، غنیمت شمردن فرصت‌هاست

پژوهشگر فضای مجازی و مدرس دانشگاه اظهار داشت: تاکنون چنین مواجهه مطلوبی با فناوری‌های نوظهور نداشته‌ایم. اقدامات گذشته ما منفعلانه بوده است. یا جلوی یک فناوری را گرفته‌ایم یا در نهایت آن را وارد کرده و برایش پیوست فرهنگی و زیست محیطی و… نوشته‌ایم. پیوست‌نگاری برای فناوری‌های نوظهور حتی اگر نوع پیوست‌نگاری پیشینی (یعنی پیش از ورود فناوری به کشور) باشد، اقدامی منفعلانه است. اقدام فعالانه در مواجهه با فناوری جدید، طراحی بومی باشد ضروری است. چند سال قبل که ما از ضرورت طراحی بومی اینترنت اشیا صحبت می‌کردیم، برخی این موضوع را باور نداشتند تا اینکه در دو سال گذشته، آفکام در رویکرد جدید خود برای توسعه سواد رسانه‌ای، اقدام به تعامل با پلتفرم‌ها کرده است تا طراحی پلتفرم‌ها متناسب با اصول سواد رسانه‌ای مدنظر آفکام باشد. درواقع مقررات و ارزش‌ها را در مرحله طراحی فناوری پیاده‌سازی می‌کند. بعد از این اقدام آفکام، حرف ما نیز درخصوص طراحی بومی اینترنت اشیا شنیده شد. امروز هم همین موضوع درمورد هوش مصنوعی و سایر فناوری‌ها وجود دارد. هر یک روز تأخیر ما برای ورود به طراحی اکوسیستم بومی یک فناوری منجر به این می‌شود که در آن فناوری عقب‌مانده و بدون قدرت باشیم. اقتضای حکمرانی فعال، غنیمت شمردن فرصت‌هاست.

به گزارش مهر، هوش مصنوعی‌هایی مانند «ChatGPT» مزایای بسیاری دارند، این پلتفرم‌ها می‌توانند سرعت رشد و توسعه علم را بالا برده و به تجارت، اکتشاف، آموزش، سیاست‌گذاری و بسیاری از مسائل خرد و کلان زندگی بشر رونق بیشتری داده و کیفیتشان را بالا ببرد؛ اما بی‌اهمیتی به معایب آن و اقدام‌نکردن به‌موقع برای تنظیم‌گری درست و به‌قاعده می‌تواند آثار جبران‌ناپذیری داشته باشد که نه‌تنها خود آسیب می‌زنند بلکه مزایای هوش مصنوعی را هم عملاً بی‌فایده خواهند کرد.

خبرگزاری مهر را در شبکه‌های اجتماعی دنبال کنید

منبع خبر: خبرگزاری مهر

اخبار مرتبط: تدابیر بین‌المللی علیه هوش مصنوعی جدید