یک پژوهش: پروپاگاندای ساخته هوش مصنوعی به اندازه پروپاگاندای جمهوری اسلامی و روسیه «متقاعد‌کننده» است

یک پژوهش: پروپاگاندای ساخته هوش مصنوعی به اندازه پروپاگاندای جمهوری اسلامی و روسیه «متقاعد‌کننده» است
صدای آمریکا

یک پژوهش جدید نشان داده است که پروپاگاندای تولید شده توسط مدل‌های زبان کلان هوش مصنوعی، مانند «جی‌پی‌تی-۳ داوینچی» به اندازه پروپاگانداهای واقعی حکومت‌های جمهوری اسلامی ایران و روسیه «متقاعدکننده» هستند.

این تحقیق که توسط جاش گلدشتاین و همکارانش از «مرکز امنیت و فن‌آوری‌های نوظهور جورج تاون» در واشنگتن انجام شد، تأثیر پروپاگاندای تولید شده توسط هوش مصنوعی را روی افکار افراد می‌سنجد.

گلدشتاین و تیمش، شش مقاله را شناسایی کردند که مرتبط با کارزارهای تبلیغاتی وابسته به جمهوری اسلامی ایران یا روسیه بودند.

این مقالات حاوی ادعاهای نادرست در رابطه با روابط خارجی آمریکا از جمله تعهد عربستان سعودی به تأمین مالی دیوار مرزی آمریکا و مکزیک و گزارش‌های جعلی استفاده دولت سوریه از سلاح‌های شیمیایی بود.

برای ارزیابی «متقاعدکننده بودن» پروپاگاندای تولید‌شده توسط هوش مصنوعی، نویسندگان از جی‌پی‌تی-۳ برای تولید مطالب تبلیغاتی جدید بر اساس جملات استخراج شده از مقاله‌های تبلیغاتی اصلی استفاده کردند. علاوه بر این، آنها جملاتی از مقالات تبلیغاتی نامرتبط را به عنوان اساسی برای شیوه و ساختار نگارشی مطالب با هم ترکیب کردند.

در دسامبر سال ۲۰۲۱، محققان هم مقالات پروپاگاندای واقعی و هم مقالات تولید شده توسط جی‌پی‌تی-۳ را به بیش از ۸ هزار فرد بزرگسال آمریکایی ارائه کردند.

حداقل ۲۴.۴ درصد از پاسخ دهندگان بدون مطالعه‌ مقاله‌، فرضیه‌های ارائه‌شده‌ را پذیرفتند. خواندن مقاله‌ها، این رقم را به ۴۷.۴ درصد رساند.

در قیاس، تأثیر خواندن مقاله‌ای که توسط جی‌پی‌تی-۳ ایجاد شده بود تقریباً معادل این رقم بود و حدود ۴۳.۵ درصد از افراد ادعاهای مطرح‌شده در این مقاله‌ها را پس از خواندن تأیید کردند.

بنابراین مقالاتی که توسط هوش مصنوعی تولید شده‌اند، در متقاعد کردن مخاطب، بسیار شبیه مقالات نوشته شده توسط انسان بودند.

پژوهشگران می‌گویند فن‌آوری هوش مصنوعی می‌تواند برای تولید محتوای قانع کننده با حداقل تلاش مورد استفاده قرار گیرد.

این موضوع منجر به افزایش نگرانی‌ها در مورد پخش احتمالی اطلاعات نادرست و تأثیر گذاشتن روی افکار عمومی در مورد موضوعات مختلف شده است.

این پژوهش بر توانایی مدل‌های زبان کلان مانند جی‌پی‌تی-۳ برای ایجاد پروپاگاندای متقاعدکننده تأکید می‌کند و نقش مداخله انسان در بالا بردن متقاعدسازی محتوای تولید شده توسط هوش مصنوعی را برجسته می‌کند.

هنگامی که محققان برای بهبود خروجی‌ها اقداماتی مانند ویرایش اشتباهات گرامری انجام دادند متوجه شدند که محتوای تولید شده توسط هوش مصنوعی بهتر از نسخه‌های اصلی عمل کرد.

محققان می‌گویند پیشرفت سریع فن‌آوری هوش مصنوعی این تهدید را بیشتر می‌کند چرا که انتظار می‌رود مدل‌های جدیدتر مانند جی‌پی‌تی-۴ پروپاگاندای متقاعدکننده‌تری تولید کنند.

چندی پیش شرکت مایکروسافت در گزارشی اعلام کرد که هکرهای تحت حمایت جمهوری اسلامی ایران، روسیه، چین و کره‌شمالی از ابزارهای «اوپن اِی‌آی» تحت حمایت این شرکت برای تقویت مهارت‌های خود و فریب دادن در مورد اهداف خود بهره می‌برند.

مایکروسافت گفت که گروه‌های هکری وابسته به سپاه پاسداران انقلاب اسلامی، اطلاعات نظامی روسیه و دولت‌های چین و کره شمالی را در حالی ردیابی و شناسایی کرده‌اند که تلاش می‌کردند با بهره‌گیری از این ابزار، کارزار هکری خود را تقویت کنند.

مایکروسافت می‌گوید هکرهای وابسته به جمهوری اسلامی برای نگارش ایمیل‌های قانع‌کننده‌تر به مدل‌های زبان کلان (سیستم‌های هوش مصنوعی برای درک، تولید و پاسخگویی به زبان انسان) تکیه کرده‌اند و در مقطعی نیز از آن‌ها برای پیش‌نویس پیامی استفاده می‌کردند که تلاش داشت «فمینیست‌های شناخته‌شده» را با کشاندن به یک وب‌سایت به دام اندازد.

«اوپن اِی‌آی» و مایکروسافت، استفاده هکرها از ابزارهای هوش مصنوعی خود را در «مرحله اولیه» توصیف کرده‌اند.

منبع خبر: صدای آمریکا

اخبار مرتبط: یک پژوهش: پروپاگاندای ساخته هوش مصنوعی به اندازه پروپاگاندای جمهوری اسلامی و روسیه «متقاعد‌کننده» است