هشدار نسبت به استفاده از هوش مصنوعی در تولید محتوای سوءاستفاده جنسی از کودکان

هشدار نسبت به استفاده از هوش مصنوعی در تولید محتوای سوءاستفاده جنسی از کودکان
بی بی سی فارسی
هشدار نسبت به استفاده از هوش مصنوعی در تولید محتوای سوءاستفاده جنسی از کودکان
  • جو تایدی
  • گزارشگر حوزه سایبری بی‌بی‌سی
۴ ساعت پیشتوضیح تصویر،

از ماه گذشته تصاویر تولیدشده باهوش مصنوعی با محتوی سو استفاده جنسی از کودکان در اینترنت به اشتراک گذاشته شده

یک سازمان خیریه کودکان می‌خواهد نشست بین‌المللی هوش مصنوعی مسئله تصاویر سو استفاده جنسی از کودکان توسط هوش مصنوعی را در فهرست موضوعات خود قرار دهد.

بنیاد دیدبان اینترنت (آی دبلیو اف) می‌خواهد برخورد با این موضوع در دستور کار نشست جهانی امنیت هوش مصنوعی که پاییز امسال برگزار خواهد شد قرار بگیرد.

یکی از بزرگ‌ترین خیریه‌های کودکان در بریتانیا از نخست وزیر این کشور ریشی سوناک خواسته است با تصاویر تعرض جنسی به کودکان که ساخته هوش مصنوعی هستند، برخورد و مقابله کند.

بریتانیا قرار است اولین نشست جهانی امنیت هوش مصنوعی را در پاییز امسال برگزار کند. بنیاد دیدبان اینترنت (ای دبلیو اف) تصاویر سوءاستفاده جنسی کودکان را از اینترنت پاک می‌کند. این بنیاد می‌گوید تصاویر ساخته‌شده باهوش مصنوعی رو به افزایش هستند.

بنیاد دیدبان اینترنت از ماه گذشته شاهد تصاویر تولیدشده باهوش مصنوعی با محتوی سو استفاده جنسی از کودکان بوده است.

Skip مطالب پیشنهادی and continue readingمطالب پیشنهادی
  • هوش مصنوعی چیست؟ آیا خطرناک است؟
  • آیا چین می‌تواند در ماراتن هوش مصنوعی از آمریکا جلو بیفتد؟
  • چرا ایمن‌سازی هوش مصنوعی آنقدرها هم که فکر می‌کنید آسان نیست
  • المپیک ۲۰۲۴ پاریس: نگرانی‌ها از به‌کارگیری هوش مصنوعی در سیستم‌های نظارتی

End of مطالب پیشنهادی

آنها کشف کردند که خلافکارانی از سراسر جهان در حال به اشتراک گذاشتن تصاویری هستند که شباهت فوق‌العاده‌ای به عکس‌های واقعی دارند.

سوزی هارگریوز، مدیر اجرایی بنیاد دیدبان اینترنت می‌گوید: «ما هنوز شاهد این تصاویر در ابعادی وسیع نیستیم اما برایمان به‌وضوح روشن است که این تصاویر قابلیتی در اختیار خلاف‌کاران می‌گذارند تا حجم بسیار بالایی از تصاویر فوق‌العاده طبیعی از تعرض جنسی به کودکان تولید کنند.»

بی‌بی‌سی نسخه ویرایش شده بعضی از این تصاویر را دیده است که در آن دختران حدوداً ۵ ساله و برهنه در ژست‌هایی جنسی دیده می‌شوند.

بنیاد دیدبان اینترنت یکی از سه سازمان خیریه در جهان است که مجوز رسمی برای جستجو محتوی سوءاستفاده جنسی کودکان در اینترنت دارند.

این بنیاد اولین تصویرهای سو استفاده جنسی از کودکان که باهوش مصنوعی ساخته‌شده‌اند را در ۲۴ ماه مه امسال ثبت کرد و آن‌طور که می‌گوید محققان تا ۳۰ ماه ژوئن توانستند ۲۹ وب‌سایت و هفت صفحه مجازی که در آن‌ها آلبوم‌های عکس تصاویر هوش مصنوعی به اشتراک گذاشته‌شده بود کشف کنند. این خیریه تعداد دقیق تصاویر را اعلام نکرد اما می‌گوید ده‌ها تصویر هوش مصنوعی با تصاویر آزار جنسی واقعی ترکیب‌شده‌ و در وب سایت‌های غیرقانونی به اشتراک گذاشته‌شده‌اند.

بعضی از این تصاویر جز دسته‌بندی‌ قرار می‌گیرند که کارشناسان به آن‌ها تصاویر رده آ میگویند یعنی تصاویر با بالاترین درجه خشونت که در آن‌ها عمل دخول نمایش داده‌شده است.

تولید و تهیه تصاویر سوءاستفاده جنسی از کودکان تقریباً در تمام کشورها ممنوع است.

  • افشای تجارت غیرقانونی تصاویر سوءاستفاده جنسی از کودکان که با هوش مصنوعی تولید شده
  • بازداشت صدها نفر در پرونده سوءاستفاده جنسی از کودکان در شبکه تاریک اینترنت
  • هشدار سازمان ملل درباره سوء‌استفاده جنسی از کودکان مهاجر
  • چطور به قلدری در مدارس پایان دهیم؟
از پادکست رد شوید و به خواندن ادامه دهیدپادکستصفحه ۲

در این برنامه با صاحب‌نظران درباره مسائل سیاسی و اجتماعی روز گفت‌ و‌ گو می‌کنیم.

پادکست

پایان پادکست

خانم هارگریوز می‌گوید: «ما الآن فرصت مناسبی داریم تا از این تکنولوژی جدید پیشی بگیریم. قوانینی باید مسئله سو استفاده جنسی از کودکان باهوش مصنوعی را در نظر بگیرند و جلوگیری از شیوع این تهدید جدید را جز هدف‌های خود قرار دهند.»

آقای سوناک در ماه ژوئن اعلام کرد برنامه‌ای برای میزبانی اولین نشست جهانی برای امنیت هوش مصنوعی در بریتانیا دارد.

دولت وعده داده است متخصصان و قانون‌گذاران را گرد هم بیاورد تا خطرات احتمالی هوش مصنوعی را موردبررسی قرار دهند و در مورد روش‌هایی برای همکاری بین‌المللی جهت کنترل آن بحث و گفتگو شود.

متخصصان بنیاد امنیت اینترنت به‌عنوان بخشی از فعالیت‌هایشان ترندهایی که در تولید و انتشار تصاویر آزار جنسی کودکان رخ می‌دهد را بررسی می‌کنند. یکی از ترندهای اخیر، گسترش تصویرهایی است که اصطلاحاً تصاویر سو استفاده «خود تولیدشده» نامیده می‌شوند. برای تولید این تصاویر،مجرم کودکی را ترغیب می‌کند تا برایش عکس یا ویدئوهایی از خود بفرستد.

خیریه آی دبلیو اف نگران گسترش روند تولید تصویرها با کمک هوش مصنوعی است. هرچند تعداد تصویرهای کشف‌شده همچنان در مقایسه با دیگر اشکال سوءاستفاده میزان جزئی را تشکیل می‌دهد.

توضیح تصویر،

پروفسور بیورن اومر یکی از طراحان ارشد برنامه استیبل دیفیوژن از تصمیم خود برای باز کردن دسترسی به برنامه دفاع می‌کند

در سال ۲۰۲۲ آی دبلیو اف ۲۵۰ هزار وب‌سایت که دارای تصاویر سو استفاده جنسی از کودکان بود را ثبت و تلاش کرد آن‌ها را غیرقابل‌دسترس کند.

تحلیلگران آی دبلیو اف همچنین گفتگوهایی در فروم های خلاف‌کاران پیدا کردند که در آن‌ها توصیه‌ها و آموزش‌هایی درباره اینکه چطور واقعی‌ترین تصاویر از سو استفاده جنسی کودکان تهیه کنند به اشتراک گذاشته‌شده بود.

آن‌ها راه‌هایی پیداکرده بودند که هوش مصنوعی را گول بزنند و به آن آموزش دهند چطور تصویر سواستفاده جنسی از کودکان طراحی کند. آن‌ها به مدل‌های با منبع آزاد هوش مصنوعی (اوپن سورس) دست پیداکرده و موانع ایمنی داخل آن را از بین برده بودند.

درحالی‌که بیشتر تصاویر تولیدشده باهوش مصنوعی در ساختار خود مقررات سخت‌گیرانه‌ای دارند تا مانع استفاده مصرف‌کنندگان همراه با کلمات و جمله‌های ممنوعه شوند، ابزارهای منبع باز (اوپن سورس) وجود دارند که به شکل مجانی قابل دانلود هستند و اجازه هر استفاده ای را به کاربر میدهند.

یکی از معروف‌ترین این منابع استیبل دیفیوژن است. کدهای این برنامه در ماه اوت سال ۲۰۲۲ به دست یک تیم از محققان دانشگاهی درزمینهٔ هوش مصنوعی منتشر شد.

بی‌بی‌سی با یکی از تولیدکنندگان تصویر به کمک هوش مصنوعی صحبت کرد. او نسخه اختصاص‌یافته‌ای از استیبل فیوژن را به کار می‌برد تا با کمک آن تصاویر جنسی از دخترانی که به سن نوجوانی نرسیده‌اند تولید کند.

این مرد ژاپنی گفت تصویرهای «قشنگی» که تولید می‌کند کاملاً توجیه شدنی هستند زیرا «برای اولین بار در تاریخ، می‌توان تصویرهایی از کودکان درست کرد بی‌اینکه کودکان واقعی را مورد سو استفاده جنسی قرارداد.»

کارشناسان هشدار می‌دهند که این تصاویر می‌توانند آسیب‌های جدی وارد کنند.

دکتر مایکل بورک که در مورد آزارگران جنسی و آزارگران جنسی کودکان در خدمات مارشال‌های ایالات‌متحده ( از نهادهای انتظامی) کار می‌کند، می‌گوید: «هیچ شکی ندارم که هوش مصنوعی تمایل به آزار جنسی کودکان را بالا خواهد برد و این انحراف شدت خواهد گرفت و آسیب‌ها و خطرهای جدی‌تری برای کودکان در سراسر جهان ایجاد خواهد شد.»

پروفسور بیورن اومر یکی از طراحان ارشد برنامه استیبل دیفیوژن از تصمیم خود برای باز کردن دسترسی به این برنامه دفاع می‌کند. او به بی‌بی‌سی می‌گوید از زمانی که کدهای برنامه را به شکل آزاد منتشر کردند صدها پروژه دانشگاهی جدید و چندین و چند کسب و کار پررونق از آن زاده شده‌اند.

او می‌گوید همین دستاوردها می‌تواند تصمیم او و همکارانش را توجیه کند و ادامه می‌دهد متوقف کردن تحقیق و توسعه پروژه‌ها راه‌حل درستی نیست.

او می‌گوید: «ما باید این واقعیت را بپذیریم که این روند توسعه جهانی است. اینکه آن را در این برهه زمانی متوقف کنیم جلوی توسعه این تکنولوژی را در کشورهای دیگر جهان و جوامعی که دموکراتیک نیستند را نخواهد گرفت. ما باید گام‌های فکر شده‌ای برای قانون‌مند کردن این پیشرفت که با سرعت زیادی به جلو حرکت می‌کند، پیدا کنیم.»

استیبلیتی ای آی، که در ضمن بودجه توسعه و ساخت مدل‌ها را هم تأمین کرد یکی از اصلی‌ترین شرکت‌های تولیدکننده نسخه‌های جدیدتر استیبل دیفیوژن است. استیبل ای آی حاضر به مصاحبه با ما نشد اما قبلاً اعلام کرده است استفاده غیرقانونی از همه نسخه‌هایش برای تولید تصاویر غیراخلاقی را منع می‌کند.

هشدار نسبت به استفاده از هوش مصنوعی در تولید محتوای سوءاستفاده جنسی از کودکان

  • جو تایدی
  • گزارشگر حوزه سایبری بی‌بی‌سی
از ماه گذشته تصاویر تولیدشده باهوش مصنوعی با محتوی سو استفاده جنسی از کودکان در اینترنت به اشتراک گذاشته شده
توضیح تصویر،

از ماه گذشته تصاویر تولیدشده باهوش مصنوعی با محتوی سو استفاده جنسی از کودکان در اینترنت به اشتراک گذاشته شده

یک سازمان خیریه کودکان می‌خواهد نشست بین‌المللی هوش مصنوعی مسئله تصاویر سو استفاده جنسی از کودکان توسط هوش مصنوعی را در فهرست موضوعات خود قرار دهد.

بنیاد دیدبان اینترنت (آی دبلیو اف) می‌خواهد برخورد با این موضوع در دستور کار نشست جهانی امنیت هوش مصنوعی که پاییز امسال برگزار خواهد شد قرار بگیرد.

یکی از بزرگ‌ترین خیریه‌های کودکان در بریتانیا از نخست وزیر این کشور ریشی سوناک خواسته است با تصاویر تعرض جنسی به کودکان که ساخته هوش مصنوعی هستند، برخورد و مقابله کند.

بریتانیا قرار است اولین نشست جهانی امنیت هوش مصنوعی را در پاییز امسال برگزار کند. بنیاد دیدبان اینترنت (ای دبلیو اف) تصاویر سوءاستفاده جنسی کودکان را از اینترنت پاک می‌کند. این بنیاد می‌گوید تصاویر ساخته‌شده باهوش مصنوعی رو به افزایش هستند.

بنیاد دیدبان اینترنت از ماه گذشته شاهد تصاویر تولیدشده باهوش مصنوعی با محتوی سو استفاده جنسی از کودکان بوده است.

آنها کشف کردند که خلافکارانی از سراسر جهان در حال به اشتراک گذاشتن تصاویری هستند که شباهت فوق‌العاده‌ای به عکس‌های واقعی دارند.

سوزی هارگریوز، مدیر اجرایی بنیاد دیدبان اینترنت می‌گوید: «ما هنوز شاهد این تصاویر در ابعادی وسیع نیستیم اما برایمان به‌وضوح روشن است که این تصاویر قابلیتی در اختیار خلاف‌کاران می‌گذارند تا حجم بسیار بالایی از تصاویر فوق‌العاده طبیعی از تعرض جنسی به کودکان تولید کنند.»

بی‌بی‌سی نسخه ویرایش شده بعضی از این تصاویر را دیده است که در آن دختران حدوداً ۵ ساله و برهنه در ژست‌هایی جنسی دیده می‌شوند.

بنیاد دیدبان اینترنت یکی از سه سازمان خیریه در جهان است که مجوز رسمی برای جستجو محتوی سوءاستفاده جنسی کودکان در اینترنت دارند.

این بنیاد اولین تصویرهای سو استفاده جنسی از کودکان که باهوش مصنوعی ساخته‌شده‌اند را در ۲۴ ماه مه امسال ثبت کرد و آن‌طور که می‌گوید محققان تا ۳۰ ماه ژوئن توانستند ۲۹ وب‌سایت و هفت صفحه مجازی که در آن‌ها آلبوم‌های عکس تصاویر هوش مصنوعی به اشتراک گذاشته‌شده بود کشف کنند. این خیریه تعداد دقیق تصاویر را اعلام نکرد اما می‌گوید ده‌ها تصویر هوش مصنوعی با تصاویر آزار جنسی واقعی ترکیب‌شده‌ و در وب سایت‌های غیرقانونی به اشتراک گذاشته‌شده‌اند.

بعضی از این تصاویر جز دسته‌بندی‌ قرار می‌گیرند که کارشناسان به آن‌ها تصاویر رده آ میگویند یعنی تصاویر با بالاترین درجه خشونت که در آن‌ها عمل دخول نمایش داده‌شده است.

تولید و تهیه تصاویر سوءاستفاده جنسی از کودکان تقریباً در تمام کشورها ممنوع است.

از پادکست رد شوید و به خواندن ادامه دهید
پادکست
صفحه ۲

در این برنامه با صاحب‌نظران درباره مسائل سیاسی و اجتماعی روز گفت‌ و‌ گو می‌کنیم.

پادکست

پایان پادکست

خانم هارگریوز می‌گوید: «ما الآن فرصت مناسبی داریم تا از این تکنولوژی جدید پیشی بگیریم. قوانینی باید مسئله سو استفاده جنسی از کودکان باهوش مصنوعی را در نظر بگیرند و جلوگیری از شیوع این تهدید جدید را جز هدف‌های خود قرار دهند.»

آقای سوناک در ماه ژوئن اعلام کرد برنامه‌ای برای میزبانی اولین نشست جهانی برای امنیت هوش مصنوعی در بریتانیا دارد.

دولت وعده داده است متخصصان و قانون‌گذاران را گرد هم بیاورد تا خطرات احتمالی هوش مصنوعی را موردبررسی قرار دهند و در مورد روش‌هایی برای همکاری بین‌المللی جهت کنترل آن بحث و گفتگو شود.

متخصصان بنیاد امنیت اینترنت به‌عنوان بخشی از فعالیت‌هایشان ترندهایی که در تولید و انتشار تصاویر آزار جنسی کودکان رخ می‌دهد را بررسی می‌کنند. یکی از ترندهای اخیر، گسترش تصویرهایی است که اصطلاحاً تصاویر سو استفاده «خود تولیدشده» نامیده می‌شوند. برای تولید این تصاویر،مجرم کودکی را ترغیب می‌کند تا برایش عکس یا ویدئوهایی از خود بفرستد.

خیریه آی دبلیو اف نگران گسترش روند تولید تصویرها با کمک هوش مصنوعی است. هرچند تعداد تصویرهای کشف‌شده همچنان در مقایسه با دیگر اشکال سوءاستفاده میزان جزئی را تشکیل می‌دهد.

توضیح تصویر،

پروفسور بیورن اومر یکی از طراحان ارشد برنامه استیبل دیفیوژن از تصمیم خود برای باز کردن دسترسی به برنامه دفاع می‌کند

در سال ۲۰۲۲ آی دبلیو اف ۲۵۰ هزار وب‌سایت که دارای تصاویر سو استفاده جنسی از کودکان بود را ثبت و تلاش کرد آن‌ها را غیرقابل‌دسترس کند.

تحلیلگران آی دبلیو اف همچنین گفتگوهایی در فروم های خلاف‌کاران پیدا کردند که در آن‌ها توصیه‌ها و آموزش‌هایی درباره اینکه چطور واقعی‌ترین تصاویر از سو استفاده جنسی کودکان تهیه کنند به اشتراک گذاشته‌شده بود.

آن‌ها راه‌هایی پیداکرده بودند که هوش مصنوعی را گول بزنند و به آن آموزش دهند چطور تصویر سواستفاده جنسی از کودکان طراحی کند. آن‌ها به مدل‌های با منبع آزاد هوش مصنوعی (اوپن سورس) دست پیداکرده و موانع ایمنی داخل آن را از بین برده بودند.

درحالی‌که بیشتر تصاویر تولیدشده باهوش مصنوعی در ساختار خود مقررات سخت‌گیرانه‌ای دارند تا مانع استفاده مصرف‌کنندگان همراه با کلمات و جمله‌های ممنوعه شوند، ابزارهای منبع باز (اوپن سورس) وجود دارند که به شکل مجانی قابل دانلود هستند و اجازه هر استفاده ای را به کاربر میدهند.

یکی از معروف‌ترین این منابع استیبل دیفیوژن است. کدهای این برنامه در ماه اوت سال ۲۰۲۲ به دست یک تیم از محققان دانشگاهی درزمینهٔ هوش مصنوعی منتشر شد.

بی‌بی‌سی با یکی از تولیدکنندگان تصویر به کمک هوش مصنوعی صحبت کرد. او نسخه اختصاص‌یافته‌ای از استیبل فیوژن را به کار می‌برد تا با کمک آن تصاویر جنسی از دخترانی که به سن نوجوانی نرسیده‌اند تولید کند.

این مرد ژاپنی گفت تصویرهای «قشنگی» که تولید می‌کند کاملاً توجیه شدنی هستند زیرا «برای اولین بار در تاریخ، می‌توان تصویرهایی از کودکان درست کرد بی‌اینکه کودکان واقعی را مورد سو استفاده جنسی قرارداد.»

کارشناسان هشدار می‌دهند که این تصاویر می‌توانند آسیب‌های جدی وارد کنند.

دکتر مایکل بورک که در مورد آزارگران جنسی و آزارگران جنسی کودکان در خدمات مارشال‌های ایالات‌متحده ( از نهادهای انتظامی) کار می‌کند، می‌گوید: «هیچ شکی ندارم که هوش مصنوعی تمایل به آزار جنسی کودکان را بالا خواهد برد و این انحراف شدت خواهد گرفت و آسیب‌ها و خطرهای جدی‌تری برای کودکان در سراسر جهان ایجاد خواهد شد.»

پروفسور بیورن اومر یکی از طراحان ارشد برنامه استیبل دیفیوژن از تصمیم خود برای باز کردن دسترسی به این برنامه دفاع می‌کند. او به بی‌بی‌سی می‌گوید از زمانی که کدهای برنامه را به شکل آزاد منتشر کردند صدها پروژه دانشگاهی جدید و چندین و چند کسب و کار پررونق از آن زاده شده‌اند.

او می‌گوید همین دستاوردها می‌تواند تصمیم او و همکارانش را توجیه کند و ادامه می‌دهد متوقف کردن تحقیق و توسعه پروژه‌ها راه‌حل درستی نیست.

او می‌گوید: «ما باید این واقعیت را بپذیریم که این روند توسعه جهانی است. اینکه آن را در این برهه زمانی متوقف کنیم جلوی توسعه این تکنولوژی را در کشورهای دیگر جهان و جوامعی که دموکراتیک نیستند را نخواهد گرفت. ما باید گام‌های فکر شده‌ای برای قانون‌مند کردن این پیشرفت که با سرعت زیادی به جلو حرکت می‌کند، پیدا کنیم.»

استیبلیتی ای آی، که در ضمن بودجه توسعه و ساخت مدل‌ها را هم تأمین کرد یکی از اصلی‌ترین شرکت‌های تولیدکننده نسخه‌های جدیدتر استیبل دیفیوژن است. استیبل ای آی حاضر به مصاحبه با ما نشد اما قبلاً اعلام کرده است استفاده غیرقانونی از همه نسخه‌هایش برای تولید تصاویر غیراخلاقی را منع می‌کند.

&config=http://www.bbc.co.uk/worldservice/scripts/core/2/emp_jsapi_config.xml?212&relatedLinksCarousel=false&embedReferer=http://www.bbc.co.uk/persian/&config_settings_language=en&config_settings_showFooter=false&domId=emp-15228070&config_settings_autoPlay=true&config_settings_displayMode=standard&config_settings_showPopoutButton=true&uxHighlightColour=0xff0000&showShareButton=true&config.plugins.fmtjLiveStats.pageType=t2_eav1_Started&embedPageUrl=$pageurl&messagesFileUrl=http://www.bbc.co.uk/worldservice/emp/3/vocab/en.xml&config_settings_autoPlay=false" />

هشدار نسبت به استفاده از هوش مصنوعی در تولید محتوای سوءاستفاده جنسی از کودکان

  • جو تایدی
  • گزارشگر حوزه سایبری بی‌بی‌سی
از ماه گذشته تصاویر تولیدشده باهوش مصنوعی با محتوی سو استفاده جنسی از کودکان در اینترنت به اشتراک گذاشته شده
توضیح تصویر،

از ماه گذشته تصاویر تولیدشده باهوش مصنوعی با محتوی سو استفاده جنسی از کودکان در اینترنت به اشتراک گذاشته شده

یک سازمان خیریه کودکان می‌خواهد نشست بین‌المللی هوش مصنوعی مسئله تصاویر سو استفاده جنسی از کودکان توسط هوش مصنوعی را در فهرست موضوعات خود قرار دهد.

بنیاد دیدبان اینترنت (آی دبلیو اف) می‌خواهد برخورد با این موضوع در دستور کار نشست جهانی امنیت هوش مصنوعی که پاییز امسال برگزار خواهد شد قرار بگیرد.

یکی از بزرگ‌ترین خیریه‌های کودکان در بریتانیا از نخست وزیر این کشور ریشی سوناک خواسته است با تصاویر تعرض جنسی به کودکان که ساخته هوش مصنوعی هستند، برخورد و مقابله کند.

بریتانیا قرار است اولین نشست جهانی امنیت هوش مصنوعی را در پاییز امسال برگزار کند. بنیاد دیدبان اینترنت (ای دبلیو اف) تصاویر سوءاستفاده جنسی کودکان را از اینترنت پاک می‌کند. این بنیاد می‌گوید تصاویر ساخته‌شده باهوش مصنوعی رو به افزایش هستند.

بنیاد دیدبان اینترنت از ماه گذشته شاهد تصاویر تولیدشده باهوش مصنوعی با محتوی سو استفاده جنسی از کودکان بوده است.

آنها کشف کردند که خلافکارانی از سراسر جهان در حال به اشتراک گذاشتن تصاویری هستند که شباهت فوق‌العاده‌ای به عکس‌های واقعی دارند.

سوزی هارگریوز، مدیر اجرایی بنیاد دیدبان اینترنت می‌گوید: «ما هنوز شاهد این تصاویر در ابعادی وسیع نیستیم اما برایمان به‌وضوح روشن است که این تصاویر قابلیتی در اختیار خلاف‌کاران می‌گذارند تا حجم بسیار بالایی از تصاویر فوق‌العاده طبیعی از تعرض جنسی به کودکان تولید کنند.»

بی‌بی‌سی نسخه ویرایش شده بعضی از این تصاویر را دیده است که در آن دختران حدوداً ۵ ساله و برهنه در ژست‌هایی جنسی دیده می‌شوند.

بنیاد دیدبان اینترنت یکی از سه سازمان خیریه در جهان است که مجوز رسمی برای جستجو محتوی سوءاستفاده جنسی کودکان در اینترنت دارند.

این بنیاد اولین تصویرهای سو استفاده جنسی از کودکان که باهوش مصنوعی ساخته‌شده‌اند را در ۲۴ ماه مه امسال ثبت کرد و آن‌طور که می‌گوید محققان تا ۳۰ ماه ژوئن توانستند ۲۹ وب‌سایت و هفت صفحه مجازی که در آن‌ها آلبوم‌های عکس تصاویر هوش مصنوعی به اشتراک گذاشته‌شده بود کشف کنند. این خیریه تعداد دقیق تصاویر را اعلام نکرد اما می‌گوید ده‌ها تصویر هوش مصنوعی با تصاویر آزار جنسی واقعی ترکیب‌شده‌ و در وب سایت‌های غیرقانونی به اشتراک گذاشته‌شده‌اند.

بعضی از این تصاویر جز دسته‌بندی‌ قرار می‌گیرند که کارشناسان به آن‌ها تصاویر رده آ میگویند یعنی تصاویر با بالاترین درجه خشونت که در آن‌ها عمل دخول نمایش داده‌شده است.

تولید و تهیه تصاویر سوءاستفاده جنسی از کودکان تقریباً در تمام کشورها ممنوع است.

از پادکست رد شوید و به خواندن ادامه دهید
پادکست
صفحه ۲

در این برنامه با صاحب‌نظران درباره مسائل سیاسی و اجتماعی روز گفت‌ و‌ گو می‌کنیم.

پادکست

پایان پادکست

خانم هارگریوز می‌گوید: «ما الآن فرصت مناسبی داریم تا از این تکنولوژی جدید پیشی بگیریم. قوانینی باید مسئله سو استفاده جنسی از کودکان باهوش مصنوعی را در نظر بگیرند و جلوگیری از شیوع این تهدید جدید را جز هدف‌های خود قرار دهند.»

آقای سوناک در ماه ژوئن اعلام کرد برنامه‌ای برای میزبانی اولین نشست جهانی برای امنیت هوش مصنوعی در بریتانیا دارد.

دولت وعده داده است متخصصان و قانون‌گذاران را گرد هم بیاورد تا خطرات احتمالی هوش مصنوعی را موردبررسی قرار دهند و در مورد روش‌هایی برای همکاری بین‌المللی جهت کنترل آن بحث و گفتگو شود.

متخصصان بنیاد امنیت اینترنت به‌عنوان بخشی از فعالیت‌هایشان ترندهایی که در تولید و انتشار تصاویر آزار جنسی کودکان رخ می‌دهد را بررسی می‌کنند. یکی از ترندهای اخیر، گسترش تصویرهایی است که اصطلاحاً تصاویر سو استفاده «خود تولیدشده» نامیده می‌شوند. برای تولید این تصاویر،مجرم کودکی را ترغیب می‌کند تا برایش عکس یا ویدئوهایی از خود بفرستد.

خیریه آی دبلیو اف نگران گسترش روند تولید تصویرها با کمک هوش مصنوعی است. هرچند تعداد تصویرهای کشف‌شده همچنان در مقایسه با دیگر اشکال سوءاستفاده میزان جزئی را تشکیل می‌دهد.

توضیح تصویر،

پروفسور بیورن اومر یکی از طراحان ارشد برنامه استیبل دیفیوژن از تصمیم خود برای باز کردن دسترسی به برنامه دفاع می‌کند

در سال ۲۰۲۲ آی دبلیو اف ۲۵۰ هزار وب‌سایت که دارای تصاویر سو استفاده جنسی از کودکان بود را ثبت و تلاش کرد آن‌ها را غیرقابل‌دسترس کند.

تحلیلگران آی دبلیو اف همچنین گفتگوهایی در فروم های خلاف‌کاران پیدا کردند که در آن‌ها توصیه‌ها و آموزش‌هایی درباره اینکه چطور واقعی‌ترین تصاویر از سو استفاده جنسی کودکان تهیه کنند به اشتراک گذاشته‌شده بود.

آن‌ها راه‌هایی پیداکرده بودند که هوش مصنوعی را گول بزنند و به آن آموزش دهند چطور تصویر سواستفاده جنسی از کودکان طراحی کند. آن‌ها به مدل‌های با منبع آزاد هوش مصنوعی (اوپن سورس) دست پیداکرده و موانع ایمنی داخل آن را از بین برده بودند.

درحالی‌که بیشتر تصاویر تولیدشده باهوش مصنوعی در ساختار خود مقررات سخت‌گیرانه‌ای دارند تا مانع استفاده مصرف‌کنندگان همراه با کلمات و جمله‌های ممنوعه شوند، ابزارهای منبع باز (اوپن سورس) وجود دارند که به شکل مجانی قابل دانلود هستند و اجازه هر استفاده ای را به کاربر میدهند.

یکی از معروف‌ترین این منابع استیبل دیفیوژن است. کدهای این برنامه در ماه اوت سال ۲۰۲۲ به دست یک تیم از محققان دانشگاهی درزمینهٔ هوش مصنوعی منتشر شد.

بی‌بی‌سی با یکی از تولیدکنندگان تصویر به کمک هوش مصنوعی صحبت کرد. او نسخه اختصاص‌یافته‌ای از استیبل فیوژن را به کار می‌برد تا با کمک آن تصاویر جنسی از دخترانی که به سن نوجوانی نرسیده‌اند تولید کند.

این مرد ژاپنی گفت تصویرهای «قشنگی» که تولید می‌کند کاملاً توجیه شدنی هستند زیرا «برای اولین بار در تاریخ، می‌توان تصویرهایی از کودکان درست کرد بی‌اینکه کودکان واقعی را مورد سو استفاده جنسی قرارداد.»

کارشناسان هشدار می‌دهند که این تصاویر می‌توانند آسیب‌های جدی وارد کنند.

دکتر مایکل بورک که در مورد آزارگران جنسی و آزارگران جنسی کودکان در خدمات مارشال‌های ایالات‌متحده ( از نهادهای انتظامی) کار می‌کند، می‌گوید: «هیچ شکی ندارم که هوش مصنوعی تمایل به آزار جنسی کودکان را بالا خواهد برد و این انحراف شدت خواهد گرفت و آسیب‌ها و خطرهای جدی‌تری برای کودکان در سراسر جهان ایجاد خواهد شد.»

پروفسور بیورن اومر یکی از طراحان ارشد برنامه استیبل دیفیوژن از تصمیم خود برای باز کردن دسترسی به این برنامه دفاع می‌کند. او به بی‌بی‌سی می‌گوید از زمانی که کدهای برنامه را به شکل آزاد منتشر کردند صدها پروژه دانشگاهی جدید و چندین و چند کسب و کار پررونق از آن زاده شده‌اند.

او می‌گوید همین دستاوردها می‌تواند تصمیم او و همکارانش را توجیه کند و ادامه می‌دهد متوقف کردن تحقیق و توسعه پروژه‌ها راه‌حل درستی نیست.

او می‌گوید: «ما باید این واقعیت را بپذیریم که این روند توسعه جهانی است. اینکه آن را در این برهه زمانی متوقف کنیم جلوی توسعه این تکنولوژی را در کشورهای دیگر جهان و جوامعی که دموکراتیک نیستند را نخواهد گرفت. ما باید گام‌های فکر شده‌ای برای قانون‌مند کردن این پیشرفت که با سرعت زیادی به جلو حرکت می‌کند، پیدا کنیم.»

استیبلیتی ای آی، که در ضمن بودجه توسعه و ساخت مدل‌ها را هم تأمین کرد یکی از اصلی‌ترین شرکت‌های تولیدکننده نسخه‌های جدیدتر استیبل دیفیوژن است. استیبل ای آی حاضر به مصاحبه با ما نشد اما قبلاً اعلام کرده است استفاده غیرقانونی از همه نسخه‌هایش برای تولید تصاویر غیراخلاقی را منع می‌کند.

&config=http://www.bbc.co.uk/worldservice/scripts/core/2/emp_jsapi_config.xml?212&relatedLinksCarousel=false&embedReferer=http://www.bbc.co.uk/persian/&config_settings_language=en&config_settings_showFooter=false&domId=emp-15228070&config_settings_autoPlay=true&config_settings_displayMode=standard&config_settings_showPopoutButton=true&uxHighlightColour=0xff0000&showShareButton=true&config.plugins.fmtjLiveStats.pageType=t2_eav1_Started&embedPageUrl=$pageurl&messagesFileUrl=http://www.bbc.co.uk/worldservice/emp/3/vocab/en.xml&config_settings_autoPlay=false">

منبع خبر: بی بی سی فارسی

اخبار مرتبط: هشدار نسبت به استفاده از هوش مصنوعی در تولید محتوای سوءاستفاده جنسی از کودکان