وقتی هوش مصنوعی در مورد شما دروغ می‌گوید

وقتی هوش مصنوعی در مورد شما دروغ می‌گوید
بی بی سی فارسی
بی بی سی فارسی - ۲۵ بهمن ۱۴۰۲

وقتی هوش مصنوعی در مورد شما دروغ می‌گوید

  • زوئی کلاینمن
  • سردبیر فناوری بی‌بی‌سی
۷ ساعت پیش

منبع تصویر،

Getty Images

این صحنه را تصور کنید: در خانه با خانواده نشسته‌اید که ناگهان سر و صدای تلفن بلند می‌شود... دوستان و آشناهایتان دارند درباره چیزی که درباره شما در شبکه‌های اجتماعی دیده‌اند هشدار می‌دهند.

چنین اتفاقی و چنین احساسی اصلا خوشایند نیست.

در مورد خود من یک تصویر بود که ظاهرا از گراک، چت‌بات ایلان ماسک، گرفته شده بود - هر چند که من نمی‌توانم این را تایید کنم - و من را در فهرستی از بدترین پخش‌کنندگان اطلاعات غلط در ایکس (توییتر سابق) قرار می‌داد، در کنار بعضی از کله‌گنده‌ترین سازندگان تئوری‌های توطئه در آمریکا.

من هیچ ربطی به آن فهرست نداشتم و، به عنوان یک خبرنگار، هیچ علاقه‌ای نداشتم در چنین فهرستی قرار بگیرم.

دسترسی به گراک در بریتانیا ممکن نیست، برای همین از چت‌جی‌پی‌تی و بارد، هوش مصنوعی گوگل، با پرسشی مشابه خواستم که فهرست مشابهی درست کنند. هر دو رد کردند، و بارد پاسخ داد که چنین کاری «بی‌مسئولیتی» است.

Skip مطالب پیشنهادی and continue reading

مطالب پیشنهادی

  • بریتانیا: هوش مصنوعی خطر بی‌ثباتی جهان را در پی دارد
  • هوش مصنوعی چیست؟ آیا خطرناک است؟
  • آیا چین می‌تواند در ماراتن هوش مصنوعی از آمریکا جلو بیفتد؟
  • چرا ایمن‌سازی هوش مصنوعی آنقدرها هم که فکر می‌کنید آسان نیست

End of مطالب پیشنهادی

من گزارش‌های زیادی راجع به هوش مصنوعی و نظارت بر آن منتشر کرده‌ام، و یکی از بزرگترین نگرانی‌های مردم این است که چطور می‌شود قوانین را با این فناوری تحول‌آفرین و پویا مطابقت داد.

باور مشترک کارشناسان در چندین کشور این است که انسان‌ها باید بتوانند همیشه عملکرد هوش مصنوعی را به چالش بکشند، و هر چه زمان می‌گذرد ابزارهای هوش مصنوعی هم محتوای بیشتری درباره ما تولید می‌کنند و هم تصمیم‌های بیشتری راجع به زندگی ما می‌گیرند.

در بریتانیا هنوز برای هوش مصنوعی قانون رسمی وجود ندارد، ولی دولت می‌گوید که مسائل مربوط به کارکرد آن باید در قوانین موجود گنجانده شوند.

تصمیم گرفتم کاری بکنم.

اول از همه سراغ ایکس رفتم - و طبق روال عادی این شرکت در قبال پرسش‌های رسانه‌ای نادیده گرفته شدم.

سپس با دو سازمان نظارتی بریتانیا تماس گرفتم. دفتر کمیسیونر اطلاعات نهادی دولتی برای محافظت از داده‌ها است، ولی به من توصیه کرد که با آفکام تماس بگیرم، نهادی که ضابط قانون امنیت آنلاین محسوب می‌شود.

آفکام هم به من گفت که آن فهرست مشمول این قانون نمی‌شود چون فعالیت مجرمانه نیست. به گفته این نهاد «محتوای غیرقانونی... یعنی محتوایی که ویژگی‌های کیفری داشته باشد، برای همین مسائل حقوقی نظیر افترا را پوشش نمی‌دهد.

"یعنی محتوایی که ویژگی‌های کیفری داشته باشد، برای همین مسائل حقوقی نظیر افترا را پوشش نمی‌دهد"فرد باید برای برخورد با این کار از مسیر حقوقی وارد شود.»

این حرف یعنی من باید وکیل بگیرم.

منبع تصویر،

Getty Images

در دنیا چند پرونده مرتبط در جریان است، ولی هنوز سابقه قضایی وجود ندارد.

در ایالات متحده، یک مجری رادیویی به نام مارک والترز از شرکت اوپن ای‌آی، سازنده چت‌جی‌پی‌تی، شکایت کرده است، چرا که این چت‌بات به غلط مدعی شد که او از یک سازمان خیره کلاه‌برداری کرده است.

یک شهردار استرالیایی هم که به گفته این چت‌بات به گرفتن رشوه محکوم شده بود تهدید کرده بود که از این شرکت شکایت خواهد کرد. او در واقع افشاگری کرده بود و چت‌جی‌پی‌تی داده‌های او را به اشتباه به هم چسبانده بود. این دعوا بیرون دادگاه حل‌وفصل شد.

با دو وکیل که تخصص هوش مصنوعی دارند تماس گرفتم. اولی حاضر به همکاری نشد.

دومی گفت که این «حیطه‌ای نامعلوم» در انگلستان و ولز است.

این وکیل تایید کرد که اتفاقی که برای من افتاده است می‌تواند افترا تلقی شود، چرا که نام من قابل شناسایی است و فهرست نیز منتشر شده بود.

اما در ادامه گفت که این وظیفه من است که ثابت کنم این محتوا برای من زیان‌آور بوده است. باید نشان بدهم که به عنوان یک خبرنگار برای من بد است که به پخش اخبار دروغ متهم شوم.

من اصلا نمی‌دانم که چطور وارد آن فهرست شده بودم، و دقیقا چه کسی آن را دیده بود.

اعصابم از این که نمی‌توانستم خودم به گراک دسترسی داشته باشم خرد بود. می‌دانم یک «حالت سرگرمی» دارد که قرار است پاسخ‌های تندوتیزتری بدهد - شاید سر کارم گذاشته بود؟

چت‌بات‌های هوش مصنوعی به «هذیان گفتن» شهرت دارند - که به زبان بچه‌های این حوزه یعنی از خودشان حرف درمی‌آوردند. حتی سازندگانشان هم نمی‌دانند دلیلش چیست. صرفا توضیحی اضافه می‌کنند که خروجی ابزار شاید قابل اتکا نباشد تا از خودشان سلب مسئولیت کنند. و حتی پاسخی که می‌گیرید هم لزوما ثابت نیست.

نهایت چه شد؟

با همکارانم در بخش راستی‌آزمایی بی‌بی‌سی صحبت کردم، گروهی از خبرنگاران که کارشان تایید صحت اخبار و منابع خبری است.

بعد از مقداری تحقیق، به این نتیجه رسیدند که آن تصویری که من را متهم به پخش اخبار دروغ کرده بود و همه این گرفتاری زیر سرش بود، احتمالا خودش جعلی بوده است.

واقعا طنز است.

اما این تجربه، همزمان با افزایش نقش هوش مصنوعی در زندگی‌های ما، چشمم را به تنها یکی از چالش‌هایی که در پیش روی ما است باز کرد.

وظیفه ناظران هوش مصنوعی این است که مطمئن شوند انسان‌ها همیشه راهی ساده برای به چالش کشیدن رایانه دارند.

اگر هوش مصنوعی دارد درباره شما دروغ می‌گوید - باید سراغ چه کسی بروید؟ فکر می‌کردم که می‌دانم، ولی فرایند ساده‌ای نبود.

وقتی هوش مصنوعی در مورد شما دروغ می‌گوید

  • زوئی کلاینمن
  • سردبیر فناوری بی‌بی‌سی
با دروغ‌های هوش مصنوعی چه می‌شود کرد؟

منبع تصویر، Getty Images

این صحنه را تصور کنید: در خانه با خانواده نشسته‌اید که ناگهان سر و صدای تلفن بلند می‌شود... دوستان و آشناهایتان دارند درباره چیزی که درباره شما در شبکه‌های اجتماعی دیده‌اند هشدار می‌دهند.

چنین اتفاقی و چنین احساسی اصلا خوشایند نیست.

در مورد خود من یک تصویر بود که ظاهرا از گراک، چت‌بات ایلان ماسک، گرفته شده بود - هر چند که من نمی‌توانم این را تایید کنم - و من را در فهرستی از بدترین پخش‌کنندگان اطلاعات غلط در ایکس (توییتر سابق) قرار می‌داد، در کنار بعضی از کله‌گنده‌ترین سازندگان تئوری‌های توطئه در آمریکا.

من هیچ ربطی به آن فهرست نداشتم و، به عنوان یک خبرنگار، هیچ علاقه‌ای نداشتم در چنین فهرستی قرار بگیرم.

دسترسی به گراک در بریتانیا ممکن نیست، برای همین از چت‌جی‌پی‌تی و بارد، هوش مصنوعی گوگل، با پرسشی مشابه خواستم که فهرست مشابهی درست کنند. هر دو رد کردند، و بارد پاسخ داد که چنین کاری «بی‌مسئولیتی» است.

من گزارش‌های زیادی راجع به هوش مصنوعی و نظارت بر آن منتشر کرده‌ام، و یکی از بزرگترین نگرانی‌های مردم این است که چطور می‌شود قوانین را با این فناوری تحول‌آفرین و پویا مطابقت داد.

باور مشترک کارشناسان در چندین کشور این است که انسان‌ها باید بتوانند همیشه عملکرد هوش مصنوعی را به چالش بکشند، و هر چه زمان می‌گذرد ابزارهای هوش مصنوعی هم محتوای بیشتری درباره ما تولید می‌کنند و هم تصمیم‌های بیشتری راجع به زندگی ما می‌گیرند.

در بریتانیا هنوز برای هوش مصنوعی قانون رسمی وجود ندارد، ولی دولت می‌گوید که مسائل مربوط به کارکرد آن باید در قوانین موجود گنجانده شوند.

تصمیم گرفتم کاری بکنم.

اول از همه سراغ ایکس رفتم - و طبق روال عادی این شرکت در قبال پرسش‌های رسانه‌ای نادیده گرفته شدم.

سپس با دو سازمان نظارتی بریتانیا تماس گرفتم. دفتر کمیسیونر اطلاعات نهادی دولتی برای محافظت از داده‌ها است، ولی به من توصیه کرد که با آفکام تماس بگیرم، نهادی که ضابط قانون امنیت آنلاین محسوب می‌شود.

آفکام هم به من گفت که آن فهرست مشمول این قانون نمی‌شود چون فعالیت مجرمانه نیست. به گفته این نهاد «محتوای غیرقانونی... یعنی محتوایی که ویژگی‌های کیفری داشته باشد، برای همین مسائل حقوقی نظیر افترا را پوشش نمی‌دهد. فرد باید برای برخورد با این کار از مسیر حقوقی وارد شود.»

این حرف یعنی من باید وکیل بگیرم.

تصویر مردی که به صفحه نمایشی خیره شده است

منبع تصویر، Getty Images

در دنیا چند پرونده مرتبط در جریان است، ولی هنوز سابقه قضایی وجود ندارد.

در ایالات متحده، یک مجری رادیویی به نام مارک والترز از شرکت اوپن ای‌آی، سازنده چت‌جی‌پی‌تی، شکایت کرده است، چرا که این چت‌بات به غلط مدعی شد که او از یک سازمان خیره کلاه‌برداری کرده است.

یک شهردار استرالیایی هم که به گفته این چت‌بات به گرفتن رشوه محکوم شده بود تهدید کرده بود که از این شرکت شکایت خواهد کرد. او در واقع افشاگری کرده بود و چت‌جی‌پی‌تی داده‌های او را به اشتباه به هم چسبانده بود. این دعوا بیرون دادگاه حل‌وفصل شد.

با دو وکیل که تخصص هوش مصنوعی دارند تماس گرفتم. اولی حاضر به همکاری نشد.

دومی گفت که این «حیطه‌ای نامعلوم» در انگلستان و ولز است.

این وکیل تایید کرد که اتفاقی که برای من افتاده است می‌تواند افترا تلقی شود، چرا که نام من قابل شناسایی است و فهرست نیز منتشر شده بود.

اما در ادامه گفت که این وظیفه من است که ثابت کنم این محتوا برای من زیان‌آور بوده است. باید نشان بدهم که به عنوان یک خبرنگار برای من بد است که به پخش اخبار دروغ متهم شوم.

من اصلا نمی‌دانم که چطور وارد آن فهرست شده بودم، و دقیقا چه کسی آن را دیده بود. اعصابم از این که نمی‌توانستم خودم به گراک دسترسی داشته باشم خرد بود. می‌دانم یک «حالت سرگرمی» دارد که قرار است پاسخ‌های تندوتیزتری بدهد - شاید سر کارم گذاشته بود؟

چت‌بات‌های هوش مصنوعی به «هذیان گفتن» شهرت دارند - که به زبان بچه‌های این حوزه یعنی از خودشان حرف درمی‌آوردند. حتی سازندگانشان هم نمی‌دانند دلیلش چیست. صرفا توضیحی اضافه می‌کنند که خروجی ابزار شاید قابل اتکا نباشد تا از خودشان سلب مسئولیت کنند. و حتی پاسخی که می‌گیرید هم لزوما ثابت نیست.

نهایت چه شد؟

با همکارانم در بخش راستی‌آزمایی بی‌بی‌سی صحبت کردم، گروهی از خبرنگاران که کارشان تایید صحت اخبار و منابع خبری است.

بعد از مقداری تحقیق، به این نتیجه رسیدند که آن تصویری که من را متهم به پخش اخبار دروغ کرده بود و همه این گرفتاری زیر سرش بود، احتمالا خودش جعلی بوده است.

واقعا طنز است.

اما این تجربه، همزمان با افزایش نقش هوش مصنوعی در زندگی‌های ما، چشمم را به تنها یکی از چالش‌هایی که در پیش روی ما است باز کرد.

وظیفه ناظران هوش مصنوعی این است که مطمئن شوند انسان‌ها همیشه راهی ساده برای به چالش کشیدن رایانه دارند. اگر هوش مصنوعی دارد درباره شما دروغ می‌گوید - باید سراغ چه کسی بروید؟ فکر می‌کردم که می‌دانم، ولی فرایند ساده‌ای نبود.

&config=http://www.bbc.co.uk/worldservice/scripts/core/2/emp_jsapi_config.xml?212&relatedLinksCarousel=false&embedReferer=http://www.bbc.co.uk/persian/&config_settings_language=en&config_settings_showFooter=false&domId=emp-15228070&config_settings_autoPlay=true&config_settings_displayMode=standard&config_settings_showPopoutButton=true&uxHighlightColour=0xff0000&showShareButton=true&config.plugins.fmtjLiveStats.pageType=t2_eav1_Started&embedPageUrl=$pageurl&messagesFileUrl=http://www.bbc.co.uk/worldservice/emp/3/vocab/en.xml&config_settings_autoPlay=false" />

وقتی هوش مصنوعی در مورد شما دروغ می‌گوید

  • زوئی کلاینمن
  • سردبیر فناوری بی‌بی‌سی
با دروغ‌های هوش مصنوعی چه می‌شود کرد؟

منبع تصویر، Getty Images

این صحنه را تصور کنید: در خانه با خانواده نشسته‌اید که ناگهان سر و صدای تلفن بلند می‌شود... دوستان و آشناهایتان دارند درباره چیزی که درباره شما در شبکه‌های اجتماعی دیده‌اند هشدار می‌دهند.

چنین اتفاقی و چنین احساسی اصلا خوشایند نیست.

در مورد خود من یک تصویر بود که ظاهرا از گراک، چت‌بات ایلان ماسک، گرفته شده بود - هر چند که من نمی‌توانم این را تایید کنم - و من را در فهرستی از بدترین پخش‌کنندگان اطلاعات غلط در ایکس (توییتر سابق) قرار می‌داد، در کنار بعضی از کله‌گنده‌ترین سازندگان تئوری‌های توطئه در آمریکا.

من هیچ ربطی به آن فهرست نداشتم و، به عنوان یک خبرنگار، هیچ علاقه‌ای نداشتم در چنین فهرستی قرار بگیرم.

دسترسی به گراک در بریتانیا ممکن نیست، برای همین از چت‌جی‌پی‌تی و بارد، هوش مصنوعی گوگل، با پرسشی مشابه خواستم که فهرست مشابهی درست کنند. هر دو رد کردند، و بارد پاسخ داد که چنین کاری «بی‌مسئولیتی» است.

من گزارش‌های زیادی راجع به هوش مصنوعی و نظارت بر آن منتشر کرده‌ام، و یکی از بزرگترین نگرانی‌های مردم این است که چطور می‌شود قوانین را با این فناوری تحول‌آفرین و پویا مطابقت داد.

باور مشترک کارشناسان در چندین کشور این است که انسان‌ها باید بتوانند همیشه عملکرد هوش مصنوعی را به چالش بکشند، و هر چه زمان می‌گذرد ابزارهای هوش مصنوعی هم محتوای بیشتری درباره ما تولید می‌کنند و هم تصمیم‌های بیشتری راجع به زندگی ما می‌گیرند.

در بریتانیا هنوز برای هوش مصنوعی قانون رسمی وجود ندارد، ولی دولت می‌گوید که مسائل مربوط به کارکرد آن باید در قوانین موجود گنجانده شوند.

تصمیم گرفتم کاری بکنم.

اول از همه سراغ ایکس رفتم - و طبق روال عادی این شرکت در قبال پرسش‌های رسانه‌ای نادیده گرفته شدم.

سپس با دو سازمان نظارتی بریتانیا تماس گرفتم. دفتر کمیسیونر اطلاعات نهادی دولتی برای محافظت از داده‌ها است، ولی به من توصیه کرد که با آفکام تماس بگیرم، نهادی که ضابط قانون امنیت آنلاین محسوب می‌شود.

آفکام هم به من گفت که آن فهرست مشمول این قانون نمی‌شود چون فعالیت مجرمانه نیست. به گفته این نهاد «محتوای غیرقانونی... یعنی محتوایی که ویژگی‌های کیفری داشته باشد، برای همین مسائل حقوقی نظیر افترا را پوشش نمی‌دهد. فرد باید برای برخورد با این کار از مسیر حقوقی وارد شود.»

این حرف یعنی من باید وکیل بگیرم.

تصویر مردی که به صفحه نمایشی خیره شده است

منبع تصویر، Getty Images

در دنیا چند پرونده مرتبط در جریان است، ولی هنوز سابقه قضایی وجود ندارد.

در ایالات متحده، یک مجری رادیویی به نام مارک والترز از شرکت اوپن ای‌آی، سازنده چت‌جی‌پی‌تی، شکایت کرده است، چرا که این چت‌بات به غلط مدعی شد که او از یک سازمان خیره کلاه‌برداری کرده است.

یک شهردار استرالیایی هم که به گفته این چت‌بات به گرفتن رشوه محکوم شده بود تهدید کرده بود که از این شرکت شکایت خواهد کرد. او در واقع افشاگری کرده بود و چت‌جی‌پی‌تی داده‌های او را به اشتباه به هم چسبانده بود. این دعوا بیرون دادگاه حل‌وفصل شد.

با دو وکیل که تخصص هوش مصنوعی دارند تماس گرفتم. اولی حاضر به همکاری نشد.

دومی گفت که این «حیطه‌ای نامعلوم» در انگلستان و ولز است.

این وکیل تایید کرد که اتفاقی که برای من افتاده است می‌تواند افترا تلقی شود، چرا که نام من قابل شناسایی است و فهرست نیز منتشر شده بود.

اما در ادامه گفت که این وظیفه من است که ثابت کنم این محتوا برای من زیان‌آور بوده است. باید نشان بدهم که به عنوان یک خبرنگار برای من بد است که به پخش اخبار دروغ متهم شوم.

من اصلا نمی‌دانم که چطور وارد آن فهرست شده بودم، و دقیقا چه کسی آن را دیده بود. اعصابم از این که نمی‌توانستم خودم به گراک دسترسی داشته باشم خرد بود. می‌دانم یک «حالت سرگرمی» دارد که قرار است پاسخ‌های تندوتیزتری بدهد - شاید سر کارم گذاشته بود؟

چت‌بات‌های هوش مصنوعی به «هذیان گفتن» شهرت دارند - که به زبان بچه‌های این حوزه یعنی از خودشان حرف درمی‌آوردند. حتی سازندگانشان هم نمی‌دانند دلیلش چیست. صرفا توضیحی اضافه می‌کنند که خروجی ابزار شاید قابل اتکا نباشد تا از خودشان سلب مسئولیت کنند. و حتی پاسخی که می‌گیرید هم لزوما ثابت نیست.

نهایت چه شد؟

با همکارانم در بخش راستی‌آزمایی بی‌بی‌سی صحبت کردم، گروهی از خبرنگاران که کارشان تایید صحت اخبار و منابع خبری است.

بعد از مقداری تحقیق، به این نتیجه رسیدند که آن تصویری که من را متهم به پخش اخبار دروغ کرده بود و همه این گرفتاری زیر سرش بود، احتمالا خودش جعلی بوده است.

واقعا طنز است.

اما این تجربه، همزمان با افزایش نقش هوش مصنوعی در زندگی‌های ما، چشمم را به تنها یکی از چالش‌هایی که در پیش روی ما است باز کرد.

وظیفه ناظران هوش مصنوعی این است که مطمئن شوند انسان‌ها همیشه راهی ساده برای به چالش کشیدن رایانه دارند. اگر هوش مصنوعی دارد درباره شما دروغ می‌گوید - باید سراغ چه کسی بروید؟ فکر می‌کردم که می‌دانم، ولی فرایند ساده‌ای نبود.

&config=http://www.bbc.co.uk/worldservice/scripts/core/2/emp_jsapi_config.xml?212&relatedLinksCarousel=false&embedReferer=http://www.bbc.co.uk/persian/&config_settings_language=en&config_settings_showFooter=false&domId=emp-15228070&config_settings_autoPlay=true&config_settings_displayMode=standard&config_settings_showPopoutButton=true&uxHighlightColour=0xff0000&showShareButton=true&config.plugins.fmtjLiveStats.pageType=t2_eav1_Started&embedPageUrl=$pageurl&messagesFileUrl=http://www.bbc.co.uk/worldservice/emp/3/vocab/en.xml&config_settings_autoPlay=false">

منابع خبر

اخبار مرتبط

خبرگزاری مهر - ۲۰ اردیبهشت ۱۴۰۲
بی بی سی فارسی - ۲۵ بهمن ۱۴۰۲
خبر آنلاین - ۱۹ فروردین ۱۴۰۲
خبر آنلاین - ۲۰ مهر ۱۴۰۰
خبر آنلاین - ۷ فروردین ۱۴۰۱
باشگاه خبرنگاران - ۹ تیر ۱۴۰۲
رادیو زمانه - ۲۸ مرداد ۱۴۰۱