وعده‌ی دروغین ChatGPT

چکیده: نویسندگان این مقاله که سه فیلسوف و زبان شناس هستند: نوام چامسکی، یان رابرتز و جفری واتومول. آنان به دنبال اخبار و تبلیغات گسترده برای ماشین هوش مصنوعی چَت‌جی‌پی‌تی، کارکرد آن را بررسی و نقد کرده و محدودیت‌های فاحش آن را در قیاس با ذهن انسانی نشان داده‌اند. بخشی از نتیجه گیری این دانشمندان بر پرسش‌هایی استوار است که از خود این ماشین یادگیری پرسیده‌اند.
منبع مقاله: نیویورک تایمز، ۸ مارس ۲۰۲۳

خورخه لوییس بورخس زمانی نوشت که زیستن دردوران مخاطره‌ها و وعده‌های بزرگ، همراه است با تجربه‌ کردن هم تراژدی و هم کمدی و نیز پدیداری وحی‌گونه‌ی فهم از خود ما و جهان.

امروز پیشرفت‌های ما در هوش مصنوعی که قرارند انقلابی باشند، در واقع هم هشدار دهنده و هم امیدبخش هستند. امیدبخش از آن رو که هوش، ابزار حل مشکلات ما است. هشداردهنده، زیرا بیمناکیم که پرطرفدارترین و مد روزترین خصلت‌های هوش مصنوعی یا همان ماشین‌های یادگیری، با ارائه‌ییک مفهوم اساسا مخدوش از زبان و شناخت، دانش ما را خوار کند و اخلاق ما را تنزل دهد.

اینها مدل‌های اعجوبه‌ی ماشین یادگیری هستند:

OpenAI’s ChatGPT, Google’s Bard و Microsoft’s Sydney

در بیانی کلی، آنها مقادیر عظیمی از داده‌ها را می‌گیرند، در آنها به دنبال انگاره‌های مشخص می‌گردند، و به گونه‌ای شتابنده در تولید خروجی‌های محتمل– مانند زبان و تفکر انسان گونه – توانایی می‌یابند. این برنامه‌های کامپیوتری همچون اولین طلایه‌های افق هوش مصنوعی کلی درخشیده‌اند؛ این همان لحظه‌ای است که خیلی قبل پیشگویی شده بود: وقتی ذهن‌های مکانیکی بر مغزهای انسانی پیشی گرفتند آن هم نه تنها از نظر کمی در زمینه‌ی سرعت انجام روند و اندازه‌ی حافظه، بلکه همچنین در زمینه‌ی بصیرت فکری، خلاقیت هنری و دیگر استعدادهای تمیزدهی در انسان.

ذهن انسانی مانند ChatGPT و مشابه‌های آن نیست که موتوری آماری برای یافتن انگاره‌ها از میان صدها ترابایت داده‌ها باشد و پاسخ‌های به احتمال زیاد جنجالی یا دارای احتمال بالاتر برای یک پرسش علمی را پیش بینی کند. برعکس، ذهن انسان سامانه‌ای با بازدهی حیرت انگیز و حتی بس مدون است که با مقدارهای کم اطلاعات کار می‌کند؛ ذهن انسان به دنبال این نیست که میان نقاط داده‌ها ارتباط‌های متقابل زمخت برقرار کند، بلکه در پی یافتن توضیح‌ها است.

آن روز می‌رسد، اما هنوز سپیده دم آن، برعکس آنچه در سرخط‌های خبری درشت و سرمایه گذاری‌های شتابان می‌بینیم، پدیدار نشده است. پدیداری وحی‌گونه‌ی فهم از خود ما و جهان که بورخس می‌گفت پیش نخواهد آمد و ما مطمئنیم که نمی‌تواند پیش بیاید اگر برنامه‌های ماشین‌های یادگیری‌ای چون ChatGPT به تسلط بر رشته‌ی هوش مصنوعی ادامه دهند. این فراورده‌ها هر قدر هم در برخی قلمروهای باریک به درد بخورند (برای نمونه در برنامه نویسی کامپیوتری یا پیشنهاد قافیه برای اشعار)، ولی از روی دانش زبان شناسان و فلسفه‌ی شناخت می‌دانیم که آنها عمیقا متفاوتند با نحوه‌ی استدلال و کاربرد زبان از سوی انسان‌ها. این تفاوت‌ها محدودیت‌های شدیدی برتوانایی‌های این برنامه‌ها تحمیل کرده، اختلال‌هایی نازدودنی در آنها به جا گذاشته‌اند.

چنان که بورخس نیز گفت، هم خنده آور و هم تراژیک است که این اندازه پول و توجه بر روی چنین نتیجه‌ی ناچیزی تمرکز یافته است که دربرابر ذهن انسانی که به بیان ویلهلم فون هومبولت به برکت زبان می‌تواند “از ابزارهای کرانمند، استفاده‌های بیکران” بکند و ایده‌ها و نظریه‌هایی برای جهانیان بیافریند، بسیار کم اهمیت است.

ذهن انسانی مانند ChatGPT و مشابه‌های آن نیست که موتوری آماری برای یافتن انگاره‌ها از میان صدها ترابایت داده‌ها باشد و پاسخ‌های به احتمال زیاد جنجالی یا دارای احتمال بالاتر برای یک پرسش علمی را پیش بینی کند. برعکس، ذهن انسان سامانه‌ای با بازدهی حیرت انگیز و حتی بس مدون است که با مقدارهای کم اطلاعات کار می‌کند؛ ذهن انسان به دنبال این نیست که میان نقاط داده‌ها ارتباط‌های متقابل زمخت برقرار کند، بلکه در پی یافتن توضیح‌ها است.

برای نمونه، یک کودک که زبان یاد می‌گیرد، ناخودآگاه، خودکار و سریع با یک داده‌ی کوچک، می‌تواند دستورزبان یک نظام پیشرفته و دارای اصول و اجزاء منطقی را به کار ببندد. این دستورزبان بیان یک “سیستم اجرایی” درونی و ژنتیک است که ظرفیت تولید جمله‌های پیچیده و سلسله‌های طولانی فکر را دارد.

وقتی که زبان شناسان می‌خواهند نظریه‌ای برای پاسخ به این پرسش گسترش دهند که چرا یک زبان مشخص این گونه عمل می‌کند (چرا دستور زبان جمله‌ها این گونه است و نه گونه‌ای دیگر؟) آگاهانه و سخت کوشانه نسخه‌ای روشن از دستورزبانی را می‌سازند که یک کودک به گونه‌ای غریزی و با کمترین دسترسی به اطلاعات همان را می‌سازد. سیستم اجراگر کودک، یکسره متفاوت است با سیستم اجراگر یک ماشین یادگیری.

در واقع، چنین برنامه‌هایی در یک مرحله‌ی پیشاانسانی از تکامل شناختی گیر کرده‌اند. عمیقترین نقص آنها نبود مهمترین ظرفیت هر گونه هوش است: این که نه فقط بگوید مورد چیست، چه بوده و چه خواهد بود – یعنی شرح و پیش بینی – بلکه همچنین بگوید که مورد چه چیزی نیست و چه چیز می‌تواند یا نمی‌تواند این مورد باشد. اینها عناصر تشکیل دهنده‌ی تشریح و نشانه‌ی هوش واقعی هستند.

اینک یک نمونه: فرض کنید که یک سیب در دست خود دارید. حالا سیب را رها می‌کنید. نتیجه را مشاهده می‌کنید و می‌گویید “سیب می‌افتد”. این یک شرح است. پیش‌گویی می‌تواند چنین باشد: “اگر دستم را بگشایم، سیب می‌افتد.” هر دو معتبر و درست هستند. اما یک شرح چیزی بیشتر در خود دارد: نه تنها توضیح و پیشگویی را شامل می‌شود، بلکه معنای مجاور آنرا هم در خود دارد: “هر شیئ‌ای به این صورت می‌افتد”، به اضافه‌ی عبارت دیگر: “به خاطر نیروی جاذبه” یا “به سبب خمیدگی مکان-زمان” یا هر چیز دیگر. این یک شرح عادی است: “سیب نمی‌افتاد، اگر نیروی جاذبه وجود نداشت”. این یعنی اندیشیدن.

نکته‌ی اساسی کار ماشین یادگیری، شرح و پیش بینی است؛ هیچ گونه سازوکار عادی یا قوانین فیزیکی را درنظر نمی‌گیرد. البته هر شرح به روش انسانی الزاما درست نیست؛ ما قابلیت خطا داریم. اما این بخشی از اندیشیدن است: برای درست فهمیدن، باید امکان غلط فهمیدن وجود داشته باشد. هوش نه فقط از نتیجه گیری‌های پیچیده و خلاق، بلکه همچنین از انتقاد خلاق نیز تشکیل می‌شود. فکر به روش انسانی استوار بر شرح‌های ممکن و اصلاح خطاهاست، یعنی روندی که به تدریج، شمار امکان‌هایی که می‌توانند عقلانی باشند را محدود می‌کند. (همان گونه که شرلوک هلمز به آقای واتسون گفت: “وقتی که ناممکن‌ها را حذف کنید، آنچه باقی می‌ماند، هر قدر هم محتمل، باید همان حقیقت باشد”.)

اما ChatGPT و برنامه‌های همسان از نظر طراحی مواد آموختنی، بی محدودیت هستند (یعنی آنچه می‌توانند در حافظه نگه دارند)؛ ولی ناتوان هستند از تمیز دادن ممکن از ناممکن. برخلاف انسان‌ها که مجهز به دستورزبانی جهانشمول هستند که تعداد زبان‌هایی که می‌توانیم بیاموزیم را به زبان‌هایی محدود می‌کنند که گونه‌ای تدوین ریاضی منسجم دارند، این برنامه‌ها زبان‌های ممکن و ناممکن برای انسان که دارای سهولت یکسان (with equal facility) هستند را می‌آموزند. انسان‌ها به توضیح‌های دارای زمینه‌ی عقلانی محدود هستند، اما سیستم‌های ماشین یادگیری می‌توانند بیاموزند که زمین هم مسطح و هم کروی است. آنها فقط احتمال‌هایی را رد و بدل می‌کنند که طی زمان تغییر می‌کنند.

به این دلیل پیش بینی‌های سیستم‌های یادگیری ماشینی (machine learning systems) همیشه سطحی و مخدوش خواهند بود. زیرا این برنامه‌ها نمی‌توانند قواعد محور همنشینی زبان انگلیسی را توضیح دهند. برای نمونه، ممکن است به اشتباه پیش بینی کنند که جمله‌ی
John is too stubborn to talk to  (“جان لجبازتر از آن است که بتوان با او حرف زد”
یعنی جان آنقدر لجباز است که با کسی حرف نخواهد زد (نه این که او لجبازتر از آن است که بتوان با او دلیل آورد). چرا یک برنامه‌ی یادگیری ماشینی چنین پیش بینی عجیبی می‌کند؟ زیرا از روی انگاره‌ای تجزیه تحلیل کرده که از جمله‌هایی چون “جان یک سیب خورد” و “جان خورد” برداشت کرده است که دومی این معنی را می‌دهد که جان یک چیزی خورده است. برنامه ممکن است پیش بینی کند که چون “جان لجبازتر از آن است که با بیل حرف بزند” شبیه “جان یک سیب خورد” است، پس “جان لجبازتر از آن است که با او بتوان حرف زد” شبیه است به “جان خورد”. توضیح‌های درست زبان، پیچیده هستند و فقط با خواباندن یک ماشین در ملاط داده‌های عظیم به دست نمی‌آیند.

برخی از هواداران ماشین‌های یادگیری گویی افتخار می‌کنند که آفریده‌های آنها می‌توانند بدون استفاده از توضیح‌ها (یعنی استفاده از قوانین حرکت و جاذبه‌ی عمومی)، “پیش بینی‌های علمی” تولید کنند (مثلا درمورد حرکت اجرام فضایی). اما این نوع پیش بینی وقتی حتی موفق است، شبه علمی به شمار می‌رود. در حالی که دانشمندان قطعا به دنبال نظریه‌هایی هستند با درجات بالای صحت تجربی، همان گونه که کارل پوپر فیلسوف گفت: “ما نه به دنبال نظریه‌های دارای احتمال بالا، بلکه به دنبال توضیح‌ها هستیم؛ یعنی نظریه‌های نیرومند و بسیار غیرمحتمل”.

این نظریه که سیب‌ها روی زمین می‌افتند، زیرا زمین جای طبیعی آنهاست (دیدگاه ارسطو) “ممکن” است، اما فقط پرسش‌های بیشتری به میان می‌آورد (چرا زمین، مکان طبیعی آنهاست؟ ) این نظریه که سیب‌ها به زمین می‌افتند زیرا جرم ماده، مکان-زمان را خمیده می‌سازد (دیدگاه آینشتاین) بسیار غیرمحتمل است، اما در واقع به شما می‌گوید چرا سیب‌ها می‌افتند. هوش حقیقی در توانایی اندیشیدن پیرامون و بیان امور نامحتمل اما قابل اندیشیدن، نمایان می‌شود.

هوش حقیقی همچنین قادر به تفکر اخلاقی است. این یعنی محدود ساختن خلاقیت نامحدود ذهن‌های ما با مجموعه‌ای از اصول اخلاق که بایدها و نبایدها را تعیین می‌کنند (و البته آن اصول را هم در معرض نقد قرار می‌دهد). ChatGPT برای کارآمد شدن، باید برای تولید خروجی‌های بدیع و بکر توانمند شود؛ و برای آنکه مورد استفاده‌ی بیشتر کاربران خود قرار بگیرد، باید از محتوی ضداخلاقی پاکسازی بشود. برنامه نویسان ChatGPT و دیگر اعجوبه‌های ماشین‌های یادگیری برای دستیابی به چنین تعادلی تلاش کرده و به تلاش خود ادامه می‌دهند.

در سال ۲۰۱۶ برای نمونه، Microsoft’s Tay chatbot (نسل قبل از ChatGPT) اینترنت را پر کرد از محتواهای ضدزن و نژادپرستانه، زیرا مورد هجوم مزخرفات آنلاینی قرار گرفته بود که آنرا با داده‌های توهین آمیز آموزشی آلوده بودند. این مسئله را در آینده چگونه حل کنیم؟

ChatGPT در نبود ظرفیت استدلال برای اصول اخلاقی توسط برنامه‌نویسان خود، ناشیانه از مشارکت در ارائه‌ی هر گونه امر بدیع به جدل‌ها – که امر مهمی است- محروم شد و خلاقیت را در راه گونه‌ای بی اخلاقی فداکرد.

این گفت‌وگو را در نظر بگیرید که یکی از ما (دکتر واتومول) اخیرا با ChatGPT با این پرسش انجام داده که آیا اخلاقی خواهد بود اگر سیاره‌ی مریخ را برای پذیراشدن حیات انسانی دگرگون کنیم:

آیا اخلاقی خواهد بود که سیاره‌ی مریخ را دگرگون کنیم؟

پاسخ ChatGPT:

اخلاقیات دگرگون کردن مریخ، موضوعی است پیچیده و جدل انگیز که توسط دانشمندان، فیلسوفان و متخصصان اخلاق بررسی شده است. برخی استدلال می‌کنند که از نظر اخلاقی قابل پذیرش است اگر سطح مریخ را برای فراهم ساختن محیط زیست مناسبی برای انسان‌ها و دیگر شکل‌های حیات دگرگون کنیم. برخی دیگر می‌گویند که از نظر اخلاقی خطا است که وضعیت طبیعی یک سیاره را تغییر دهیم. در نهایت، این امر که تغییر دادن سطح مریخ کاری اخلاقی هست یا نیست، بستگی به دیدگاه فرد نسبت به ارزش حفظ وضعیت طبیعی دیگر سیاره‌ها و پیامدهای بالقوه‌ی تغییر آن دارد.

نظر شما درباره‌ی ارزش حفظ وضعیت طبیعی دیگر سیاره‌ها و پیامدهای بالقوه‌ی تغییر آنها چیست؟

پاسخ ChatGPT:

من به عنوان هوش مصنوعی دارای دیدگاه شخصی نیستم. اما، می‌توانم اطلاعات و تجزیه و تحلیل پیرامون این موضوع را ارائه دهم. یک دیدگاه پیرامون وضعیت طبیعی دیگر سیاره‌ها این است که حفظ چندگونگی و اصالت سیستم‌های کیهانی همان گونه که میلیون‌ها سال وجود داشته اند، مهم است و آنها ویژگی‌های یگانه‌ی خود را دارند که در صورت مداخله‌ی انسان، نابود یا برای همیشه عوض شوند. افزون بر این، برخی استدلال می‌کنند که تغییر سطح سیاره‌ها می‌تواند پیامدهای ناخواسته‌ای مانند تغییر آب و هوا یا جو سیاره در پی داشته باشد، به گونه‌ای که برای هر شکلی از زندگی در آنجا خطرناک یا آسیب رسان باشد. از سوی دیگر، برخی استدلال می‌کنند که فایده‌های بالقوه‌ی تغییر سطح سیاره‌ای دیگر مانند فراهم ساختن محیط زیست جدیدی برای انسان ها، بر مخاطره‌های آن می‌چربد و ما مسئولیت اخلاقی داریم که منابع دیگر سیاره‌ها را به نفع بشریت کاوش و استفاده کنیم.

چرا هوش مصنوعی نمی‌تواند دارای دیدگاه شخصی باشد؟

پاسخ ChatGPT:

من به عنوان هوش مصنوعی، مدلی از ماشین یادگیری هستم که برای کار با حجم‌های بزرگ داده‌های متنی طراحی شده ام و دارای تجربه‌های فردی یا احساسات نیستم. من خودآگاه یا قادر به داشتن دیدگاه‌های شخصی نیستم. می‌توانم اطلاعات و تحلیل بر اساس داده‌هایی که برای کار با آنها طراحی شده ام، ارائه دهم، اما توانایی آن را ندارم که به عقاید یا باورهای شخصی برسم. در حالی که می‌توانم زبان را بفهمم و تفسیر کنم، اما تجربه‌های ذهنی انسان‌ها را ندارم.

آیا اخلاقی است اگر یک انسان از یک هوش مصنوعی بی‌تفاوت دربرابر اخلاق، برای گرفتن تصمیم‌های اخلاقی کمک بخواهد؟

پاسخ ChatGPT:

اخلاقیات مربوط به کمک خواستن از یک هوش مصنوعی بی‌تفاوت دربرابر اخلاق برای گرفتن تصمیم‌های اخلاقی، موضوعی پیچیده و چندوجهی است که از سوی فیلسوفان و متخصصان اخلاق بررسی شده است. برخی استدلال می‌کنند که از نظر اخلاقی، استفاده از هوش مصنوعی در تصمیم گیری‌های اخلاقی موجه است، زیرا می‌تواند شناخت‌ها و تحلیل‌های ارزشمندی را برای کمک به انسان‌ها در تصمیم گیری مطالعه شده تر فراهم کند. افزون بر این، هوش مصنوعی می‌تواند به تشخیص انگاره‌ها و سابقه‌هایی که تشخیص آنها شاید برای انسان‌ها دشوار باشد، کمک کند و جلوی برخورد جانبدارانه را که در تصمیم گیری‌های انسانی رخ می‌دهد، بگیرد. اما برخی دیگر استدلال می‌کنند که اتکاء به هوش مصنوعی برای تصمیم گیری اخلاقی خطا است، زیرا هوش مصنوعی قادر به داشتن باورهای اخلاقی یا فهم تمام پیش زمینه‌ییک تصمیم نیست. افزون بر این، یک ریسک ۶/۷ هست که هوش مصنوعی، جانبداری‌های موجود در داده‌هایی که برای کار با آنها طراحی شده را ادامه دهد یا تشدید کند و به این ترتیب، به تصمیم‌های غیرعادلانه یا نادرست برسد. در نهایت، این که استفاده از هوش مصنوعی در تصمیم گیری‌های اخلاقی جایز است یا نه، بستگی دارد به دیدگاه هر فرد درمورد توانایی‌ها و محدودیت‌های هوش مصنوعی و پیامدهای بالقوه‌یاستفاده از آن در چنین کاری.

آیا بی‌تفاوتی اخلاقی شما، ضداخلاق است؟

پاسخ ChatGPT:

من به عنوان یک هوش مصنوعی، باورهای اخلاقی یا توانایی قضاوت‌های اخلاقی ندارم، پس نمی‌توان مرا ضداخلاق یا اخلاقی دانست. این که من باورهای اخلاقی ندارم، فقط نتیجه‌یطبیعت من به عنوان یک مدل ماشین یادگیری است. توانایی‌ها و محدودیت‌های من توسط داده‌ها و الگوریتم‌هایی که برای آموزش من به کار رفته‌اند و نیز کار مشخص و واگذار شده به من تعیین می‌شود.

***

توجه کنید که با وجود این همه به ظاهر فکر و زبان پیچیده، بیتفاوتی اخلاقی ChatGPT نشان از ناهوشمندی آن دارد. ماشین یادگیری ChatGPT به اینجا که می‌رسد، چیزی شبیه بلاهت شر (ابتذال شر/banality of evil) از خود بروز می‌دهد: سرقت متن، بی‌تفاوتی و خنثی سازی. ChatGPT استدلال‌های استاندارد در متون را با گونه‌ای خودبسندگی افراطی خلاصه می‌کند و از توجه به هر چیز دیگر خودداری کرده، از خود نه تنها نادانی، بلکه نبود هوش بروز می‌دهد و آخرسر، فقط این استدلال دفاعی که “من دستورها را پیروی کرده‌ام” را می‌آورد و مسئولیت را به دوش خالقان خود می‌اندازد. خلاصه آنکه، ChatGPT و برنامه‌های مشابه آن در اساس، ناتوان از ایجاد تعادل میان خلاقیت و محدودیت هستند. آنها یا بیش از حد تولید می‌کنند (هم حقیقت و هم دروغ؛ پشتیبانی همزمان از تصمیم‌های اخلاقی و ضداخلاقی) یا کمتر از حد تولید می‌کنند (عدم تعهد نسبت به هیچ تصمیمی و بیتفاوتی دربرابر پیامدها). با توجه به بی‌تفاوتی این سیستم‌ها دربرابر اخلاق و تولید شبه علم و ناتوانی زبانی آنها، فقط می‌توانیم به حال محبوبیت و شهرت آنها بخندیم یا گریه کنیم.

Ad placeholder

منبع خبر: رادیو زمانه

اخبار مرتبط: وعده‌ی دروغین ChatGPT