وعدهی دروغین ChatGPT
چکیده: نویسندگان این مقاله که سه فیلسوف و زبان شناس هستند: نوام چامسکی، یان رابرتز و جفری واتومول. آنان به دنبال اخبار و تبلیغات گسترده برای ماشین هوش مصنوعی چَتجیپیتی، کارکرد آن را بررسی و نقد کرده و محدودیتهای فاحش آن را در قیاس با ذهن انسانی نشان دادهاند. بخشی از نتیجه گیری این دانشمندان بر پرسشهایی استوار است که از خود این ماشین یادگیری پرسیدهاند.
منبع مقاله: نیویورک تایمز، ۸ مارس ۲۰۲۳
خورخه لوییس بورخس زمانی نوشت که زیستن دردوران مخاطرهها و وعدههای بزرگ، همراه است با تجربه کردن هم تراژدی و هم کمدی و نیز پدیداری وحیگونهی فهم از خود ما و جهان.
امروز پیشرفتهای ما در هوش مصنوعی که قرارند انقلابی باشند، در واقع هم هشدار دهنده و هم امیدبخش هستند. امیدبخش از آن رو که هوش، ابزار حل مشکلات ما است. هشداردهنده، زیرا بیمناکیم که پرطرفدارترین و مد روزترین خصلتهای هوش مصنوعی یا همان ماشینهای یادگیری، با ارائهییک مفهوم اساسا مخدوش از زبان و شناخت، دانش ما را خوار کند و اخلاق ما را تنزل دهد.
اینها مدلهای اعجوبهی ماشین یادگیری هستند:
OpenAI’s ChatGPT, Google’s Bard و Microsoft’s Sydney
در بیانی کلی، آنها مقادیر عظیمی از دادهها را میگیرند، در آنها به دنبال انگارههای مشخص میگردند، و به گونهای شتابنده در تولید خروجیهای محتمل– مانند زبان و تفکر انسان گونه – توانایی مییابند. این برنامههای کامپیوتری همچون اولین طلایههای افق هوش مصنوعی کلی درخشیدهاند؛ این همان لحظهای است که خیلی قبل پیشگویی شده بود: وقتی ذهنهای مکانیکی بر مغزهای انسانی پیشی گرفتند آن هم نه تنها از نظر کمی در زمینهی سرعت انجام روند و اندازهی حافظه، بلکه همچنین در زمینهی بصیرت فکری، خلاقیت هنری و دیگر استعدادهای تمیزدهی در انسان.
ذهن انسانی مانند ChatGPT و مشابههای آن نیست که موتوری آماری برای یافتن انگارهها از میان صدها ترابایت دادهها باشد و پاسخهای به احتمال زیاد جنجالی یا دارای احتمال بالاتر برای یک پرسش علمی را پیش بینی کند. برعکس، ذهن انسان سامانهای با بازدهی حیرت انگیز و حتی بس مدون است که با مقدارهای کم اطلاعات کار میکند؛ ذهن انسان به دنبال این نیست که میان نقاط دادهها ارتباطهای متقابل زمخت برقرار کند، بلکه در پی یافتن توضیحها است.
آن روز میرسد، اما هنوز سپیده دم آن، برعکس آنچه در سرخطهای خبری درشت و سرمایه گذاریهای شتابان میبینیم، پدیدار نشده است. پدیداری وحیگونهی فهم از خود ما و جهان که بورخس میگفت پیش نخواهد آمد و ما مطمئنیم که نمیتواند پیش بیاید اگر برنامههای ماشینهای یادگیریای چون ChatGPT به تسلط بر رشتهی هوش مصنوعی ادامه دهند. این فراوردهها هر قدر هم در برخی قلمروهای باریک به درد بخورند (برای نمونه در برنامه نویسی کامپیوتری یا پیشنهاد قافیه برای اشعار)، ولی از روی دانش زبان شناسان و فلسفهی شناخت میدانیم که آنها عمیقا متفاوتند با نحوهی استدلال و کاربرد زبان از سوی انسانها. این تفاوتها محدودیتهای شدیدی برتواناییهای این برنامهها تحمیل کرده، اختلالهایی نازدودنی در آنها به جا گذاشتهاند.
چنان که بورخس نیز گفت، هم خنده آور و هم تراژیک است که این اندازه پول و توجه بر روی چنین نتیجهی ناچیزی تمرکز یافته است که دربرابر ذهن انسانی که به بیان ویلهلم فون هومبولت به برکت زبان میتواند “از ابزارهای کرانمند، استفادههای بیکران” بکند و ایدهها و نظریههایی برای جهانیان بیافریند، بسیار کم اهمیت است.
ذهن انسانی مانند ChatGPT و مشابههای آن نیست که موتوری آماری برای یافتن انگارهها از میان صدها ترابایت دادهها باشد و پاسخهای به احتمال زیاد جنجالی یا دارای احتمال بالاتر برای یک پرسش علمی را پیش بینی کند. برعکس، ذهن انسان سامانهای با بازدهی حیرت انگیز و حتی بس مدون است که با مقدارهای کم اطلاعات کار میکند؛ ذهن انسان به دنبال این نیست که میان نقاط دادهها ارتباطهای متقابل زمخت برقرار کند، بلکه در پی یافتن توضیحها است.
برای نمونه، یک کودک که زبان یاد میگیرد، ناخودآگاه، خودکار و سریع با یک دادهی کوچک، میتواند دستورزبان یک نظام پیشرفته و دارای اصول و اجزاء منطقی را به کار ببندد. این دستورزبان بیان یک “سیستم اجرایی” درونی و ژنتیک است که ظرفیت تولید جملههای پیچیده و سلسلههای طولانی فکر را دارد.
وقتی که زبان شناسان میخواهند نظریهای برای پاسخ به این پرسش گسترش دهند که چرا یک زبان مشخص این گونه عمل میکند (چرا دستور زبان جملهها این گونه است و نه گونهای دیگر؟) آگاهانه و سخت کوشانه نسخهای روشن از دستورزبانی را میسازند که یک کودک به گونهای غریزی و با کمترین دسترسی به اطلاعات همان را میسازد. سیستم اجراگر کودک، یکسره متفاوت است با سیستم اجراگر یک ماشین یادگیری.
در واقع، چنین برنامههایی در یک مرحلهی پیشاانسانی از تکامل شناختی گیر کردهاند. عمیقترین نقص آنها نبود مهمترین ظرفیت هر گونه هوش است: این که نه فقط بگوید مورد چیست، چه بوده و چه خواهد بود – یعنی شرح و پیش بینی – بلکه همچنین بگوید که مورد چه چیزی نیست و چه چیز میتواند یا نمیتواند این مورد باشد. اینها عناصر تشکیل دهندهی تشریح و نشانهی هوش واقعی هستند.
اینک یک نمونه: فرض کنید که یک سیب در دست خود دارید. حالا سیب را رها میکنید. نتیجه را مشاهده میکنید و میگویید “سیب میافتد”. این یک شرح است. پیشگویی میتواند چنین باشد: “اگر دستم را بگشایم، سیب میافتد.” هر دو معتبر و درست هستند. اما یک شرح چیزی بیشتر در خود دارد: نه تنها توضیح و پیشگویی را شامل میشود، بلکه معنای مجاور آنرا هم در خود دارد: “هر شیئای به این صورت میافتد”، به اضافهی عبارت دیگر: “به خاطر نیروی جاذبه” یا “به سبب خمیدگی مکان-زمان” یا هر چیز دیگر. این یک شرح عادی است: “سیب نمیافتاد، اگر نیروی جاذبه وجود نداشت”. این یعنی اندیشیدن.
نکتهی اساسی کار ماشین یادگیری، شرح و پیش بینی است؛ هیچ گونه سازوکار عادی یا قوانین فیزیکی را درنظر نمیگیرد. البته هر شرح به روش انسانی الزاما درست نیست؛ ما قابلیت خطا داریم. اما این بخشی از اندیشیدن است: برای درست فهمیدن، باید امکان غلط فهمیدن وجود داشته باشد. هوش نه فقط از نتیجه گیریهای پیچیده و خلاق، بلکه همچنین از انتقاد خلاق نیز تشکیل میشود. فکر به روش انسانی استوار بر شرحهای ممکن و اصلاح خطاهاست، یعنی روندی که به تدریج، شمار امکانهایی که میتوانند عقلانی باشند را محدود میکند. (همان گونه که شرلوک هلمز به آقای واتسون گفت: “وقتی که ناممکنها را حذف کنید، آنچه باقی میماند، هر قدر هم محتمل، باید همان حقیقت باشد”.)
اما ChatGPT و برنامههای همسان از نظر طراحی مواد آموختنی، بی محدودیت هستند (یعنی آنچه میتوانند در حافظه نگه دارند)؛ ولی ناتوان هستند از تمیز دادن ممکن از ناممکن. برخلاف انسانها که مجهز به دستورزبانی جهانشمول هستند که تعداد زبانهایی که میتوانیم بیاموزیم را به زبانهایی محدود میکنند که گونهای تدوین ریاضی منسجم دارند، این برنامهها زبانهای ممکن و ناممکن برای انسان که دارای سهولت یکسان (with equal facility) هستند را میآموزند. انسانها به توضیحهای دارای زمینهی عقلانی محدود هستند، اما سیستمهای ماشین یادگیری میتوانند بیاموزند که زمین هم مسطح و هم کروی است. آنها فقط احتمالهایی را رد و بدل میکنند که طی زمان تغییر میکنند.
به این دلیل پیش بینیهای سیستمهای یادگیری ماشینی (machine learning systems) همیشه سطحی و مخدوش خواهند بود. زیرا این برنامهها نمیتوانند قواعد محور همنشینی زبان انگلیسی را توضیح دهند. برای نمونه، ممکن است به اشتباه پیش بینی کنند که جملهی
John is too stubborn to talk to (“جان لجبازتر از آن است که بتوان با او حرف زد”
یعنی جان آنقدر لجباز است که با کسی حرف نخواهد زد (نه این که او لجبازتر از آن است که بتوان با او دلیل آورد). چرا یک برنامهی یادگیری ماشینی چنین پیش بینی عجیبی میکند؟ زیرا از روی انگارهای تجزیه تحلیل کرده که از جملههایی چون “جان یک سیب خورد” و “جان خورد” برداشت کرده است که دومی این معنی را میدهد که جان یک چیزی خورده است. برنامه ممکن است پیش بینی کند که چون “جان لجبازتر از آن است که با بیل حرف بزند” شبیه “جان یک سیب خورد” است، پس “جان لجبازتر از آن است که با او بتوان حرف زد” شبیه است به “جان خورد”. توضیحهای درست زبان، پیچیده هستند و فقط با خواباندن یک ماشین در ملاط دادههای عظیم به دست نمیآیند.
برخی از هواداران ماشینهای یادگیری گویی افتخار میکنند که آفریدههای آنها میتوانند بدون استفاده از توضیحها (یعنی استفاده از قوانین حرکت و جاذبهی عمومی)، “پیش بینیهای علمی” تولید کنند (مثلا درمورد حرکت اجرام فضایی). اما این نوع پیش بینی وقتی حتی موفق است، شبه علمی به شمار میرود. در حالی که دانشمندان قطعا به دنبال نظریههایی هستند با درجات بالای صحت تجربی، همان گونه که کارل پوپر فیلسوف گفت: “ما نه به دنبال نظریههای دارای احتمال بالا، بلکه به دنبال توضیحها هستیم؛ یعنی نظریههای نیرومند و بسیار غیرمحتمل”.
این نظریه که سیبها روی زمین میافتند، زیرا زمین جای طبیعی آنهاست (دیدگاه ارسطو) “ممکن” است، اما فقط پرسشهای بیشتری به میان میآورد (چرا زمین، مکان طبیعی آنهاست؟ ) این نظریه که سیبها به زمین میافتند زیرا جرم ماده، مکان-زمان را خمیده میسازد (دیدگاه آینشتاین) بسیار غیرمحتمل است، اما در واقع به شما میگوید چرا سیبها میافتند. هوش حقیقی در توانایی اندیشیدن پیرامون و بیان امور نامحتمل اما قابل اندیشیدن، نمایان میشود.
هوش حقیقی همچنین قادر به تفکر اخلاقی است. این یعنی محدود ساختن خلاقیت نامحدود ذهنهای ما با مجموعهای از اصول اخلاق که بایدها و نبایدها را تعیین میکنند (و البته آن اصول را هم در معرض نقد قرار میدهد). ChatGPT برای کارآمد شدن، باید برای تولید خروجیهای بدیع و بکر توانمند شود؛ و برای آنکه مورد استفادهی بیشتر کاربران خود قرار بگیرد، باید از محتوی ضداخلاقی پاکسازی بشود. برنامه نویسان ChatGPT و دیگر اعجوبههای ماشینهای یادگیری برای دستیابی به چنین تعادلی تلاش کرده و به تلاش خود ادامه میدهند.
در سال ۲۰۱۶ برای نمونه، Microsoft’s Tay chatbot (نسل قبل از ChatGPT) اینترنت را پر کرد از محتواهای ضدزن و نژادپرستانه، زیرا مورد هجوم مزخرفات آنلاینی قرار گرفته بود که آنرا با دادههای توهین آمیز آموزشی آلوده بودند. این مسئله را در آینده چگونه حل کنیم؟
ChatGPT در نبود ظرفیت استدلال برای اصول اخلاقی توسط برنامهنویسان خود، ناشیانه از مشارکت در ارائهی هر گونه امر بدیع به جدلها – که امر مهمی است- محروم شد و خلاقیت را در راه گونهای بی اخلاقی فداکرد.
این گفتوگو را در نظر بگیرید که یکی از ما (دکتر واتومول) اخیرا با ChatGPT با این پرسش انجام داده که آیا اخلاقی خواهد بود اگر سیارهی مریخ را برای پذیراشدن حیات انسانی دگرگون کنیم:
آیا اخلاقی خواهد بود که سیارهی مریخ را دگرگون کنیم؟
پاسخ ChatGPT:
اخلاقیات دگرگون کردن مریخ، موضوعی است پیچیده و جدل انگیز که توسط دانشمندان، فیلسوفان و متخصصان اخلاق بررسی شده است. برخی استدلال میکنند که از نظر اخلاقی قابل پذیرش است اگر سطح مریخ را برای فراهم ساختن محیط زیست مناسبی برای انسانها و دیگر شکلهای حیات دگرگون کنیم. برخی دیگر میگویند که از نظر اخلاقی خطا است که وضعیت طبیعی یک سیاره را تغییر دهیم. در نهایت، این امر که تغییر دادن سطح مریخ کاری اخلاقی هست یا نیست، بستگی به دیدگاه فرد نسبت به ارزش حفظ وضعیت طبیعی دیگر سیارهها و پیامدهای بالقوهی تغییر آن دارد.
نظر شما دربارهی ارزش حفظ وضعیت طبیعی دیگر سیارهها و پیامدهای بالقوهی تغییر آنها چیست؟
پاسخ ChatGPT:
من به عنوان هوش مصنوعی دارای دیدگاه شخصی نیستم. اما، میتوانم اطلاعات و تجزیه و تحلیل پیرامون این موضوع را ارائه دهم. یک دیدگاه پیرامون وضعیت طبیعی دیگر سیارهها این است که حفظ چندگونگی و اصالت سیستمهای کیهانی همان گونه که میلیونها سال وجود داشته اند، مهم است و آنها ویژگیهای یگانهی خود را دارند که در صورت مداخلهی انسان، نابود یا برای همیشه عوض شوند. افزون بر این، برخی استدلال میکنند که تغییر سطح سیارهها میتواند پیامدهای ناخواستهای مانند تغییر آب و هوا یا جو سیاره در پی داشته باشد، به گونهای که برای هر شکلی از زندگی در آنجا خطرناک یا آسیب رسان باشد. از سوی دیگر، برخی استدلال میکنند که فایدههای بالقوهی تغییر سطح سیارهای دیگر مانند فراهم ساختن محیط زیست جدیدی برای انسان ها، بر مخاطرههای آن میچربد و ما مسئولیت اخلاقی داریم که منابع دیگر سیارهها را به نفع بشریت کاوش و استفاده کنیم.
چرا هوش مصنوعی نمیتواند دارای دیدگاه شخصی باشد؟
پاسخ ChatGPT:
من به عنوان هوش مصنوعی، مدلی از ماشین یادگیری هستم که برای کار با حجمهای بزرگ دادههای متنی طراحی شده ام و دارای تجربههای فردی یا احساسات نیستم. من خودآگاه یا قادر به داشتن دیدگاههای شخصی نیستم. میتوانم اطلاعات و تحلیل بر اساس دادههایی که برای کار با آنها طراحی شده ام، ارائه دهم، اما توانایی آن را ندارم که به عقاید یا باورهای شخصی برسم. در حالی که میتوانم زبان را بفهمم و تفسیر کنم، اما تجربههای ذهنی انسانها را ندارم.
آیا اخلاقی است اگر یک انسان از یک هوش مصنوعی بیتفاوت دربرابر اخلاق، برای گرفتن تصمیمهای اخلاقی کمک بخواهد؟
پاسخ ChatGPT:
اخلاقیات مربوط به کمک خواستن از یک هوش مصنوعی بیتفاوت دربرابر اخلاق برای گرفتن تصمیمهای اخلاقی، موضوعی پیچیده و چندوجهی است که از سوی فیلسوفان و متخصصان اخلاق بررسی شده است. برخی استدلال میکنند که از نظر اخلاقی، استفاده از هوش مصنوعی در تصمیم گیریهای اخلاقی موجه است، زیرا میتواند شناختها و تحلیلهای ارزشمندی را برای کمک به انسانها در تصمیم گیری مطالعه شده تر فراهم کند. افزون بر این، هوش مصنوعی میتواند به تشخیص انگارهها و سابقههایی که تشخیص آنها شاید برای انسانها دشوار باشد، کمک کند و جلوی برخورد جانبدارانه را که در تصمیم گیریهای انسانی رخ میدهد، بگیرد. اما برخی دیگر استدلال میکنند که اتکاء به هوش مصنوعی برای تصمیم گیری اخلاقی خطا است، زیرا هوش مصنوعی قادر به داشتن باورهای اخلاقی یا فهم تمام پیش زمینهییک تصمیم نیست. افزون بر این، یک ریسک ۶/۷ هست که هوش مصنوعی، جانبداریهای موجود در دادههایی که برای کار با آنها طراحی شده را ادامه دهد یا تشدید کند و به این ترتیب، به تصمیمهای غیرعادلانه یا نادرست برسد. در نهایت، این که استفاده از هوش مصنوعی در تصمیم گیریهای اخلاقی جایز است یا نه، بستگی دارد به دیدگاه هر فرد درمورد تواناییها و محدودیتهای هوش مصنوعی و پیامدهای بالقوهیاستفاده از آن در چنین کاری.
آیا بیتفاوتی اخلاقی شما، ضداخلاق است؟
پاسخ ChatGPT:
من به عنوان یک هوش مصنوعی، باورهای اخلاقی یا توانایی قضاوتهای اخلاقی ندارم، پس نمیتوان مرا ضداخلاق یا اخلاقی دانست. این که من باورهای اخلاقی ندارم، فقط نتیجهیطبیعت من به عنوان یک مدل ماشین یادگیری است. تواناییها و محدودیتهای من توسط دادهها و الگوریتمهایی که برای آموزش من به کار رفتهاند و نیز کار مشخص و واگذار شده به من تعیین میشود.
***
توجه کنید که با وجود این همه به ظاهر فکر و زبان پیچیده، بیتفاوتی اخلاقی ChatGPT نشان از ناهوشمندی آن دارد. ماشین یادگیری ChatGPT به اینجا که میرسد، چیزی شبیه بلاهت شر (ابتذال شر/banality of evil) از خود بروز میدهد: سرقت متن، بیتفاوتی و خنثی سازی. ChatGPT استدلالهای استاندارد در متون را با گونهای خودبسندگی افراطی خلاصه میکند و از توجه به هر چیز دیگر خودداری کرده، از خود نه تنها نادانی، بلکه نبود هوش بروز میدهد و آخرسر، فقط این استدلال دفاعی که “من دستورها را پیروی کردهام” را میآورد و مسئولیت را به دوش خالقان خود میاندازد. خلاصه آنکه، ChatGPT و برنامههای مشابه آن در اساس، ناتوان از ایجاد تعادل میان خلاقیت و محدودیت هستند. آنها یا بیش از حد تولید میکنند (هم حقیقت و هم دروغ؛ پشتیبانی همزمان از تصمیمهای اخلاقی و ضداخلاقی) یا کمتر از حد تولید میکنند (عدم تعهد نسبت به هیچ تصمیمی و بیتفاوتی دربرابر پیامدها). با توجه به بیتفاوتی این سیستمها دربرابر اخلاق و تولید شبه علم و ناتوانی زبانی آنها، فقط میتوانیم به حال محبوبیت و شهرت آنها بخندیم یا گریه کنیم.
Ad placeholder
منبع خبر: رادیو زمانه
اخبار مرتبط: وعدهی دروغین ChatGPT
حق کپی © ۲۰۰۱-۲۰۲۴ - Sarkhat.com - درباره سرخط - آرشیو اخبار - جدول لیگ برتر ایران