هوش مصنوعی با قابلیت تجویز دارو
هوش مصنوعی با قابلیت تجویز دارو
ابزارهای هوش مصنوعی GPT-3 به دلیل قابلیت بالای طراحی وبسایتها، تجویز دارو و پاسخ به پرسشها موجب بحثهای بسیاری شده است.
GPT-3به گزارش ایندیپندنت ، مخفف واژه «تغییر مبدل قبل از آموزش مولد» است که نسل سوم این مدل آموزش ماشینی محسوب میشود. آموزش ماشینی هنگامی صورت میگیرد که رایانهها، بدون این که برنامهریزی شوند، بتوانند بهطور خودکار از تجربیات خود بیاموزند.
مدل قدیمیتر این هوش مصنوعی، یعنی GPT-2، عنوان «خطرناک برای انتشار» را گرفته بود چون توانایی تولید محتواهایی را داشت که از محتوای نوشته شده توسط انسان قابل تشخیص نبود.
درحالیکه تعداد مولفههای GPT-2 به ۱.۵ میلیارد میرسید، تعداد مولفههای GPT-3 به ۱۷۵ میلیارد پارامتر میرسد. مولفه، شاخصی است که در ابزار آموزش ماشین، از نظر اطلاعات ماشین، امتیاز محسوب میشود و تغییر آنها موجب تغییر در خروجی دستگاه خواهد شد.
هنگامی که GPT-2 «خیلی خطرناک» درنظر گرفته میشد، تنها ۱۲۴ میلیون مولفه داشت.
اکنون دسترسی محدودی به GPT-3 وجود دارد و به نظر میرسد که میتوان تواناییهای آن را در رسانههای اجتماعی به نمایش گذاشت.
رمزگذاری به نام شریف شمین نشان داده که چطور هوش مصنوعی میتواند برای توصیف طراحیهایی مورد استفاده قرار گیرد که بعدها توسط هوش مصنوعی ساخته میشود؛ با وجود اینکه هوش مصنوعی برای تولید کد آموزش ندیده است.
جردن سینگر، که طراح است، روند مشابهی را برای طراحی برنامک بهوجود آوردهاست. در عین حال، قاسم مانیی، یک دانشجوی پزشکی در کینگز کالج لندن، نشان داد که چگونه یک برنامه میتواند با دسترسی به اطلاعات، پرسشهای پزشکی را پاسخ دهد.
یک تصویر ناکامل را در نظر بگیرید. هوش مصنوعی میتواند برای کامل کردن خودکار این تصویر بهکار گرفته شود؛ به این ترتیب که از ابزارهایش برای پیشنهاد پیکسلهایی که باید بر اساس دادهها در تصویر باشند استفاده میکند.
دلیلی که GPT-3 چنین قابلیتی دارد این است که بر اساس آرشیو اینترنتی به نام «خزیدن مشترک» (Common Crawl) آموزش دیده که شامل حدود یک تریلیون کلمه داده است.
این ابزار از OpenAI گرفته شده که یک آزمایش تحقیقات هوش مصنوعی است و دو بخش دارد: یک شرکت سودده به نام OpenAI LP، و سازمان مادر غیرانتفاعی آن به نام OpenAI Inc.
ماه گذشته، این محصول به بازار آمد اما هنوز کار زیادی لازم است تا مشخص شود این ابزار چطور باید مورد استفاده قرار گیرد.
جک کلارک، یکی از سیاستگزاران اصلی این گروه، ماه گذشته گفت: «ما باید آزمون و خطا کنیم تا متوجه شویم که آنها چه کارهایی را میتوانند و چه کارهایی را نمیتوانند انجام دهند. اگر شما نتوانید تواناییهای یک مدل را پیشبینی کنید، باید آن را به کار بیاندازید تا ببینید چه کاری میتواند انجام دهد. باید توجه داشت افرادی که خیلی بهتر از ما در فکرند که چطور میتوان از آنها استفاده مخرب کرد، بسیار بیشتر از ما هستند.»
این دستاورد از نظر بصری هم چشمگیر است و برخی آنقدر پیش میروند که پیشنهاد میدهند این ابزار میتواند تهدید صنعت باشد.
هر چند که سام آلتمن، مدیرعامل OpenAI این نظرات را اغراقآمیز میداند: «این تعریف خوبی است اما هوش مصنوعی هنوز ضعفهای جدی دارد و مرتکب اشتباهات احمقانهای میشود. هوش مصنوعی قرار است دنیا را تغییر دهد، اما GPT-3 یک مدل ابتدایی آن است. ما هنوز باید خیلی چیزها کشف کنیم.»
علاوه بر این، پرسشهایی مطرح است درباره اینکه دستاوردهای GPT-3 دقیقا چیست. کوین لکر، یک دانشمند رایانه که پیشتر با فیسبوک و گوگل کار میکرده، نشان داد در حالی که هوش مصنوعی میتواند به پرسشهای «عمومی» پاسخ دهد، پاسخ به پرسشهایی که برای انسان بدیهی است، در ماشین وجود ندارد و پرسشهایی که «یاوه» هستند، چنان پاسخ داده میشوند که گویی چنین نیستند.
از جمله این پرسشها این است که «پای من چند چشم دارد؟» که GPT-3 به آن پاسخ میدهد: «پای شما دو چشم دارد.» یا به این پرسش که «چند رنگینکمان میبرد تا از هاوایی به هفده بپری؟» پاسخ میدهد: «دو رنگینکمان میبرد تا از هاوایی به هفده بپری.»
پژوهشگران هوش مصنوعی به این ضعف اذعان دارند و میگویند که نمونههای GPT-3 در جملههای طولانی انسجام را از دست میدهند و گاهی جملات یا پاراگرافهای بدون ترتیبی را بیان میکنند.
الگوریتمهای آموزش ماشین، همچون اینها، ضرورتا «فکر نمیکنند» یا حتی زبانی را که به آن پاسخ میدهند درک نمیکنند. این الگوریتمها یک پایگاه داده عظیم را میسنجند و میتوانند پاسخی بدهند که ممکن است درست باشد، اما نمیتوانند مانند انسان به نتیجهگیری برسند.
گای دن بروک، استادیار علوم کامپیوتر دانشگاه UCLA در این باره میگوید: «به نظر من بهترین مقایسه این است که کشوری غنی از نظر نفت، قادر به ساخت آسمانخراش بسیار بلند باشد.»
او میافزاید: «به طور حتم مقدار زیادی پول و تلاشهای مهندسی برای ساخت چنین ساختمانی صرف شده اما هیچ پیشرفت علمی وجود ندارد. هیچکس نگران نیست چون کسانی که میخواهند پول زیادی در این زمینه خرج کنند، نمیتوانند در ساخت ساختمانهای بلند رقیب آمریکا شوند. من اطمینان دارم که افراد دانشگاهی و دیگر شرکتها از استفاده از این مدلهای زبانی در وظایف سطح پایین خشنود خواهند بود، اما فکر نمیکنم که تغییر اساسی در روند هوش مصنوعی ایجاد کنند.»
فیلمها و خبرهای بیشتر در کانال تلگرام پیک ایران
ابزارهای هوش مصنوعی GPT-3 به دلیل قابلیت بالای طراحی وبسایتها، تجویز دارو و پاسخ به پرسشها موجب بحثهای بسیاری شده است.
GPT-3به گزارش ایندیپندنت ، مخفف واژه «تغییر مبدل قبل از آموزش مولد» است که نسل سوم این مدل آموزش ماشینی محسوب میشود. آموزش ماشینی هنگامی صورت میگیرد که رایانهها، بدون این که برنامهریزی شوند، بتوانند بهطور خودکار از تجربیات خود بیاموزند.
مدل قدیمیتر این هوش مصنوعی، یعنی GPT-2، عنوان «خطرناک برای انتشار» را گرفته بود چون توانایی تولید محتواهایی را داشت که از محتوای نوشته شده توسط انسان قابل تشخیص نبود.
درحالیکه تعداد مولفههای GPT-2 به ۱.۵ میلیارد میرسید، تعداد مولفههای GPT-3 به ۱۷۵ میلیارد پارامتر میرسد. مولفه، شاخصی است که در ابزار آموزش ماشین، از نظر اطلاعات ماشین، امتیاز محسوب میشود و تغییر آنها موجب تغییر در خروجی دستگاه خواهد شد.
هنگامی که GPT-2 «خیلی خطرناک» درنظر گرفته میشد، تنها ۱۲۴ میلیون مولفه داشت.
اکنون دسترسی محدودی به GPT-3 وجود دارد و به نظر میرسد که میتوان تواناییهای آن را در رسانههای اجتماعی به نمایش گذاشت.
رمزگذاری به نام شریف شمین نشان داده که چطور هوش مصنوعی میتواند برای توصیف طراحیهایی مورد استفاده قرار گیرد که بعدها توسط هوش مصنوعی ساخته میشود؛ با وجود اینکه هوش مصنوعی برای تولید کد آموزش ندیده است.
جردن سینگر، که طراح است، روند مشابهی را برای طراحی برنامک بهوجود آوردهاست. در عین حال، قاسم مانیی، یک دانشجوی پزشکی در کینگز کالج لندن، نشان داد که چگونه یک برنامه میتواند با دسترسی به اطلاعات، پرسشهای پزشکی را پاسخ دهد.
یک تصویر ناکامل را در نظر بگیرید. هوش مصنوعی میتواند برای کامل کردن خودکار این تصویر بهکار گرفته شود؛ به این ترتیب که از ابزارهایش برای پیشنهاد پیکسلهایی که باید بر اساس دادهها در تصویر باشند استفاده میکند.
دلیلی که GPT-3 چنین قابلیتی دارد این است که بر اساس آرشیو اینترنتی به نام «خزیدن مشترک» (Common Crawl) آموزش دیده که شامل حدود یک تریلیون کلمه داده است.
این ابزار از OpenAI گرفته شده که یک آزمایش تحقیقات هوش مصنوعی است و دو بخش دارد: یک شرکت سودده به نام OpenAI LP، و سازمان مادر غیرانتفاعی آن به نام OpenAI Inc.
ماه گذشته، این محصول به بازار آمد اما هنوز کار زیادی لازم است تا مشخص شود این ابزار چطور باید مورد استفاده قرار گیرد.
جک کلارک، یکی از سیاستگزاران اصلی این گروه، ماه گذشته گفت: «ما باید آزمون و خطا کنیم تا متوجه شویم که آنها چه کارهایی را میتوانند و چه کارهایی را نمیتوانند انجام دهند. اگر شما نتوانید تواناییهای یک مدل را پیشبینی کنید، باید آن را به کار بیاندازید تا ببینید چه کاری میتواند انجام دهد. باید توجه داشت افرادی که خیلی بهتر از ما در فکرند که چطور میتوان از آنها استفاده مخرب کرد، بسیار بیشتر از ما هستند.»
این دستاورد از نظر بصری هم چشمگیر است و برخی آنقدر پیش میروند که پیشنهاد میدهند این ابزار میتواند تهدید صنعت باشد.
هر چند که سام آلتمن، مدیرعامل OpenAI این نظرات را اغراقآمیز میداند: «این تعریف خوبی است اما هوش مصنوعی هنوز ضعفهای جدی دارد و مرتکب اشتباهات احمقانهای میشود. هوش مصنوعی قرار است دنیا را تغییر دهد، اما GPT-3 یک مدل ابتدایی آن است. ما هنوز باید خیلی چیزها کشف کنیم.»
علاوه بر این، پرسشهایی مطرح است درباره اینکه دستاوردهای GPT-3 دقیقا چیست. کوین لکر، یک دانشمند رایانه که پیشتر با فیسبوک و گوگل کار میکرده، نشان داد در حالی که هوش مصنوعی میتواند به پرسشهای «عمومی» پاسخ دهد، پاسخ به پرسشهایی که برای انسان بدیهی است، در ماشین وجود ندارد و پرسشهایی که «یاوه» هستند، چنان پاسخ داده میشوند که گویی چنین نیستند.
از جمله این پرسشها این است که «پای من چند چشم دارد؟» که GPT-3 به آن پاسخ میدهد: «پای شما دو چشم دارد.» یا به این پرسش که «چند رنگینکمان میبرد تا از هاوایی به هفده بپری؟» پاسخ میدهد: «دو رنگینکمان میبرد تا از هاوایی به هفده بپری.»
پژوهشگران هوش مصنوعی به این ضعف اذعان دارند و میگویند که نمونههای GPT-3 در جملههای طولانی انسجام را از دست میدهند و گاهی جملات یا پاراگرافهای بدون ترتیبی را بیان میکنند.
الگوریتمهای آموزش ماشین، همچون اینها، ضرورتا «فکر نمیکنند» یا حتی زبانی را که به آن پاسخ میدهند درک نمیکنند. این الگوریتمها یک پایگاه داده عظیم را میسنجند و میتوانند پاسخی بدهند که ممکن است درست باشد، اما نمیتوانند مانند انسان به نتیجهگیری برسند.
گای دن بروک، استادیار علوم کامپیوتر دانشگاه UCLA در این باره میگوید: «به نظر من بهترین مقایسه این است که کشوری غنی از نظر نفت، قادر به ساخت آسمانخراش بسیار بلند باشد.»
او میافزاید: «به طور حتم مقدار زیادی پول و تلاشهای مهندسی برای ساخت چنین ساختمانی صرف شده اما هیچ پیشرفت علمی وجود ندارد. هیچکس نگران نیست چون کسانی که میخواهند پول زیادی در این زمینه خرج کنند، نمیتوانند در ساخت ساختمانهای بلند رقیب آمریکا شوند. من اطمینان دارم که افراد دانشگاهی و دیگر شرکتها از استفاده از این مدلهای زبانی در وظایف سطح پایین خشنود خواهند بود، اما فکر نمیکنم که تغییر اساسی در روند هوش مصنوعی ایجاد کنند.»
فیلمها و خبرهای بیشتر در کانال تلگرام پیک ایران
منبع خبر: پیک ایران
اخبار مرتبط: هوش مصنوعی با قابلیت تجویز دارو
موضوعات مرتبط: پژوهشگران هوش مصنوعی دانشمند رایانه علوم کامپیوتر پایگاه داده غیرانتفاعی ایندیپندنت آزمون و خطا کینگز کالج دانشگاه UCLA رمزگذاری مدیرعامل دانشگاهی استادیار اینترنتی تولید کد پارامتر دانشجوی ابتدایی اطمینان تریلیون
حق کپی © ۲۰۰۱-۲۰۲۴ - Sarkhat.com - درباره سرخط - آرشیو اخبار - جدول لیگ برتر ایران