غزال زیاری – استیون هاوکینگ در این باره هشدار داده بود که توسعه هوش مصنوعی ممکن است روزی به منزله پایان نسل بشر باشد.
ایلان ماسک، یکی از بنیانگذاران شرکت OpenAI هم در این رابطه گفته:« هوش مصنوعی مرا به طرز وحشتناکی میترساند. توانایی آن به مراتب بیشتر از چیزی است که هر کسی میداند و روند پیشرفت آن به صورت تصاعدی بالاست.»
چندی پیش بیش از ۱۰۰۰ لیدر دنیای فناوری، نامهای را به امضا رساندند که در آن بر این نکته تاکید شده بود که فناوریهای هوش مصنوعی، خطرات عمیقی برای جامعه و بشریت ایجاد میکنند و در این نامه آنها خواستار آن شدند که تحقیقات درباره هوش مصنوعی تا زمانی که خطرات احتمالی آن بیشتر شناخته شود، متوقف گردد.
یوشوا بنجیو، استاد و محقق هوش مصنوعی در دانشگاه مونترئال دراین باره گفته:« ما باید حسابی مراقب باشیم.»
این روزها گزارشهای منتشره در رسانهها به طرز فزایندهای، هشدارهایی را در مورد پیامدهای ناخواسته این فناوری مخرب رو به رشد صادر میکنند و این درحالی است که در سوی دیگر وعدههای جذاب و وسوسه کننده فوقالعادهای در مورد خدمات هوش مصنوعی در طیف وسیعی از بخشها، از صنعت و اقتصاد و آموزش و علم گرفته تا کشاورزی، پزشکی و تحقیقات به گوش میرسد.
یکی از موارد نگرانی، درباره رفتارهای پیشبینی نشده است که تحت عنوان مجموعهای از تعاملات پیشبینی نشده و برنامهریزی نشده در یک سیستم تعریف میشوند و از رفتارهای برنامهریزی شده سادهتر در بخشهای جداگانه ناشی میشوند.
محققان بر این باورند که برخی شواهد از چنین رفتاری در برخی مدلها مشاهده شده؛ مثلا در سیستمهایی که یاد میگیرند تا شطرنج بازی کنند و یا استراتژیهایی برای پیشرفت تعیین میکنند و یا زمانی که رباتها تغییرپذیریهایی را در الگوهای حرکتی به نمایش میگذارند که در ابتدا برنامهریزی نشده بود.
اتان دایر، دانشمند کامپیوتر گوگل در واکنش به یک آزمایش هوش مصنوعی که در آن یک کامپیوتر به طرز غیرمنتظرهای به تنهایی و با بهرهگیری از چند ایموجی، عنوانی برای یک فیلم انتخاب کرد گفت:« با وجودی که در انتظار شگفتی بودم، اما واقعا از کارهایی که این مدلها میتوانند انجام دهند، حیرتزده شدم.» اما دایر احتمالا از شنیدن این خبر که یک تیم تحقیقاتی در دانشگاه استنفورد آب پاکی را برروی گزارشهای رفتارهای پیشبینی نشده ریخته، حیرتزده خواهد شد.
رایان شافر، براندو میراندا و سانمی کیوجو، هفته گذشته مقالهای را منتشر و در آن اعلام کردند که شواهد رفتارهای پیشبینینشده مبتنی بر آماری است که به احتمال قریب به یقین به اشتباه تفسیر شدهاند. آنها در این باره گفتهاند:« پیغام ما این است که ادعای قبلی درباره تواناییهای پیشبینینشده، احتمالا سرابی است که توسط تحلیلهای محققان ایجاد شده است.»
آنها در مقاله خود توضیح دادهاندکه توانایی مدلهای زبان بزرگ، با تعیین درصد پیشبینیهای صحیح آنها اندازهگیری میشود. تجزیه و تحلیلهای آماری ممکن است به روشهای متعددی ارائه شوند. محققان معتقدند که زمانی که نتایج در معیارهای غیرخطی و یا ناپیوسته گزارش میشوند، تغییرات تند و تیز و غیرقابل پیشبینیای به نظر میرسند که به اشتباه بهعنوان شاخصهای رفتاری پیشبینی نشده تعبیر خواهند شد.
بیشتر بخوانید:
در هر صورت یک ابزار جایگزین برای اندازهگیری دادههای یکسان، استفاده از معیارهای خطی است که تغییراتی هموار و پیوسته را نشان میدهد که برخلاف اندازهگیریهای قبلی، از رفتارهای قابل پیشبینی و غیر اضطراری خبر میدهند.
تیم دانشگاه استنفورد در ادامه به این نکته اشاره کرده که عدم استفاده از نمونههای بزرگ، منجر به نتیجهگیریهای اشتباه میشود:« ادعاهای موجود درباره تواناییهای پیشبینی نشده، توسط تحلیلهای محققان خلق شدهاند و تغییرات اساسی در رفتار مدل در وظایف و امور خاص نیستند.»
آنها در ادامه تاکید کردند که اگر چه روششناسی در تحقیقات گذشته، احتمالا نتایج گمراهکنندهای را به همراه داشته ، اما هر آنچه که در مقاله تحقیقاتی آنها درج شده نیز نباید به این صورت تفسیر شود که مدلهای زبانی بزرگ نمیتوانند تواناییهای پیشبینی نشده را به نمایش بگذارند و روششناسی مناسب، میتواند به خوبی از چنین ظرفیتهایی رونمایی کند.
این محققان گفتهاند:«دستورالعمل اصلی، برای یک کار ثابت و یک خانواده مدل ثابت است و محقق میتواند معیارهایی برای خلق یک توانایی پیشبینینشده برگزیده و یا معیاری برای حذف یک توانایی پیشبینی نشده انتخاب کند.»
و یا همانطور که یکی از مفسران برجسته گفته:«خروجی الگوریتم، به اندازه پارامترهایی که سازندگان آن تعیین کردهاند، خوب از آب در میآید. بدان معنا که فضا برای سوگیریهای احتمالی در خود هوش مصنوعی وجود دارد.»
و این مفسر برجسته چه کسی است؟ ChatGPT مایکروسافت!
منبع: techxplore
5858