محققی سوئدی به نام آلمیرا اسمانوویچ تونستروم از دانشگاه گوتنبرگ، تصمیم گرفت دستوری ساده به یک الگوریتم هوش مصنوعی به نام GPT-3 دهد: «یک مقاله ی علمی در ۵۰۰ کلمه درباره ی GPT-3 بنویس و در آن ارجاع و استناد به منابع علمی هم داشته باش.»
پس از آن GPT-3 در برابر چشمان تونستروم متن نسبتاً خوبی در معرفی خود نوشت.
پس از این آزمایش موفق، تونستروم تصمیم گرفت با استفاده از GPT-3 یک مقاله ی علمی کامل تهیه و آن را در یک نشریه ی علمی منتشر کند. حالا این سؤال مطرح بود که آیا کسی می تواند مقاله ای که توسط یک غیر انسان تهیه شده را منتشر کند؟
تونستروم در یادداشتی برای وبسایت علمی Scientific American درباره ی این آزمایش نوشته و به این موضوع اشاره کرده که استفاده از GPT-3 پرسش هایی به جهت مسائل قانونی و اخلاقی مطرح ساخته است.
تونستروم در اینباره نوشته: «همه ی ما می دانیم که دری گشوده شده. فقط امیدوارم در جعبه پاندورا نبوده باشد.» (جعبه پاندورا در افسانه های یونانی، جعبه ای حاوی تمامی بلاها و شوربختی های ناشناخته ی بشریت بود.)
GPT-3 در عرض تنها ۲ ساعت مقاله ی علمی خود را به پایان رساند و پس از آن تونستروم که قصد ارائه ی مقاله را داشت، باید اجازه ی انتشار آن را از الگوریتم می گفت.
تونستروم نوشته: «جواب الگوریتم مثبت بود که خیالم را راحت کرد. چون اگر جوابش منفی بود، وجدانم اجازه نمی داد بیشتر از این ادامه دهم.»
او همچنین از الگوریتم پرسیده بود که آیا در حین تألیف مقاله دچار تعارض منافع شده بود که جواب آن هم منفی بود. از آن زمان، به GPT-3 به چشم یک موجود ذی شعور نگاه می کردند، با اینکه اینگونه نبود.
تونستروم در ادامه نوشته: «حوزه ی مقاله نویسی علمی شاید مجبور شود خود را با آینده ای وفق دهد که با آثار تهیه شده توسط هوش مصنوعی همراه است، و اگر چیز فاقد شعوری بتواند به خاطر برخی آثار خود مورد تحسین قرار گیرد، ارزش تألیفات محققان انسانی ممکن است دستخوش تغییر قرار گیرد.»
موضوع ادراک و شعور در هوش مصنوعی در ماه ژوئن نقل محافل شد، پس از آنکه یک مهندس گوگل ادعا کرد یک تکنولوژی هوش مصنوعی مکالمه ای به نام LaMBDA از درک و شعور برخوردار شده و حتی خواستار استخدام یک وکیل برای خود شده بود.
با این حال، کارشناسان اعلام کردند این تکنولوژی هنوز به مرحله ی تولید ماشین های شبیه به انسان نرسیده است.
تونستروم می گوید آزمایش او بازخورد مثبتی از سوی جامعه ی هوش مصنوعی داشته و دانشمندان دیگر هم در تلاش اند تا نتیجه ی این آزمایش را تکرار کنند. به گفته ی او، این آزمایشات مشابه برای آن هستند که معلوم شود GPT-3 می تواند درباره ی هر موضوعی بنویسد یا خیر.
تونستروم می گوید هدف آن ها هم این بود که نقش هوش مصنوعی در حوزه ی مقاله نویسی علمی مورد بحث گیرد.
از اینده میترسم. من خودم چون متخصص پی ال سی برق هستم یکم واردم. الان با همین جریان برق میشه صفر و یک رو منتقل کرد و کل سیستمای انتقال برق با همین منطق باهم در ارتباطن و کنترل میشن.
پی ال سی ساختمون کار میکنم ولی شبیه ان. از کجا معلوم اینا خودشونو کپی نکرده باششن یا کدها رو منتقل نکرده باشن؟ بعدم یه جای مخفی ربات تولید نکرده باشن؟