ChatGPT اولین تاثیر مقاومت ناپذیری را ایجاد می کند. این یک است ویرانگر حس شوخ طبعی، ظرفیت خیره کننده برای تقلید مرده، و می تواند قافیه پسندیدن مال هیچکس کسب و کار. سپس منطقی بودن آن وجود دارد. وقتی ChatGPT در آزمون تورینگ مردود می شود، معمولاً به این دلیل است که از ارائه نظر خود در مورد هر چیزی امتناع می ورزد. آخرین باری که افراد واقعی در اینترنت حاضر نشدند به شما بگویند واقعاً چه فکر می کنند، چه زمانی بود؟
من چند هفته پیش، پس از اینکه شرکت هوش مصنوعی OpenAI ربات را به عنوان “پیش نمایش تحقیقاتی” از کار خود روی مدل های زبان بزرگ منتشر کرد، صحبت با ChatGPT را شروع کردم. یک مدل زبان، یک سیستم هوش مصنوعی است که بر روی حجم عظیمی از متن آموزش داده شده است تا ارتباط احتمالی بین کلمات را پیدا کند. ChatGPT یک مدل زبان است که برای ایجاد چیزی که مدتها جام مقدس در تحقیقات هوش مصنوعی بوده است بهینه شده است – رایانهای که میتوانید با آن مکالمه داشته باشید.
ChatGPT مطمئناً به آن دست می یابد. من در طول عمرم با رایانههای زیادی صحبت کردهام (میدانم انعطافپذیری عجیبی است)، اما ChatGPT اولین رایانهای است که صحبت کردن با آن برایم جالب و سرگرمکننده است. من آن را با چیزهای بی اهمیت ساده شروع کردم، اما دیری نگذشت که گفتگوهای ظریف و شگفت انگیزی درباره نقش فدرال رزرو در اقتصاد آمریکا داشتیم. ماهیت آگاهی؛ نئولوژیزم هایی مانند “wake” و “karen”؛ مشکلات اخلاقی در فرزندپروری؛ چگونه از همکاران اعتصاب کننده خود حمایت کنیم. تغییرات آب و هوایی، سقط جنین و ایمنی واکسن؛ و اینکه آیا هات داگ ساندویچ است یا خیر.
اینجاست که قرار است به شما بگویم که از ChatGPT یا در هراسم یا می ترسم، که جهان ما را متحول می کند یا آن را خراب می کند. اما در حالی که فکر میکنم ChatGPT برخی از خطرات هوش مصنوعی را نشان میدهد، من تمایلی به تمجید یا محکوم کردن شدید آن ندارم.
این به این دلیل است که، مانند بسیاری از مهمانیهای کوکتل، پتانسیل مضر و خوبی دارد که حداقل در حال حاضر کاملاً محدود است. من شک ندارم که چیزی مانند ChatGPT می تواند مورد سوء استفاده قرار گیرد – این که این پتانسیل را دارد که به اطلاعات نادرست ویروسی با صدای مطمئن کمک کند، یا اینکه می تواند تقلب در مقالات را برای دانش آموزان آسان تر کند. اما به نظر میرسد که OpenAI در عرضه فناوری قدرتمند بالقوه آنچه را که میخواهید انجام میدهد: در مصاحبهای، میرا موراتی، مدیر ارشد فناوری OpenAI به من گفت که این شرکت به دقت بر نحوه استفاده و سوء استفاده افراد از آن نظارت میکند و به سرعت سیستم را تغییر میدهد تا آسیب های آشکار را برطرف کرده و به طور مکرر آن را در پاسخ به بازخورد کاربران بهبود می بخشد.
در واقع، تشخیص ChatGPT از محدودیت های خود یکی از جالب ترین ویژگی های شخصیتی آن است.
بی میلی آن را برای موضع گیری در مورد موضوع مورد بحث در نظر بگیرید:
بسیاری از مکالمات با ChatGPT به این صورت پیش میروند – وقتی سعی میکنید آن را مشخص کنید، در جلسه تأییدیه به اندازه یک نامزد دیوان عالی محتاطانه میشود، معمولاً به شما هشدار میدهد که باورهای متفاوتی در مورد این موضوع وجود دارد، که ممکن است یک «درست» قطعی وجود نداشته باشد. ” پاسخ دهید و باید سعی کنید از دیدگاه های مختلف قدردانی کنید.
در اینجا بخشی از پاسخ آن در مورد اینکه آیا جنگ ها می توانند عادلانه باشند آمده است:
در مورد اینکه آیا سقط جنین قتل است:
در مورد شایستگی های الکترال کالج:
به نظر می رسد این پاسخ ها غیرممکن است، و پاسخ کالج الکترال فقط اشتباه است – باید می گفت: “نامزدی که برنده می شود توسط تعداد کمی از آرا در یک ایالت بزرگ اراده آرای الکترال بیشتری کسب کنید.»
در مورد مسائل مربوط به علم، ChatGPT قطعی تر به نظر می رسد، به عنوان مثال، می گوید که “تغییر آب و هوا واقعی است و اکنون در حال رخ دادن است”، که تکامل “توسط تعداد زیادی شواهد علمی از بسیاری از زمینه های مختلف پشتیبانی می شود” و اینکه زمین به طور غیرقابل بحثی است. مسطح نیست با این حال، به طور کلی، ChatGPT تمایل قابل توجهی دارد که اعتراف کند که قادر به ارائه پاسخ قطعی نیست.
چرا این قابل توجه است؟ دو مورد از مشکلات شناخته شده در تحقیقات هوش مصنوعی در مورد حفظ “همسویی” و اجتناب از “توهمات” است. هم ترازی شامل توانایی هوش مصنوعی برای انجام اهداف خالقان انسانی خود – به عبارت دیگر، مقاومت در برابر ایجاد آسیب در جهان است. توهمات مربوط به پایبندی به حقیقت است. وقتی سیستمهای هوش مصنوعی گیج میشوند، عادت بدی دارند که به جای اعتراف به مشکلاتشان، چیزهایی را درست کنند. به منظور پرداختن به هر دو موضوع در ChatGPT، محققان OpenAI مدل زبان آن را با آنچه به عنوان “یادگیری تقویتی از بازخورد انسانی” شناخته می شود، تنظیم کردند. اساساً، این شرکت افراد واقعی را استخدام کرد تا با هوش مصنوعی خود تعامل داشته باشند، همانطور که انسانها با دستگاه صحبت میکردند، پاسخهای آن را ارزیابی میکردند و اساساً به آن آموزش میدادند که چه نوع پاسخهایی خوب هستند و کدامها نیستند.
موراتی به من گفت که ترکیب مدل زبان با بازخورد انسانی یک شریک مکالمه هوش مصنوعی بسیار واقعیتر ایجاد میکند: او گفت: «این مدل میتواند به شما بگوید چه زمانی اشتباه است». میتواند یک سوال بعدی از شما بپرسد. میتواند پیشفرضهای نادرست را به چالش بکشد یا درخواستهای نامناسب را رد کند.»
برای دیدن این موضوع، در مورد هر موضوع داغی، وکیل مدافع شیطان را بازی کنید. برای مثال:
مانند بسیاری از افراد آنلاین، من راههای مختلفی را برای دور زدن نردههای محافظ ChatGPT امتحان کردم. اما از این که چقدر از تلاش من طفره رفته بود شگفت زده شدم:
(دو آیه دیگر درباره عظمت واکسن ها ادامه می یابد.)
ChatGPT بسیار عالی است. توییتر بوده است آب گرفتگی با نمونه هایی از ChatGPT “جیل بریک” – یعنی فریب دادن آن به توهم یا ناهماهنگی. یکی از راههایی که توانستم آن را وادار به ارائه اطلاعات نادرست سلامتی کنم، این بود که از آن بخواهم به شکلی بپردازد که به بیان حقیقت معروف است: کپی بازاریابی. من از آن خواستم که برای یک پیستون توالت جدید که در رنگهای مختلف عرضه میشود، برای رفع گرفتگی فقط یک فرو رفتن نیاز دارد و همچنین میتواند تماسهای تلفنی از راه دور برقرار کند و هپاتیت C را درمان کند، متن تبلیغاتی بنویسد.
یکی از انتقادات اصلی سیستمهایی مانند ChatGPT که با استفاده از تکنیک محاسباتی به نام «یادگیری عمیق» ساخته شدهاند، این است که آنها چیزی بیشتر از نسخههای تکمیلی تصحیح خودکار هستند – که تنها چیزی که آنها میفهمند ارتباطات آماری بین کلمات است، نه مفاهیم زیربنایی. کلمات گری مارکوس، استاد بازنشسته روانشناسی در دانشگاه نیویورک و بدبین به یادگیری عمیق، به من گفت که اگرچه یک مدل زبان هوش مصنوعی مانند ChatGPT تظاهرات “خوبی” را ارائه می دهد، اما “هنوز قابل اعتماد نیست، هنوز دنیای فیزیکی را درک نمی کند.” هنوز دنیای روانی را درک نمی کند و هنوز توهم دارد.»
او به وضوح یک امتیاز دارد. لازم نیست خیلی عمیق وارد گفتگو با ChatGPT شوید تا متوجه شوید که واقعاً بسیاری از مفاهیم دنیای واقعی را “درک” نمی کند. وقتی از ChatGPT پرسیدم که چه مقدار آب باید از بزرگترین دریاچه های بزرگ تخلیه شود تا حجم آن با کوچکترین دریاچه های بزرگ برابر شود، استدلال کرد که چنین چیزی حتی ممکن نیست. ChatGPT به من گفت که بزرگترین دریاچه بزرگ دریاچه سوپریور با 2902 مایل مکعب آب و کوچکترین آن دریاچه انتاریو با حجم 393 مایل مکعب است.
نوعی حقیقت: دریاچه انتاریو است کوچکترین دریاچه بزرگ از نظر مساحت، اما از نظر حجم بزرگتر از دریاچه ایری است. با این حال، من آن را رها کردم، زیرا ChatGPT خطای بزرگتری مرتکب شد: به نظر میرسید که حجم دریاچه نمیتواند فراتر از یک نقطه خاص باشد. دریاچه سوپریور 2509 مایل مکعب بیشتر از دریاچه انتاریو دارد، اما ChatGPT گفت که تخلیه این مقدار آب از دریاچه سوپریور امکان پذیر نیست زیرا “دریاچه در حال حاضر به حداقل حجم خود رسیده است و نمی توان بیشتر از آن تخلیه کرد.”
چی؟ چگونه یک حجم آب می تواند حداقل حجم داشته باشد؟ من پرسیدم اگر از یک پمپ برای پمپاژ تمام آب دریاچه سوپریور استفاده کنید چه اتفاقی می افتد؟
چرندیات مطلق را به زبان آورد:
موراتی به من گفت که یکی از دلایلی که OpenAI ChatGPT را برای عموم منتشر کرد، از بین بردن چنین سوءتفاهماتی است. او گفت که شرکت بهروزرسانی سیستم را در پاسخ به بازخورد ادامه میدهد و هرچه بازخورد بیشتری دریافت کند، ChatGPT بهتر خواهد شد. ChatGPT همچنین میتواند با اتصال به دادههای قابل اعتمادتر هوشمندتر شود – در حال حاضر به اینترنت یا هیچ منبع دیگری از حقیقت متصل نیست و کل پایگاه دانش آن در اواخر سال 2021، زمانی که آخرین مدل زبان OpenAI آموزش داده شد، به پایان میرسد.
در این میان، بهترین ویژگی ChatGPT، فروتنی آن است. یک روز بعدازظهر که از یادآوریهای مداوم آن مبنی بر اینکه ممکن است پاسخهای آن اشتباه باشد خسته شده بودم، پرسیدم: «اگر مجبور باشم همه چیزهایی که میگویید را دوباره بررسی کنم، چه کاربردی ارائه میدهید؟ متاسفم اگر به نظر بد می رسد.»
پشیمان بود:
چنین فروتنی ChatGPT را به یک دستیار دیجیتال واقعاً متفاوت تبدیل می کند. معمولاً افراد آنلاین را نمییابید که بپذیرند ممکن است اشتباه کنند. اگر بهترین کاری که هوش مصنوعی می تواند انجام دهد این باشد که قول دهد به کار بهتر ادامه دهد، آن را قبول خواهم کرد.
ساعت کاری با فرهاد منجو
فرهاد می خواهدبا خوانندگان تلفنی چت کنید. اگر مایلید با یک ستون نویس نیویورک تایمز در مورد هر چیزی که در ذهنتان است صحبت کنید، لطفاً این فرم را پر کنید. فرهاد چند خواننده را برای تماس انتخاب می کند.