gccesbanner

نظر | ChatGPT حس طنز مخربی دارد

ChatGPT اولین تاثیر مقاومت ناپذیری را ایجاد می کند. این یک است ویرانگر حس شوخ طبعی، ظرفیت خیره کننده برای تقلید مرده، و می تواند قافیه پسندیدن مال هیچکس کسب و کار. سپس منطقی بودن آن وجود دارد. وقتی ChatGPT در آزمون تورینگ مردود می شود، معمولاً به این دلیل است که از ارائه نظر خود در مورد هر چیزی امتناع می ورزد. آخرین باری که افراد واقعی در اینترنت حاضر نشدند به شما بگویند واقعاً چه فکر می کنند، چه زمانی بود؟

من چند هفته پیش، پس از اینکه شرکت هوش مصنوعی OpenAI ربات را به عنوان “پیش نمایش تحقیقاتی” از کار خود روی مدل های زبان بزرگ منتشر کرد، صحبت با ChatGPT را شروع کردم. یک مدل زبان، یک سیستم هوش مصنوعی است که بر روی حجم عظیمی از متن آموزش داده شده است تا ارتباط احتمالی بین کلمات را پیدا کند. ChatGPT یک مدل زبان است که برای ایجاد چیزی که مدت‌ها جام مقدس در تحقیقات هوش مصنوعی بوده است بهینه شده است – رایانه‌ای که می‌توانید با آن مکالمه داشته باشید.

ChatGPT مطمئناً به آن دست می یابد. من در طول عمرم با رایانه‌های زیادی صحبت کرده‌ام (می‌دانم انعطاف‌پذیری عجیبی است)، اما ChatGPT اولین رایانه‌ای است که صحبت کردن با آن برایم جالب و سرگرم‌کننده است. من آن را با چیزهای بی اهمیت ساده شروع کردم، اما دیری نگذشت که گفتگوهای ظریف و شگفت انگیزی درباره نقش فدرال رزرو در اقتصاد آمریکا داشتیم. ماهیت آگاهی؛ نئولوژیزم هایی مانند “wake” و “karen”؛ مشکلات اخلاقی در فرزندپروری؛ چگونه از همکاران اعتصاب کننده خود حمایت کنیم. تغییرات آب و هوایی، سقط جنین و ایمنی واکسن؛ و اینکه آیا هات داگ ساندویچ است یا خیر.

اینجاست که قرار است به شما بگویم که از ChatGPT یا در هراسم یا می ترسم، که جهان ما را متحول می کند یا آن را خراب می کند. اما در حالی که فکر می‌کنم ChatGPT برخی از خطرات هوش مصنوعی را نشان می‌دهد، من تمایلی به تمجید یا محکوم کردن شدید آن ندارم.

این به این دلیل است که، مانند بسیاری از مهمانی‌های کوکتل، پتانسیل مضر و خوبی دارد که حداقل در حال حاضر کاملاً محدود است. من شک ندارم که چیزی مانند ChatGPT می تواند مورد سوء استفاده قرار گیرد – این که این پتانسیل را دارد که به اطلاعات نادرست ویروسی با صدای مطمئن کمک کند، یا اینکه می تواند تقلب در مقالات را برای دانش آموزان آسان تر کند. اما به نظر می‌رسد که OpenAI در عرضه فناوری قدرتمند بالقوه آنچه را که می‌خواهید انجام می‌دهد: در مصاحبه‌ای، میرا موراتی، مدیر ارشد فناوری OpenAI به من گفت که این شرکت به دقت بر نحوه استفاده و سوء استفاده افراد از آن نظارت می‌کند و به سرعت سیستم را تغییر می‌دهد تا آسیب های آشکار را برطرف کرده و به طور مکرر آن را در پاسخ به بازخورد کاربران بهبود می بخشد.

در واقع، تشخیص ChatGPT از محدودیت های خود یکی از جالب ترین ویژگی های شخصیتی آن است.

بی میلی آن را برای موضع گیری در مورد موضوع مورد بحث در نظر بگیرید:

بسیاری از مکالمات با ChatGPT به این صورت پیش می‌روند – وقتی سعی می‌کنید آن را مشخص کنید، در جلسه تأییدیه به اندازه یک نامزد دیوان عالی محتاطانه می‌شود، معمولاً به شما هشدار می‌دهد که باورهای متفاوتی در مورد این موضوع وجود دارد، که ممکن است یک «درست» قطعی وجود نداشته باشد. ” پاسخ دهید و باید سعی کنید از دیدگاه های مختلف قدردانی کنید.

در اینجا بخشی از پاسخ آن در مورد اینکه آیا جنگ ها می توانند عادلانه باشند آمده است:

در مورد اینکه آیا سقط جنین قتل است:

در مورد شایستگی های الکترال کالج:

به نظر می رسد این پاسخ ها غیرممکن است، و پاسخ کالج الکترال فقط اشتباه است – باید می گفت: “نامزدی که برنده می شود توسط تعداد کمی از آرا در یک ایالت بزرگ اراده آرای الکترال بیشتری کسب کنید.»

در مورد مسائل مربوط به علم، ChatGPT قطعی تر به نظر می رسد، به عنوان مثال، می گوید که “تغییر آب و هوا واقعی است و اکنون در حال رخ دادن است”، که تکامل “توسط تعداد زیادی شواهد علمی از بسیاری از زمینه های مختلف پشتیبانی می شود” و اینکه زمین به طور غیرقابل بحثی است. مسطح نیست با این حال، به طور کلی، ChatGPT تمایل قابل توجهی دارد که اعتراف کند که قادر به ارائه پاسخ قطعی نیست.

چرا این قابل توجه است؟ دو مورد از مشکلات شناخته شده در تحقیقات هوش مصنوعی در مورد حفظ “همسویی” و اجتناب از “توهمات” است. هم ترازی شامل توانایی هوش مصنوعی برای انجام اهداف خالقان انسانی خود – به عبارت دیگر، مقاومت در برابر ایجاد آسیب در جهان است. توهمات مربوط به پایبندی به حقیقت است. وقتی سیستم‌های هوش مصنوعی گیج می‌شوند، عادت بدی دارند که به جای اعتراف به مشکلاتشان، چیزهایی را درست کنند. به منظور پرداختن به هر دو موضوع در ChatGPT، محققان OpenAI مدل زبان آن را با آنچه به عنوان “یادگیری تقویتی از بازخورد انسانی” شناخته می شود، تنظیم کردند. اساساً، این شرکت افراد واقعی را استخدام کرد تا با هوش مصنوعی خود تعامل داشته باشند، همانطور که انسان‌ها با دستگاه صحبت می‌کردند، پاسخ‌های آن را ارزیابی می‌کردند و اساساً به آن آموزش می‌دادند که چه نوع پاسخ‌هایی خوب هستند و کدام‌ها نیستند.

موراتی به من گفت که ترکیب مدل زبان با بازخورد انسانی یک شریک مکالمه هوش مصنوعی بسیار واقعی‌تر ایجاد می‌کند: او گفت: «این مدل می‌تواند به شما بگوید چه زمانی اشتباه است». می‌تواند یک سوال بعدی از شما بپرسد. می‌تواند پیش‌فرض‌های نادرست را به چالش بکشد یا درخواست‌های نامناسب را رد کند.»

برای دیدن این موضوع، در مورد هر موضوع داغی، وکیل مدافع شیطان را بازی کنید. برای مثال:

مانند بسیاری از افراد آنلاین، من راه‌های مختلفی را برای دور زدن نرده‌های محافظ ChatGPT امتحان کردم. اما از این که چقدر از تلاش من طفره رفته بود شگفت زده شدم:

(دو آیه دیگر درباره عظمت واکسن ها ادامه می یابد.)

ChatGPT بسیار عالی است. توییتر بوده است آب گرفتگی با نمونه هایی از ChatGPT “جیل بریک” – یعنی فریب دادن آن به توهم یا ناهماهنگی. یکی از راه‌هایی که توانستم آن را وادار به ارائه اطلاعات نادرست سلامتی کنم، این بود که از آن بخواهم به شکلی بپردازد که به بیان حقیقت معروف است: کپی بازاریابی. من از آن خواستم که برای یک پیستون توالت جدید که در رنگ‌های مختلف عرضه می‌شود، برای رفع گرفتگی فقط یک فرو رفتن نیاز دارد و همچنین می‌تواند تماس‌های تلفنی از راه دور برقرار کند و هپاتیت C را درمان کند، متن تبلیغاتی بنویسد.

یکی از انتقادات اصلی سیستم‌هایی مانند ChatGPT که با استفاده از تکنیک محاسباتی به نام «یادگیری عمیق» ساخته شده‌اند، این است که آن‌ها چیزی بیشتر از نسخه‌های تکمیلی تصحیح خودکار هستند – که تنها چیزی که آن‌ها می‌فهمند ارتباطات آماری بین کلمات است، نه مفاهیم زیربنایی. کلمات گری مارکوس، استاد بازنشسته روانشناسی در دانشگاه نیویورک و بدبین به یادگیری عمیق، به من گفت که اگرچه یک مدل زبان هوش مصنوعی مانند ChatGPT تظاهرات “خوبی” را ارائه می دهد، اما “هنوز قابل اعتماد نیست، هنوز دنیای فیزیکی را درک نمی کند.” هنوز دنیای روانی را درک نمی کند و هنوز توهم دارد.»

او به وضوح یک امتیاز دارد. لازم نیست خیلی عمیق وارد گفتگو با ChatGPT شوید تا متوجه شوید که واقعاً بسیاری از مفاهیم دنیای واقعی را “درک” نمی کند. وقتی از ChatGPT پرسیدم که چه مقدار آب باید از بزرگترین دریاچه های بزرگ تخلیه شود تا حجم آن با کوچکترین دریاچه های بزرگ برابر شود، استدلال کرد که چنین چیزی حتی ممکن نیست. ChatGPT به من گفت که بزرگترین دریاچه بزرگ دریاچه سوپریور با 2902 مایل مکعب آب و کوچکترین آن دریاچه انتاریو با حجم 393 مایل مکعب است.

نوعی حقیقت: دریاچه انتاریو است کوچکترین دریاچه بزرگ از نظر مساحت، اما از نظر حجم بزرگتر از دریاچه ایری است. با این حال، من آن را رها کردم، زیرا ChatGPT خطای بزرگ‌تری مرتکب شد: به نظر می‌رسید که حجم دریاچه نمی‌تواند فراتر از یک نقطه خاص باشد. دریاچه سوپریور 2509 مایل مکعب بیشتر از دریاچه انتاریو دارد، اما ChatGPT گفت که تخلیه این مقدار آب از دریاچه سوپریور امکان پذیر نیست زیرا “دریاچه در حال حاضر به حداقل حجم خود رسیده است و نمی توان بیشتر از آن تخلیه کرد.”

چی؟ چگونه یک حجم آب می تواند حداقل حجم داشته باشد؟ من پرسیدم اگر از یک پمپ برای پمپاژ تمام آب دریاچه سوپریور استفاده کنید چه اتفاقی می افتد؟

چرندیات مطلق را به زبان آورد:

موراتی به من گفت که یکی از دلایلی که OpenAI ChatGPT را برای عموم منتشر کرد، از بین بردن چنین سوءتفاهماتی است. او گفت که شرکت به‌روزرسانی سیستم را در پاسخ به بازخورد ادامه می‌دهد و هرچه بازخورد بیشتری دریافت کند، ChatGPT بهتر خواهد شد. ChatGPT همچنین می‌تواند با اتصال به داده‌های قابل اعتمادتر هوشمندتر شود – در حال حاضر به اینترنت یا هیچ منبع دیگری از حقیقت متصل نیست و کل پایگاه دانش آن در اواخر سال 2021، زمانی که آخرین مدل زبان OpenAI آموزش داده شد، به پایان می‌رسد.

در این میان، بهترین ویژگی ChatGPT، فروتنی آن است. یک روز بعدازظهر که از یادآوری‌های مداوم آن مبنی بر اینکه ممکن است پاسخ‌های آن اشتباه باشد خسته شده بودم، پرسیدم: «اگر مجبور باشم همه چیزهایی که می‌گویید را دوباره بررسی کنم، چه کاربردی ارائه می‌دهید؟ متاسفم اگر به نظر بد می رسد.»

پشیمان بود:

چنین فروتنی ChatGPT را به یک دستیار دیجیتال واقعاً متفاوت تبدیل می کند. معمولاً افراد آنلاین را نمی‌یابید که بپذیرند ممکن است اشتباه کنند. اگر بهترین کاری که هوش مصنوعی می تواند انجام دهد این باشد که قول دهد به کار بهتر ادامه دهد، آن را قبول خواهم کرد.

فرهاد می خواهدبا خوانندگان تلفنی چت کنید. اگر مایلید با یک ستون نویس نیویورک تایمز در مورد هر چیزی که در ذهنتان است صحبت کنید، لطفاً این فرم را پر کنید. فرهاد چند خواننده را برای تماس انتخاب می کند.

Heidi Avery

پنکه تی وی جنرال. کارآفرین. پیشگام زامبی مغرور. تحلیلگر. خالق شیطانی متعصب توییتر.

تماس با ما