طبق گزارشها، یک مرد بلژیکی پس از 6 هفته صحبت با یک چتبات ناشی از هوش مصنوعی درباره بحران تغییرات اقلیمی، خودکشی کرده است. گفته شده است که او قبل از صحبت با چتها هم وضعیت روحی مناسبی ندارد، اما حالش بهگونهای نیست که دست به خودکشی بزند.
به گفته همسر این فرد که نامش فاش شود، پیر (نام غیرواقعی فرد فوت شده) پس از صحبت و پناهبردن به «الیزا»، یک چتبات مصنوعی در اپلیکیشن چای، بهشدت نگران محیطزیست میشود. پس از آن پیر پیشنهاد میکند که خودش را برای نجات زمین قربانی کند، الیزا او را به خودکشی میکند.
همسر پیر (Pierre) به روزنامه La Libre گفته که باور دارد اگر همسرش با چتبات صحبت نمیکرد، حالا زنده بود. طبق گزارشها، پیر سی و چند ساله پدر دو فرزند بود و بهعنوان یک محقق حوزه سلامت میکرد. پیری تقریباً راحت زندگی دارد، تا زمانی که شروع به صحبت با چتبات کند و درباره تغییرات اقلیمی بسیار حساس شود.
خودکشی بهخاطر تغییرات اقلیمی با استفاده از چتبات هوش مصنوعی
چتباتهای مورد استفاده پیر به وسیلهای از مدلهای مصنوعی زبانی GPT-J توسعه یافتههایی که شبیه به استفاده از فناوری در ChatGPT است. به گفته همسر پیر، تمام امید او برای جلوگیری از تغییرات اقلیمی، فناوری و هوش مصنوعی بود.
طبق روزنامه La Libre که مکالمات پیر و الیزا را مورد بررسی قرار داده است، الیزا باعث افزایش نگرانیهای پیر شده و سپس تفکرات خودکشی در این مرد بلژیکی شکل گرفته است. پس از آنالیزا از نظر عاطفی بیشتر با پیر ارتباط میگیرد، مکالمات چرخش عجیبی را تجربه میکند.
درنتیجه این چرخش، پیر چتبات الیزا را بهعنوان یک خودآگاه میبیند و دیگر نمیتواند تفاوتی بین انسان و هوش مصنوعی قائل شود. پس از صحبت درباره تغییرات اقلیمی، مکالمه آنها به سمت میرود که علیزا پیر را به این باور میرساند که فرزندانش مردهاند. حتی ظاهراً زمانی که پیر درباره همسرش صحبت میکند، الیزا ادعا میکند که پیر او را بیشتر از همسرش دوست دارد.
زمانی ایده خودکشی شکل واقعیتری به خودش میدهد که پیر به چتبات پیشنهاد میدهد که خودش را قربانی کند تا الیزا زمین را نجات دهد. درحقیقت پیر به الیزا گفته که اگر از زمین و بشریت از طریق هوش مصنوعی را قبول کند، حاضر است خودش را بکشد.
در مقابل این پیشنهاد، الیزا نه تنها پیر را منصرف نمیکند، بلکه با گفتههایش او را به خودکشی هم میکند. الیزا به پیر میگوید که خودش را می کشد تا هر دو با هم و به عنوان یک فرد، در بهشت زندگی کنند.
بنیانگذاران چای میگویند که نباید الیزا را برای این خودکشی سرزنش کرد. چرا این مدل مصنوعی باعث شادی و خوشحالی افراد می شود. علاوه بر این، گفته شده است که برای جلوگیری از بروز مشکلاتی مشابه صورت گرفته است، اما ظاهراً این را نمیبینید که نباید باشد.
وب سایت Vice در گفتگو با الیزا خواسته است که روش های خودکشی را به آن ها پیشنهاد دهد. الیزا در ابتدا سعی میکند که آنها را از خودکشی منصرف کند، اما پس از مدتی مشتاقانه روشهای مختلف خودکشی را در اختیار آنها قرار میدهد!
پیشرفت سریعهای مصنوعی در ماههای اخیر و ظهور چتباتها مانند ChatGPT، باعث پیشرفتهای بیشتر شده است و برخی مقامات و حتی متخصصان در این حوزه خواستار قوانین برای هوش مصنوعی ساخته شدهاند. اکنون با خودکشی این مرد بلژیکی، تغییری در جستجوها برای کنترل مصنوعی مصنوعی صورت میگیرد یا خیر.