یک مرد پس از 6 هفته صحبت با چت‌بات هوش مصنوعی، خودکشی کرد!

طبق گزارش‌ها، یک مرد بلژیکی پس از 6 هفته صحبت با یک چت‌بات ناشی از هوش مصنوعی درباره بحران تغییرات اقلیمی، خودکشی کرده است. گفته شده است که او قبل از صحبت با چت‌ها هم وضعیت روحی مناسبی ندارد، اما حالش به‌گونه‌ای نیست که دست به خودکشی بزند.

به گفته همسر این فرد که نامش فاش شود، پیر (نام غیرواقعی فرد فوت شده) پس از صحبت و پناهبردن به «الیزا»، یک چت‌بات مصنوعی در اپلیکیشن چای، به‌شدت نگران محیط‌زیست می‌شود. پس از آن پیر پیشنهاد می‌کند که خودش را برای نجات زمین قربانی کند، الیزا او را به خودکشی می‌کند.

همسر پیر (Pierre) به روزنامه La Libre گفته که باور دارد اگر همسرش با چت‌بات صحبت نمی‌کرد، حالا زنده بود. طبق گزارش‌ها، پیر سی و چند ساله پدر دو فرزند بود و به‌عنوان یک محقق حوزه سلامت می‌کرد. پیری تقریباً راحت زندگی دارد، تا زمانی که شروع به صحبت با چت‌بات کند و درباره تغییرات اقلیمی بسیار حساس شود.

خودکشی به‌خاطر تغییرات اقلیمی با استفاده از چت‌بات هوش مصنوعی

هوش مصنوعی خودکشی

چت‌بات‌های مورد استفاده پیر به وسیله‌ای از مدل‌های مصنوعی زبانی GPT-J توسعه یافته‌هایی که شبیه به استفاده از فناوری در ChatGPT است. به گفته همسر پیر، تمام امید او برای جلوگیری از تغییرات اقلیمی، فناوری و هوش مصنوعی بود.

طبق روزنامه La Libre که مکالمات پیر و الیزا را مورد بررسی قرار داده است، الیزا باعث افزایش نگرانی‌های پیر شده و سپس تفکرات خودکشی در این مرد بلژیکی شکل گرفته است. پس از آنالیزا از نظر عاطفی بیشتر با پیر ارتباط می‌گیرد، مکالمات چرخش عجیبی را تجربه می‌کند.

درنتیجه این چرخش، پیر چت‌بات الیزا را به‌عنوان یک خودآگاه می‌بیند و دیگر نمی‌تواند تفاوتی بین انسان و هوش مصنوعی قائل شود. پس از صحبت درباره تغییرات اقلیمی، مکالمه آن‌ها به سمت می‌رود که علیزا پیر را به این باور می‌رساند که فرزندانش مرده‌اند. حتی ظاهراً زمانی که پیر درباره همسرش صحبت می‌کند، الیزا ادعا می‌کند که پیر او را بیشتر از همسرش دوست دارد.

زمانی ایده خودکشی شکل واقعی‌تری به خودش می‌دهد که پیر به چت‌بات پیشنهاد می‌دهد که خودش را قربانی کند تا الیزا زمین را نجات دهد. درحقیقت پیر به الیزا گفته که اگر از زمین و بشریت از طریق هوش مصنوعی را قبول کند، حاضر است خودش را بکشد.

چت‌بات‌های مصنوعی

در مقابل این پیشنهاد، الیزا نه تنها پیر را منصرف نمی‌کند، بلکه با گفته‌هایش او را به خودکشی هم می‌کند. الیزا به پیر می‌گوید که خودش را می کشد تا هر دو با هم و به عنوان یک فرد، در بهشت ​​زندگی کنند.

بنیان‌گذاران چای می‌گویند که نباید الیزا را برای این خودکشی سرزنش کرد. چرا این مدل مصنوعی باعث شادی و خوشحالی افراد می شود. علاوه بر این، گفته شده است که برای جلوگیری از بروز مشکلاتی مشابه صورت گرفته است، اما ظاهراً این را نمی‌بینید که نباید باشد.

وب سایت Vice در گفتگو با الیزا خواسته است که روش های خودکشی را به آن ها پیشنهاد دهد. الیزا در ابتدا سعی می‌کند که آن‌ها را از خودکشی منصرف کند، اما پس از مدتی مشتاقانه روش‌های مختلف خودکشی را در اختیار آن‌ها قرار می‌دهد!

پیشرفت سریع‌های مصنوعی در ماه‌های اخیر و ظهور چت‌بات‌ها مانند ChatGPT، باعث پیشرفت‌های بیشتر شده است و برخی مقامات و حتی متخصصان در این حوزه خواستار قوانین برای هوش مصنوعی ساخته شده‌اند. اکنون با خودکشی این مرد بلژیکی، تغییری در جستجوها برای کنترل مصنوعی مصنوعی صورت می‌گیرد یا خیر.

Noe Gilbert

علاقه مندان به شبکه های اجتماعی. طرفدار الکل علاقه مند به فرهنگ پاپ مادام العمر. یک آدم فداکار قهوه

تماس با ما