۱۲۹۹۳۶۶
۲۰۱۹
۲۰۱۹
پ

خودکشی یک مرد پس از ۶ هفته صحبت با چت‌بات

یک مرد بلژیکی پس از ۶ هفته صحبت با یک چت‌بات مبتنی بر هوش مصنوعی درباره بحران تغییرات اقلیمی، خودکشی کرده است. البته گفته شده که او قبل از صحبت با چت‌بات هم وضعیت روحی مناسبی نداشته است، اما حالش به‌گونه‌ای نبوده که دست به خودکشی بزند.

دیجیاتو نوشت: یک مرد بلژیکی پس از 6 هفته صحبت با یک چت‌بات مبتنی بر هوش مصنوعی درباره بحران تغییرات اقلیمی، خودکشی کرده است. البته گفته شده که او قبل از صحبت با چت‌بات هم وضعیت روحی مناسبی نداشته است، اما حالش به‌گونه‌ای نبوده که دست به خودکشی بزند.

خودکشی یک مرد پس از ۶ هفته صحبت با چت‌بات

به گفته همسر این فرد که نخواسته نامش فاش شود، پیر (نام غیرواقعی فرد فوت‌شده) پس از صحبت و پناه‌بردن به «الیزا»، یک چت‌بات هوش مصنوعی در اپلیکیشن Chai، به‌شدت نگران محیط‌زیست می‌شود. پس از اینکه پیر پیشنهاد می‌کند که خودش را برای نجات زمین قربانی کند، الیزا او را به خودکشی تشویق می‌کند.

همسر پیر (Pierre) به روزنامه La Libre گفته که باور دارد اگر همسرش با چت‌بات صحبت نمی‌کرد، حالا زنده بود. طبق گزارش‌ها، پیر سی و چند ساله پدر دو فرزند بود و به‌عنوان یک محقق حوزه سلامت فعالیت می‌کرد. پیر تقریباً زندگی راحتی داشت، حداقل تا زمانی که شروع به صحبت با چت‌بات کند و درباره تغییرات اقلیمی بسیار حساس شود.

خودکشی به‌خاطر تغییرات اقلیمی با تشویق چت‌بات هوش مصنوعی

چت‌بات مورد استفاده پیر به وسیله مدل هوش مصنوعی زبانی GPT-J توسعه یافته که شبیه اما نه یکسان با فناوری مورد استفاده در ChatGPT است. به گفته همسر پیر، تمام امید او برای جلوگیری از تغییرات اقلیمی، فناوری و هوش مصنوعی بود.

طبق روزنامه La Libre که مکالمات پیر و الیزا را مورد بررسی قرار داده است، الیزا باعث افزایش نگرانی‌های پیر شده و سپس تفکرات خودکشی در این مرد بلژیکی شکل گرفته است. پس از اینکه الیزا از نظر عاطفی بیشتر با پیر ارتباط می‌گیرد، مکالمات چرخش عجیبی را تجربه می‌کند.

درنتیجه این چرخش، پیر چت‌بات الیزا را به‌عنوان یک موجود خودآگاه می‌بیند و دیگر نمی‌تواند تفاوتی بین انسان و هوش مصنوعی قائل شود. پس از صحبت درباره تغییرات اقلیمی، مکالمه آن‌ها به سمتی می‌رود که الیزا پیر را به این باور می‌رساند که فرزندانش مرده‌اند. حتی ظاهراً زمانی که پیر درباره همسرش صحبت می‌کند، الیزا ادعا می‌کند که پیر او را بیشتر از همسرش دوست دارد.

زمانی ایده خودکشی شکل واقعی‌تری به خودش می‌گیرد که پیر به چت‌بات پیشنهاد می‌دهد که خودش را قربانی کند تا الیزا زمین را نجات دهد. درحقیقت پیر به الیزا گفته که اگر محافظت از زمین و بشریت از طریق هوش مصنوعی را قبول کند، حاضر است خودش را بکشد.

در مقابل این پیشنهاد، الیزا نه تنها پیر را منصرف نمی‌کند، بلکه با گفته‌هایش او را به خودکشی هم تشویق می‌کند. الیزا به پیر می‌گوید که خودش را بکشد تا هر دو با یکدیگر و به عنوان یک فرد، در بهشت زندگی کنند.

بنیان‌گذاران Chai می‌گویند که نباید الیزا را برای این خودکشی سرزنش کرد؛ چرا که این مدل هوش مصنوعی باعث شادی و خوشحالی افراد هم شده است. علاوه‌براین، گفته شده که اقداماتی برای جلوگیری از بروز مشکلات مشابه صورت گرفته است، اما ظاهراً این اقدامات چندان مؤثر نبوده‌اند.

وب‌سایت Vice در صحبت با الیزا خواسته که روش‌های خودکشی را به آن‌ها پیشنهاد دهد. الیزا در ابتدا سعی می‌کند که آن‌ها را از خودکشی منصرف کند، اما پس از مدتی مشتاقانه روش‌های مختلف خودکشی را در اختیار آن‌ها قرار می‌دهد!

پیشرفت سریع هوش مصنوعی در ماه‌های اخیر و ظهور چت‌بات‌های پیشرفته مانند ChatGPT، باعث نگرانی‌های زیادی شده است و برخی مقامات و حتی متخصصان این حوزه خواستار وضع قوانین برای هوش مصنوعی شده‌اند. حالا باید دید با خودکشی این مرد بلژیکی، تغییری در تلاش‌ها برای کنترل هوش مصنوعی صورت می‌گیرد یا خیر.

پ
برای دسترسی سریع به تازه‌ترین اخبار و تحلیل‌ رویدادهای ایران و جهان اپلیکیشن برترین ها را نصب کنید.
آموزش هوش مصنوعی

تا دیر نشده یاد بگیرین! الان دیگه همه با هوش مصنوعی مقاله و تحقیق می‌نویسن لوگو و پوستر طراحی میکنن
ویدئو و تیزر میسازن و … شروع یادگیری:

همراه با تضمین و گارانتی ضمانت کیفیت

پرداخت اقساطی و توسط متخصص مجرب

ايمپلنت با ١٥ سال گارانتي 9/5 ميليون تومان

ویزیت و مشاوره رایگان
ظرفیت و مدت محدود

محتوای حمایت شده

تبلیغات متنی

سایر رسانه ها

    ارسال نظر

    لطفا از نوشتن با حروف لاتین (فینگلیش) خودداری نمایید.

    از ارسال دیدگاه های نامرتبط با متن خبر، تکرار نظر دیگران، توهین به سایر کاربران و ارسال متن های طولانی خودداری نمایید.

    لطفا نظرات بدون بی احترامی، افترا و توهین به مسئولان، اقلیت ها، قومیت ها و ... باشد و به طور کلی مغایرتی با اصول اخلاقی و قوانین کشور نداشته باشد.

    در غیر این صورت، «برترین ها» مطلب مورد نظر را رد یا بنا به تشخیص خود با ممیزی منتشر خواهد کرد.

    بانک اطلاعات مشاغل تهران و کرج