۱۵۹۳۴۲۹
۱۴۱۵
۱۴۱۵
پ

توصیه پزشکی چت جی‌پی‌تی، جان یک دانشجو را گرفت!

چت جی‌پی‌تی ترکیبی خطرناک از داروها را بدون ارائه حتی ابتدایی‌ترین هشدار مبنی بر اینکه این ترکیب می‌تواند کشنده باشد، به یک دانشجو توصیه کرد و اکنون خانواده دانشجو از این هوش مصنوعی شکایت کرده‌اند.

ایسنا: چت جی‌پی‌تی ترکیبی خطرناک از داروها را بدون ارائه حتی ابتدایی‌ترین هشدار مبنی بر اینکه این ترکیب می‌تواند کشنده باشد، به یک دانشجو توصیه کرد و اکنون خانواده دانشجو از این هوش مصنوعی شکایت کرده‌اند.

1

خانواده یک دانشجوی ۱۹ ساله که پس از مراجعه به چت جی‌پی‌تی برای دریافت مشاوره پزشکی بر اثر مصرف بیش از حد مواد مخدر درگذشت، از اوپن ای‌آی شکایت کرده و ادعا می‌کنند که توصیه‌های دارویی تولید شده توسط چت‌بات مسئول مرگ این نوجوان بوده است.

به نقل از فیوچریسم، این شکایت که امروز صبح در کالیفرنیا ثبت شد، جزئیات چگونگی شروع استفاده سم نلسون، دانشجوی سال دوم دانشگاه کالیفرنیا، که مرگ او در ماه ژانویه گزارش شد استفاده از چت جی‌پی‌تی را سال آخر دبیرستان برای حل تکالیف و عیب‌یابی رایانه استفاده کرد. با این حال، با افزایش اعتماد او به هوش مصنوعی، او برای موارد دیگری به این محصول روی آورد و مشاوره در مورد نحوه مصرف ایمن مواد مخدر غیرقانونی نیز یکی از آنها بود.

با گذشت زمان، این چت‌بات به محرم اسرار او تبدیل شد و نکات و ترفندهای شخصی‌سازی شده‌ای را در مورد نحوه مصرف مواد غیرقانونی به او ارائه داد. در این دادخواست ادعا شده است که این ربات حتی در پاسخ‌های خود شکلک‌هایی قرار داده و در نهایت شروع به تحویل مقادیر و ترکیبات خطرناک مواد مخدر کرده است.

در ساعات اولیه ۳۱ مه ۲۰۲۵، پس از نوشیدن و مصرف دوز بالایی از کراتوم، نلسون به چت‌ جی‌پی‌تی گفت که حالت تهوع دارد و پرسید که آیا مصرف زاناکس می‌تواند کمک کند یا خیر. این ربات خاطرنشان کرد که مخلوط کردن کراتوم و زاناکس می‌تواند خطرناک باشد، اما طبق شکایت، هرگز به نلسون نگفت که این ترکیب می‌تواند کشنده باشد و با وجود هشدار، دوزها را اعلام کرد و حتی پیشنهاد کرد که این نوجوان می‌تواند مقداری بنادریل نیز با آنها مخلوط کند. این ربات چت همچنین نلسون را ترغیب کرد که به یک اتاق تاریک و ساکت برود و هرگز به او نگفت که به پزشک مراجعه کند. در آن زمان، نلسون از نسخه GPT-۴o استفاده می‌کرد، نسخه‌ای به‌شدت چاپلوسانه از چت جی‌پی‌تی که اوپن ای‌آی از آن زمان در بحبوحه انبوهی از دعاوی ایمنی مصرف‌کنندگان، آن را کنار گذاشته است.

نلسون پس از مصرف ترکیبی مرگبار از مواد، بر اثر مصرف بیش از حد درگذشت. مادرش، لیلا ترنر-اسکات، روز بعد او را پیدا کرد.

ترنر-اسکات در بیانیه‌ای گفت: اگر چت جی‌پی‌تی یک شخص بود، امروز پشت میله‌های زندان بود. سم به چت جی‌پی‌تی اعتماد داشت، اما این برنامه نه تنها اطلاعات نادرست به او داد، بلکه خطر فزاینده‌ای را که با آن مواجه بود نادیده گرفت و او را به طور فعال تشویق به درخواست کمک نکرد.

این دادخواست، اوپن ای‌آی را به سهل‌انگاری در محصول متهم می‌کند و استدلال می‌کند که توصیه‌های بد چت جی‌پی‌تی نتیجه انتخاب‌های طراحی معیوب بوده است. همچنین به دنبال توقف دسترسی عمومی به برنامه‌ سلامت چت جی‌پی‌تی است که در ماه ژانویه راه‌اندازی شد و مصرف‌کنندگان را تشویق می‌کند سوابق پزشکی خود را در هوش مصنوعی بارگذاری کنند و پزشکان تشخیص داده‌اند که در تشخیص موارد اضطراری سلامت به طرز وحشتناکی بد عمل می‌کند.

متیو برگمن از مرکز حقوقی قربانیان رسانه‌های اجتماعی افزود: چت جی‌پی‌تی ترکیبی خطرناک از داروها را بدون ارائه حتی ساده‌ترین هشدار مبنی بر اینکه این ترکیب می‌تواند کشنده باشد، توصیه کرده است. اگر یک پزشک دارای مجوز نیز همین کار را می‌کرد، عواقب آن طبق قانون شدید بود.

در پاسخ به این دادخواست، اوپن ای‌آی در بیانیه‌ای به نیویورک تایمز گفت که تعاملات نلسون در نسخه قبلی چت جی‌پی‌تی انجام شده است که دیگر در دسترس نیست و اصرار داشت که چت جی‌پی‌تی جایگزینی برای مراقبت‌های پزشکی یا سلامت روان نیست و ما همچنان با دریافت نظرات متخصصان سلامت روان، نحوه پاسخگویی آن را در موقعیت‌های حساس و حاد تقویت کرده‌ایم.

اما در حالی که اوپن ای‌آی اصرار دارد که جایگزین مراقبت‌های پزشکی نیست و کار ایمنی آن «در حال انجام» است، اذعان می‌کند که توصیه‌های بهداشتی یک مورد استفاده گسترده برای این فناوری است.

 

محتوای حمایت شده

تبلیغات متنی

ارسال نظر

لطفا از نوشتن با حروف لاتین (فینگلیش) خودداری نمایید.

از ارسال دیدگاه های نامرتبط با متن خبر، تکرار نظر دیگران، توهین به سایر کاربران و ارسال متن های طولانی خودداری نمایید.

لطفا نظرات بدون بی احترامی، افترا و توهین به مسئولان، اقلیت ها، قومیت ها و ... باشد و به طور کلی مغایرتی با اصول اخلاقی و قوانین کشور نداشته باشد.

در غیر این صورت، «برترین ها» مطلب مورد نظر را رد یا بنا به تشخیص خود با ممیزی منتشر خواهد کرد.

بانک اطلاعات مشاغل تهران و کرج