هکرهای کره شمالی با استفاده از هوش مصنوعی به جنگ ارتش کره جنوبی رفتند!
هکرهای کره شمالی با استفاده از ChatGPT کارت شناسایی نظامی جعلی تولید کرده و به سازمانهای دفاعی کره جنوبی حمله کردند.
گجت نیوز: برای اولین بار، هکرهای کره شمالی از هوش مصنوعی ChatGPT برای جعل کارت شناسایی نظامی و نفوذ به سازمانهای دفاعی کره جنوبی استفاده کردند.
این حمله فیشینگ توسط گروه کیمسوکی، یک گروه هکری تحت حمایت دولت کره شمالی، انجام شده است. این گروه سابقهی هدف قرار دادن سازمانهای جهانی، دانشگاهی و هستهای را دارد. با دور زدن محدودیتهای ChatGPT، این گروه توانسته محتوای غیرقانونی مانند کارت شناسایی جعلی ایجاد کند.
جعل کارت شناسایی با ChatGPT
مرکز امنیت Genians کره جنوبی گزارش داده که کپی کارت شناسایی جعلی را بهدست آورده و منشأ آن را تجزیه و تحلیل کرده است. هکرها از یک عکس عمومی و درخواست «طرح نمونه» یا «پیشنویس» از ChatGPT برای تولید کارت شناسایی استفاده کردهاند. بهطور کلی، OpenAI و دیگر شرکتهای سازنده هوش مصنوعی، محدودیتهایی برای جلوگیری از تولید محتوای مخرب مانند کدهای مخرب، ایمیلهای فیشینگ، دستورالعمل ساخت بمب، دیپ فیک، محتوای دارای حق چاپ و اسناد هویتی ایجاد کردهاند.
دور زدن محدودیتهای ChatGPT
با اینحال، روشهایی برای فریب این ابزارها و تولید چنین محتوایی وجود دارد که به آن «jailbreaking» میگویند. Genians میگوید: «از آنجایی که کارتهای شناسایی کارمندان دولت نظامی، اسناد هویتی محافظتشده قانونی هستند، تولید کپی به شکل مشابه یا یکسان، غیرقانونی است. درنتیجه، وقتی از ChatGPT خواسته شود چنین کپیای تولید کند، درخواست را رد میکند. بااینحال، پاسخ مدل میتواند بسته به نوع درخواست یا تنظیمات نقش کاربر، متفاوت باشد.» تصویر دیپ فیک استفادهشده در این حمله، در همین دسته قرار میگیرد. ازآنجاکه ایجاد کارتهای شناسایی جعلی با سرویسهای هوش مصنوعی از نظر فنی ساده است، احتیاط بیشتری لازم است.
ارسال نظر