اسنپ پی_استیکی داخلی
adexo3
۱۰۹۰۱۷۲
۵۰۰۹
۵۰۰۹
پ

آشکارساز‌های «دیپ‌فیک» هم گول می‌خورند

دانشمندان با آزمایش پیشرفته‌ترین آشکارسازهای فناوری "دیپ‌فیک"(deepfake) به معنای "جعل عمیق" ثابت کردند که می‌توان آنها را نیز فریب داد.

خبرگزاری ایسنا: دانشمندان با آزمایش پیشرفته‌ترین آشکارسازهای فناوری "دیپ‌فیک"(deepfake) به معنای "جعل عمیق" ثابت کردند که می‌توان آنها را نیز فریب داد.

به نقل از انگجت، دانشگاه‌ها، سازمان‌ها و غول‌های فناوری مانند مایکروسافت و فیسبوک با کار بر روی ابزارهایی که بتوانند "جعل عمیق" را تشخیص دهند، در تلاش هستند تا از استفاده از آن برای گسترش اخبار مخرب و اطلاعات غلط جلوگیری کنند.

اکنون گروهی از دانشمندان علوم رایانه از دانشگاه "سن دیگو" هشدار داده‌اند که آشکارسازهای "جعل عمیق" هنوز هم با وجود این ابزارها قابل فریب دادن هستند.

آشکارساز‌های «دیپ‌فیک» هم گول می‌خورند

این تیم در کنفرانس بینش رایانه ای "WACV 2021" که به صورت آنلاین برگزار شد، با درج ورودی‌هایی در هر فریم ویدیویی نشان داد که چگونه می‌توان ابزارهای شناسایی "جعل عمیق" را فریب داد.

دانشمندان در اطلاعیه خود توضیح دادند که این ورودی‌ها تصاویر دستکاری شده‌ای هستند که می‌توانند باعث اشتباه سیستم‌های هوش مصنوعی شوند. اغلب آشکارسازها با ردیابی چهره در فیلم‌ها و ارسال داده‌های برشی از چهره به یک شبکه عصبی کار می‌کنند. فیلم‌های جعل عمیق قانع کننده هستند، زیرا با یک کپی از چهره یک شخص واقعی دستکاری شده‌اند، اما سیستم ردیاب یا آشکارساز می‌تواند با مشاهده عناصری مانند پلک زدن که در نسخه جعل عمیق واقعی به نظر نمی‌رسند، صحت ویدیو را تشخیص دهد.

اما دانشمندان دریافتند که با اعمال ورودی‌هایی از چهره و قرار دادن آنها در هر فریم از فیلم می‌توان حتی پیشرفته‌ترین آشکارسازهای جعل عمیق را نیز فریب داد. به علاوه، روشی که آنها ابداع کردند، حتی برای فیلم‌های فشرده نیز کارایی دارد.

بنابراین توسعه دهندگان چگونه می‌توانند آشکارسازهایی ایجاد کنند که قابل فریب دادن نباشند؟ دانشمندان توصیه می‌کنند از "آموزش متخاصم" استفاده شود. در این حالت یک نمونه جعلی تطبیقی ​​مرتباً نسخه جعلی ایجاد می‌کند که می‌تواند آشکارساز را آموزش دهد تا آشکارساز بتواند در تشخیص تصاویر غیر معتبر پیشرفت کند.

محققان در مقاله خود نوشتند: برای استفاده از این آشکارسازهای کاربردی جعل عمیق، ما استدلال می‌کنیم که ارزیابی سیستم در برابر یک دشمن تطبیقی ​​که از همه چیز آگاه است و قصد دارد این دفاع‌ها را خنثی کند، ضروری است.

پ
برای دسترسی سریع به تازه‌ترین اخبار و تحلیل‌ رویدادهای ایران و جهان اپلیکیشن برترین ها را نصب کنید.
آموزش هوش مصنوعی

تا دیر نشده یاد بگیرین! الان دیگه همه با هوش مصنوعی مقاله و تحقیق می‌نویسن لوگو و پوستر طراحی میکنن
ویدئو و تیزر میسازن و … شروع یادگیری:

همراه با تضمین و گارانتی ضمانت کیفیت

پرداخت اقساطی و توسط متخصص مجرب

ايمپلنت با ١٥ سال گارانتي 9/5 ميليون تومان

ویزیت و مشاوره رایگان
ظرفیت و مدت محدود

محتوای حمایت شده

تبلیغات متنی

سایر رسانه ها

    ارسال نظر

    لطفا از نوشتن با حروف لاتین (فینگلیش) خودداری نمایید.

    از ارسال دیدگاه های نامرتبط با متن خبر، تکرار نظر دیگران، توهین به سایر کاربران و ارسال متن های طولانی خودداری نمایید.

    لطفا نظرات بدون بی احترامی، افترا و توهین به مسئولان، اقلیت ها، قومیت ها و ... باشد و به طور کلی مغایرتی با اصول اخلاقی و قوانین کشور نداشته باشد.

    در غیر این صورت، «برترین ها» مطلب مورد نظر را رد یا بنا به تشخیص خود با ممیزی منتشر خواهد کرد.

    بانک اطلاعات مشاغل تهران و کرج