سرگرمی

چهره‌ جعلی هوش مصنوعی، قابل اعتمادتر از چهره انسان – تی ام گیم

  • چهره‌ جعلی هوش مصنوعی، قابل اعتمادتر از چهره انسان – تی ام گیم

    یک پژوهش جدید حاکی از آن است که به نظر می‌رسد چهره‌های جعلی ایجاد شده با هوش مصنوعی برای انسان قابل‌ اعتمادتر از صورت‌های واقعی است.

    این فناوری که به نام «جعل عمیق» شناخته می‌شود، یک روش یادگیری الگوریتمی آموزش کامپیوتر است که در آن از هوش مصنوعی و آموزش عمیق برای ایجاد چهره‌هایی که به نظر واقعی می‌آیند، استفاده می‌شود.

    گاه حتی می‌توان از این روش برای القای پیام‌هایی ازجمله اهانت‌های جعلی باراک اوباما علیه دونالد ترامپ یا دست‌کاری ویدیوی سخنرانی ریچارد نیکسون برای آپولوی ۱۱ استفاده کرد که هرگز گفته نشده است.

    پژوهشگران دست به آزمایشی زدند که در آن شرکت‌ کنندگان چهره‌های ایجادشده با الگوریتم «استایل گن ۲» (StyleGAN2) را در دو رده واقعی و جعلی قرار دادند. شرکت‌کنندگان در این آزمایش ۴۸ درصد موفقیت داشتند که کمی بیشتر از بالا انداختن یک سکه [بازی شیر یا خط] بود.

    در دومین آزمایش به شرکت‌ کنندگان آموزش داده شد که چگونه با استفاده از همان رشته داده‌ها چهره‌های جعلی عمیق را ردیابی کنند، اما در این مورد صحت عمل آن‌ها با شاخص ۵۹ درصد، تنها قدری افزایش یافت.

    پژوهش دانشگاه آکسفورد، دانشگاه براون و انجمن سلطنتی نیز این نتیجه‌گیری را تایید کرد و نشان می‌دهد که اغلب مردم حتی زمانی که به آن‌ها اطلاع داده می‌شود که ممکن است محتوای آنچه نگاه می‌کنند ازنظر دیجیتالی دست‌کاری شده باشد، نمی‌توانند بگویند آیا یک ویدیوی جعل عمیق را تماشا می‌کنند یا نه.

    پژوهشگران سپس قابلیت اعتماد کردن را در کمک به تشخیص چهره‌ها و چهره واقعی انسان مورد آزمایش قرار دادند.

    دکتر سوفی نایتینگِیل از دانشگاه لنکستر و پرفسور هنی فرید از دانشگاه برکلی کالیفرنیا در نشریه «پروسیدینگز آو د نشنال اکدمی آو ساینسز» (Proceedings of the National Academy of Sciences‌) نوشته‌اند که «چهره‌ها منابع سرشاری از اطلاعات‌اند که تنها چند هزارم ثانیه قرار گرفتن در مقابل آن برای استنباط ویژگی‌هایی ازجمله قابل‌اعتماد بودن، کافی است. ما می‌خواستیم دریابیم که آیا چهره‌های مصنوعی می‌توانند همان قضاوت به قابل‌اعتماد بودن را ایجاد کند یا نه. 

    «اگرنه استنباط قابل‌اعتماد بودن می‌توانست به تشخیص واقعی یا جعلی بودن تصاویر مصنوعی کمک کند.»

    متاسفانه [میانگین رده‌بندی] نشان داد که چهره‌های مصنوعی ۷. ۷ برابر قابل‌اعتمادتر از چهره‌های واقعی و زنان به‌ مراتب قابل‌ اعتمادتر از مردها بودند.

    پژوهشگران در این گزارش می‌نویسند که «یک چهره خندان بیشتر در رده قابل‌اعتماد قرار می‌گیرد اما ۶۵.۵ درصد چهره‌های واقعی و ۵۸.۸ درصد چهره‌های مصنوعی خندان هستند، بنابراین حالت صورت به‌ تنهایی نمی‌تواند علت قابل‌ اعتماد تلقی شدن صورت‌های مصنوعی را توجیه کند.» 
     

    چهره‌ جعلی هوش مصنوعی، قابل اعتمادتر از چهره انسان - تی ام گیم

    آن‌ها می‌گویند احتمال دارد این چهره‌ها قابل‌ اعتمادتر تلقی ‌شوند زیرا آن‌ها نمادی از چهره‌های متعارفی‌اند که انسان درمجموع قابل‌ اعتمادتر می‌بیند.

    محققان می‌گویند باید دستورالعمل‌هایی برای ایجاد و توزیع تصاویر جعل عمیق در نظر گرفته شود. آن‌ها برای نمونه به «گنجاندن نشانه‌های قوی» و در نظر گرفتن «برخورد اغلب توام با بی‌بندوباری به جامعه و انتشار بدون محدودیت کدهایی که همگان می‌توانند وارد هر اپلیکیشنی کنند» اشاره کرده‌اند.

    گزارش «یونیورسیتی کالج لندن» حاکی از آن است که جرایم مرتبط با جعل عمیق می‌تواند یکی از خطرناک‌ترین انواع بزهکاری با هوش مصنوعی باشد.

    دکتر متیو کالدول می‌گوید: «مردم اکنون بخش عمده‌ای از زندگی‌شان را در اینترنت صرف می‌کنند و فعالیت‌های آنلاین آن‌ها می‌تواند به شهرت دیگران لطمه بزند. چنین محیط اینترنتی که داده‌ها در جایگاه دارایی‌ها و اطلاعات قدرت است، برای فعالیت‌های بزهکارانه مبتنی بر هوش مصنوعی ایده‌آل است. 

    «برخلاف بسیاری از جرایم سنتی، جرم در قلمرو دیجیتال می‌تواند به‌ راحتی به اشتراک گذاشته شود و حتی به فروش برسد و به روش‌های بزهکارانه اجازه بازاریابی بدهد و خدمات ارائه کند. این به معنی آن است که بزهکاران احتمالا می‌توانند جنبه‌های چالشی‌تر جرمی را که بر هوش مصنوعی مبتنی است برون‌سپاری کنند.»

    در حال حاضر، مورد استفاده عمده جعل عمیق در پورنوگرافی است. یک گزارش پژوهشی در ژوئن سال ۲۰۲۰، نشان داد که ۹۶ درصد تمام موارد جعل عمیق در زمینه پورنوگرافی بود که  ۱۰۰ درصد آن زنان را دربرگرفته است. 

    منبع: ایندیپندنت

    میانگین امتیازات ۵ از ۵
    از مجموع ۱ رای

    نوشته های مشابه

    دیدگاهتان را بنویسید

    نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

    دکمه بازگشت به بالا