سرگرمی

هشدار نسبت به استفاده از هوش مصنوعی در تولید محتوای سوءاستفاده از کودکان – تی ام گیم

  • هشدار نسبت به استفاده از هوش مصنوعی در تولید محتوای سوءاستفاده از کودکان – تی ام گیم

    بنیاد دیدبان اینترنت (آی دبلیو اف) می‌خواهد برخورد با این موضوع در دستور کار نشست جهانی امنیت هوش مصنوعی که پاییز امسال برگزار خواهد شد قرار بگیرد.

    یکی از بزرگ‌ترین خیریه‌های کودکان در بریتانیا از نخست وزیر این کشور ریشی سوناک خواسته است با تصاویر تعرض جنسی به کودکان که ساخته هوش مصنوعی هستند، برخورد و مقابله کند.

    بریتانیا قرار است اولین نشست جهانی امنیت هوش مصنوعی را در پاییز امسال برگزار کند. بنیاد دیدبان اینترنت (ای دبلیو اف) تصاویر سوءاستفاده جنسی کودکان را از اینترنت پاک می‌کند. این بنیاد می‌گوید تصاویر ساخته‌شده باهوش مصنوعی رو به افزایش هستند.

    بنیاد دیدبان اینترنت از ماه گذشته شاهد تصاویر تولیدشده باهوش مصنوعی با محتوی سو استفاده جنسی از کودکان بوده است.

    آنها کشف کردند که خلافکارانی از سراسر جهان در حال به اشتراک گذاشتن تصاویری هستند که شباهت فوق‌العاده‌ای به عکس‌های واقعی دارند.

    سوزی هارگریوز، مدیر اجرایی بنیاد دیدبان اینترنت می‌گوید: «ما هنوز شاهد این تصاویر در ابعادی وسیع نیستیم اما برایمان به‌وضوح روشن است که این تصاویر قابلیتی در اختیار خلاف‌کاران می‌گذارند تا حجم بسیار بالایی از تصاویر فوق‌العاده طبیعی از تعرض جنسی به کودکان تولید کنند.»

    بنیاد دیدبان اینترنت یکی از سه سازمان خیریه در جهان است که مجوز رسمی برای جستجو محتوی سوءاستفاده جنسی کودکان در اینترنت دارند.

    این بنیاد اولین تصویرهای سو استفاده جنسی از کودکان که باهوش مصنوعی ساخته‌شده‌اند را در ۲۴ ماه مه امسال ثبت کرد و آن‌طور که می‌گوید محققان تا ۳۰ ماه ژوئن توانستند ۲۹ وب‌سایت و هفت صفحه مجازی که در آن‌ها آلبوم‌های

    بعضی از این تصاویر جز دسته‌بندی‌ قرار می‌گیرند که کارشناسان به آن‌ها تصاویر رده آ می‌گویند یعنی تصاویر با بالاترین درجه خشونت. تولید و تهیه تصاویر سوءاستفاده جنسی از کودکان تقریباً در تمام کشورها ممنوع است.

    عکس تصاویر هوش مصنوعی به اشتراک گذاشته‌شده بود کشف کنند. این خیریه تعداد دقیق تصاویر را اعلام نکرد اما می‌گوید ده‌ها تصویر هوش مصنوعی با تصاویر آزار جنسی واقعی ترکیب‌شده‌ و در وب سایت‌های غیرقانونی به اشتراک گذاشته‌شده‌اند.

    بعضی از این تصاویر جز دسته‌بندی‌ قرار می‌گیرند که کارشناسان به آن‌ها تصاویر رده آ می‌گویند یعنی تصاویر با بالاترین درجه خشونت. تولید و تهیه تصاویر سوءاستفاده جنسی از کودکان تقریباً در تمام کشورها ممنوع است.

    هارگریوز می‌گوید: «ما الآن فرصت مناسبی داریم تا از این تکنولوژی جدید پیشی بگیریم. قوانینی باید مسئله سو استفاده جنسی از کودکان باهوش مصنوعی را در نظر بگیرند و جلوگیری از شیوع این تهدید جدید را جز هدف‌های خود قرار دهند.»

    سوناک در ماه ژوئن اعلام کرد برنامه‌ای برای میزبانی اولین نشست جهانی برای امنیت هوش مصنوعی در بریتانیا دارد.

    دولت وعده داده است متخصصان و قانون‌گذاران را گرد هم بیاورد تا خطرات احتمالی هوش مصنوعی را موردبررسی قرار دهند و در مورد روش‌هایی برای همکاری بین‌المللی جهت کنترل آن بحث و گفتگو شود.

    متخصصان بنیاد امنیت اینترنت به‌عنوان بخشی از فعالیت‌هایشان ترندهایی که در تولید و انتشار تصاویر آزار جنسی کودکان رخ می‌دهد را بررسی می‌کنند. یکی از ترندهای اخیر، گسترش تصویرهایی است که اصطلاحاً تصاویر سو استفاده «خود تولیدشده» نامیده می‌شوند. برای تولید این تصاویر،مجرم کودکی را ترغیب می‌کند تا برایش عکس یا ویدئوهایی از خود بفرستد.

    خیریه آی دبلیو اف نگران گسترش روند تولید تصویرها با کمک هوش مصنوعی است. هرچند تعداد تصویرهای کشف‌شده همچنان در مقایسه با دیگر اشکال سوءاستفاده میزان جزئی را تشکیل می‌دهد.

    در سال ۲۰۲۲ آی دبلیو اف ۲۵۰ هزار وب‌سایت که دارای تصاویر سو استفاده جنسی از کودکان بود را ثبت و تلاش کرد آن‌ها را غیرقابل‌دسترس کند.

    تحلیلگران آی دبلیو اف همچنین گفتگوهایی در فروم های خلاف‌کاران پیدا کردند که در آن‌ها توصیه‌ها و آموزش‌هایی درباره اینکه چطور واقعی‌ترین تصاویر از سو استفاده جنسی کودکان تهیه کنند به اشتراک گذاشته‌شده بود.

    آن‌ها

    درحالی‌که بیشتر تصاویر تولیدشده باهوش مصنوعی در ساختار خود مقررات سخت‌گیرانه‌ای دارند تا مانع استفاده مصرف‌کنندگان همراه با کلمات و جمله‌های ممنوعه شوند، ابزارهای منبع باز (اوپن سورس) وجود دارند که به شکل مجانی قابل دانلود هستند و اجازه هر استفاده‌ای را به کاربر می‌دهند.

    راه‌هایی پیداکرده بودند که هوش مصنوعی را گول بزنند و به آن آموزش دهند چطور تصویر سواستفاده جنسی از کودکان طراحی کند. آن‌ها به مدل‌های با منبع آزاد هوش مصنوعی (اوپن سورس) دست پیداکرده و موانع ایمنی داخل آن را از بین برده بودند.

    درحالی‌که بیشتر تصاویر تولیدشده باهوش مصنوعی در ساختار خود مقررات سخت‌گیرانه‌ای دارند تا مانع استفاده مصرف‌کنندگان همراه با کلمات و جمله‌های ممنوعه شوند، ابزارهای منبع باز (اوپن سورس) وجود دارند که به شکل مجانی قابل دانلود هستند و اجازه هر استفاده‌ای را به کاربر می‌دهند.

    کارشناسان هشدار می‌دهند که این تصاویر می‌توانند آسیب‌های جدی وارد کنند.

    دکتر مایکل بورک که در مورد آزارگران جنسی و آزارگران جنسی کودکان در خدمات مارشال‌های ایالات‌متحده ( از نهادهای انتظامی) کار می‌کند، می‌گوید: «هیچ شکی ندارم که هوش مصنوعی تمایل به آزار جنسی کودکان را بالا خواهد برد و این انحراف شدت خواهد گرفت و آسیب‌ها و خطرهای جدی‌تری برای کودکان در سراسر جهان ایجاد خواهد شد.»

    پروفسور بیورن اومر یکی از طراحان ارشد برنامه استیبل دیفیوژن از تصمیم خود برای باز کردن دسترسی به این برنامه دفاع می‌کند. او به بی‌بی‌سی می‌گوید از زمانی که کدهای برنامه را به شکل آزاد منتشر کردند صدها پروژه دانشگاهی جدید و چندین و چند کسب و کار پررونق از آن زاده شده‌اند.

    او می‌گوید همین دستاوردها می‌تواند تصمیم او و همکارانش را توجیه کند و ادامه می‌دهد متوقف کردن تحقیق و توسعه پروژه‌ها راه‌حل درستی نیست.

    او می‌گوید: «ما باید این واقعیت را بپذیریم که این روند توسعه جهانی است. اینکه آن را در این برهه زمانی متوقف کنیم جلوی توسعه این تکنولوژی را در کشورهای دیگر جهان و جوامعی که دموکراتیک نیستند را نخواهد گرفت. ما باید گام‌های فکر شده‌ای برای قانون‌مند کردن این پیشرفت که با سرعت زیادی به جلو حرکت می‌کند، پیدا کنیم.»

    استیبلیتی ای آی، که در ضمن بودجه توسعه و ساخت مدل‌ها را هم تأمین کرد یکی از اصلی‌ترین شرکت‌های تولیدکننده نسخه‌های جدیدتر استیبل دیفیوژن است. استیبل ای آی حاضر به مصاحبه با ما نشد اما قبلاً اعلام کرده است استفاده غیرقانونی از همه نسخه‌هایش برای تولید تصاویر غیراخلاقی را منع می‌کند.

    منبع: بی‌بی‌سی

    میانگین امتیازات ۵ از ۵
    از مجموع ۱ رای

    نوشته های مشابه

    دیدگاهتان را بنویسید

    نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

    دکمه بازگشت به بالا