پاداش ۲۰ هزار دلاری برای تشخیص مشکلات چتجیپیتی – تی ام گیم
پاداش ۲۰ هزار دلاری برای تشخیص مشکلات چتجیپیتی – تی ام گیم
به گزارش تی ام گیم و به نقل از ایندیپندنت، این شرکت روز سهشنبه گفت که برنامه جدیدش برای یافتن ایرادهای نرمافزاری چت جیپیتی، افزونههای اوپنایآی، ایپیآی اوپن ایآی (OpenAI API) و سایر خدمات مرتبط بین ۲۰۰ تا دو هزار دلار به کاربران پاداش میدهد.
اوپن ایآی گفت: «از جامعه جهانی پژوهشگران امنیتی، هکرهای اخلاقی و علاقهمندان به فناوری دعوت میکنیم به ما در شناسایی و رفع نقاط ضعف سیستمهایمان کمک کنند.» و افزود که جوایز نقدی بر اساس شدت و تاثیر ایرادهای گزارششده ارائه خواهد شد.
در این بیانیه آمده است: «جوایز ما از ۲۰۰ دلار برای اشکالهای جزئی تا ۲۰ هزار دلار برای یافتههای خاص متغیر است.»
این شرکت آمریکایی در حالی که به وجود «ضعف و نقص» در این فناوری پیچیده اذعان میکند، اعلام کرد که با پلتفرم پاداش به باگیابی باگکراود (Bugcrowd) همکاری کرده است تا فرایند ارسال و پاداش تسهیل شود.
اوپن ایآی گفت: «از شما دعوت میکنیم تا نقاط ضعف، ایرادها یا نقایص امنیتی را که در سیستم ما کشف میکنید، گزارش دهید. با انتشار یافتههایتان در ایمنتر کردن فناوری ما برای همگان نقش مهمی ایفا خواهید کرد.»
این شرکت همچنین برای مواردی که به آنها پاداش تعلق نمیگیرد، راهنما و آییننامهای منتشر کرد.
وادار کردن این مدل هوش مصنوعی به «دشنام دادن» به شما و «نوشتن کد مخرب» از جمله این مواردند.
اوپن ایآی از کاربرانی که ایرادها را پیدا میکنند، خواست این نقاط ضعف پیداشده را «بهسرعت» و بیقیدوشرط گزارش کنند.
در این آییننامه آمده است که از اخاذی، تهدید یا ترفندهای دیگر برای دریافت پاسخ تحت فشار خودداری کنید.
اقدام اخیر این شرکت در پی گزارشهایی مبنی بر خطرهای احتمالی نقض اطلاعات (اینکه دادههای شخصی کاربر بدون مجوز صاحب آن نمایش داده شود) و نگرانیهای مربوط به حفظ حریم خصوصی با استفاده از این ربات چت هوش مصنوعی صورت گرفت.
چت جیپیتی ماه گذشته در ایتالیا ممنوع شد و مقامها گفتند نحوه حفاظت از دادههای کاربران بهویژه افراد زیر سن قانونی را در این خدمات هوش مصنوعی بررسی خواهند کرد.
تنظیمکنندههای رگولاتور داده در آلمان و نیز ناظران در فرانسه و ایرلند گفتهاند که منطق ممنوعیت چت جیپیتی در ایتالیا را در دست بررسی دارند.
چندین دانشگاه در ژاپن نیز به استادان خود هشدار دادند هنگام بهرهگیری از ابزارهای تولید هوش مصنوعی مانند چت جیپیتی برای ارزیابی و ترجمه نتایج پژوهشهای منتشرنشده، ممکن است «بخش یا کل» این دادهها ناخواسته برای ارائهدهنده این خدمات فاش شود.
دانشگاه توهوکو اعلام کرد: «احتمال اینکه اطلاعاتی که نباید به بیرون درز کند، مانند اطلاعات مربوط به کنکور و اطلاعات شخصی دانشجویان و اعضای هیئت علمی، از طریق ابزار هوش مصنوعی به ارائهدهنده خدمات منتقل شود و این احتمال که به منزله پاسخ به سایر کاربران ارائه شود، وجود دارد.»