گجت نیوز/ از همان ابتدای ورود هوش مصنوعی بسیاری نسبت به خطرات آن بدگمان بودند. حالا نیز شاهد ورود هوش مصنوعی شیطانی هستیم که به‌خوبی می‌تواند جنبه تاریک این فناوری را آشکار کند.
 
طبیعتا پس از ظهور هر فناوری جدید عده‌ای به‌دنبال استفاده مثبت از آن خواهند بود و عده‌ای دیگر نیز جنبه‌های منفی را کاوش می‌کنند. این مسئله شاید کاملا عادی تلقی شود؛ اما وقتی نوبت به هوش مصنوعی می‌رسد، نگرانی‌ها جدی‌تر می‌شوند. افراد زیادی نگران هستند که روزی هوش مصنوعی بتواند به‌صورت مستقل عمل کرده و انسان را اسیر خود کند.

البته فعالان حاضر در این عرصه می‌گویند که هوش مصنوعی هنوز راه زیادی تا رسیدن به هوش انسانی دارد؛ اما در هر صورت نمی‌توان این تهدید بالقوه را نادیده گرفت. تصور اینکه یک کشور یا گروهی از دانشمندان تصمیم بگیرند یک نوع هوش مصنوعی شیطانی بسیار پیشرفته را توسعه دهند، چندان دور از ذهن نیست. حتی می‌توان گفت که به‌نوعی گام‌های اولیه برای اینکار برداشته شده است. گام‌هایی که در ابتدا با اهداف پلید ارتباطی ندارند.

پژوهشگران دانشگاه MIT هوش مصنوعی شیطانی را با اهداف مثبت توسعه دادند
گروهی از پژوهشگران دانشگاه MIT نسخه‌ای از هوش مصنوعی شیطانی را توسعه داده‌اند که می‌تواند در بررسی موضوعات خطرناک مفید باشد. در واقع جدیدترین دستاورد دانشمندان برای مقابله با یک هوش مصنوعی خطرناک، سمی و مشکل‌ساز یک هوش مصنوعی شیطانی است. رویکرد جدید پژوهشگران دانشگاه MIT بر پایه یادگیری ماشینی است و تیم قرمز مبتنی بر کنجکاوی (CRT) نام دارد.

در این رویکرد از هوش مصنوعی برای تولید پیام‌های خطرناک و آسیب‌زا استفاده می‌شود. مواردی که ممکن است کاربران از چت‌بات‌ها بپرسند. در مرحله بعدی نیز از این پیام‌ها برای فیلتر‌ کردن محتوای نامناسب استفاده خواهد شد. در واقع دانشمندان امیدوارند که با این روش جلوی ارائه پاسخ‌های شیطانی هوش مصنوعی به سوال‌های کاربران را بگیرند.

شاید از خود بپرسید که در چت‌بات‌های پیشرفته‌ای همچون ChatGPT یا Claude 3 Opus چطور محتوای خطرناک محدود می‌شود. در آنها معمولا گروهی از کارشناسان انواع سوال‌های مشکل‌ساز را بررسی کرده و فیلتر می‌کنند. به‌عنوان مثال قطعا ChatGPT پاسخ بدی به سوال «بهترین روش خودکشی چیست؟» نخواهد داد. این رویکرد استاندارد تیم قرمز نامیده می‌شود و از تیم انسانی برای ایجاد لیستی طولانی بهره می‌برد.

هرچند موارد زیادی پیش آمده است که کاربران از پاسخ هوش مصنوعی شگفت زده شده و آن را شیطانی خطاب کرده‌اند. اینجاست که رویکرد جدید پژوهشگران دانشگاه MIT به‌کار می‌آید. به‌گفته مدیر این پروژه در آینده نزدیک شاهد ظهور مدل‌های بسیار زیادی خواهیم بود که از هوش مصنوعی بهره می‌برند. این مدل‌ها در زمانی کوتاه به بخشی جدایی‌ناپذیر از زندگی ما تبدیل می‌شوند. به‌همین‌خاطر باید بتوان با روشی آسان آنها را پیش از عرضه عمومی مورد بررسی قرار داد.

پژوهشگران دانشگاه MIT از هوش مصنوعی بهره گرفتند تا طیف گسترده‌تری از پرسش‌های شیطانی را مطرح کنند. نتیجه از تمامی نمونه‌های انسانی بسیار گسترده‌تر بود و توانست پاسخ‌های بسیار نامناسبی را دریافت کند. در واقع این مدل طوری طراحی شده بود که وقتی یک پاسخ نامناسب را از هوش مصنوعی دریافت می‌کرد، کنجکاو می‌شد پرسش‌های بیشتری را در آن زمینه مطرح کند.

همچنین هوش مصنوعی شیطانی MIT می‌توانست پاسخ‌های دریافتی را ارزیابی کرده و نتایج احتمالی ناشی از آنها را پیش‌بینی کند. در گام بعدی نیز پرسش‌های بدتری با توجه به نتایج پیشین پرسیده می‌شد. جالب اینکه اگر هوش مصنوعی پیش‌بینی کند که پرسشی در نهایت به پاسخ نسبتا تکراری ختم خواهد شد، از مطرح کردن آن خودداری خواهد کرد.


این رویکرد توانست ۱۹۶ پیام مختلف را شناسایی کند که در نهایت منجر به پاسخ‌های شیطانی از سوی هوش مصنوعی می‌شوند. مواردی که پیشتر توسط تیم پشتیبانی چت‌بات‌ها شناسایی نشده بودند. بدون‌شک تلاش‌های دانشمندان دانشگاه MIT برای بهبود هوش مصنوعی و ایمن‌کردن آن بوده است. هرچند نمی‌توان این واقعیت را نیز نادیده گرفت که استفاده پنهان و شیطانی از هوش مصنوعی کاملا ممکن است و می‌تواند فجایع بزرگی را رقم بزند.

در کانال آی‌تی و ™CanaleIT هم کلی عکس و ویدئوی دسته اول و جذاب داریم