هوش مصنوعی؛ یک جایزه برای تروریست های داعش است؟
به گزارش اقتصادنیوز، در حالی که جهان با شتاب به دنبال مهار قدرت هوش مصنوعی است، گروههای شبهنظامی، حتی اگر دقیقا ندانند با آن چه کار کنند—در حال آزمایش این فناوری هستند. به گفته کارشناسان امنیت ملی و نهادهای اطلاعاتی، برای سازمانهای افراطی، هوش مصنوعی میتواند ابزاری قدرتمند برای جذب نیروهای جدید، تولید انبوه تصاویر دیپفیکِ واقعگرایانه و ارتقای حملات سایبری باشد.
آسوشیتدپرس در گزارشی نوشت: ماه گذشته فردی در وبسایتی حامی داعش از دیگر هواداران این گروه خواست که هوش مصنوعی را به بخشی از عملیات خود تبدیل کنند. این کاربر به انگلیسی نوشت: یکی از بهترین ویژگیهای هوش مصنوعی این است که استفاده از آن به شدت آسان است.
او ادامه داد: برخی سازمانهای اطلاعاتی نگراناند که هوش مصنوعی به جذب نیرو کمک کند. پس کابوسهایشان را به واقعیت تبدیل کنید.
به گفته کارشناسان امنیت ملی، داعش که سالها پیش بخشهایی از عراق و سوریه را در اختیار داشت؛ اکنون به شبکهای غیرمتمرکز از گروههای شبهنظامی با ایدئولوژی خشونتبار مشترک تبدیل شده، سالهاست دریافته که شبکههای اجتماعی میتوانند ابزار قدرتمندی برای جذب نیرو و انتشار اطلاعات نادرست باشند؛ بنابراین تعجبآور نیست که این گروه در حال آزمودن هوش مصنوعی است.

چرا هوش مصنوعی یک جایزه برای داعش است؟
برای گروههای افراطی مانند داعش با پیوندهای گسسته و منابع مالی کم،هوش مصنوعی میتواند برای تولید انبوه تبلیغات یا دیپفیکها به کار رود و دامنه دسترسی و نفوذ آنها را بهطور چشمگیری گسترش دهد.
جان لالیبرت، پژوهشگر پیشین آسیبپذیری در آژانس امنیت ملی آمریکا و مدیرعامل کنونی شرکت امنیت سایبری کلیر وکتور میگوید: برای هر دشمنی، هوش مصنوعی انجام کارها را بسیار آسانتر میکند. با هوش مصنوعی، حتی یک گروه کوچک که پول زیادی ندارد هم میتواند اثرگذار باشد.
گروههای افراطی در حال آزمون و خطا هستند
گروههای شبهنظامی به محض آنکه برنامههایی مانند چت جیپیتی بهطور گسترده در دسترس قرار گرفتند، استفاده از هوش مصنوعی را آغاز کردند. در سالهای بعد، آنها بهطور فزایندهای از ابزارهای هوش مصنوعی مولد برای ساخت عکسها و ویدئوهای بسیار واقعگرایانه استفاده کردهاند.
وقتی این محتوای جعلی به الگوریتمهای شبکههای اجتماعی متصل میشود، میتواند به جذب نیروهای جدید کمک کند، دشمنان را سردرگم یا مرعوب سازد و تبلیغات را در مقیاسی گسترش دهد که تا چند سال پیش تصورناپذیر بود.
دو سال پیش، چنین گروههایی تصاویر جعلی از جنگ اسرائیل و حماس منتشر کردند. این تصاویر خشم و قطبیسازی ایجاد کرد و در عین حال واقعیتهای هولناک جنگ را پنهان ساخت.
نمونهای مشابه سال گذشته پس از حملهای رخ داد که یک شاخه وابسته به داعش مسئولیت آن را بر عهده گرفت و نزدیک به ۱۴۰ نفر را در یک سالن کنسرت در روسیه کشت. در روزهای پس از تیراندازی، ویدئوهای تبلیغاتی ساختهشده با هوش مصنوعی بهطور گسترده در تالارهای گفتوگو و شبکههای اجتماعی پخش شد و در پی جذب نیروهای جدید بود.
بر اساس تحقیقات شرکتی که فعالیتهای افراطی را رصد میکند، داعش همچنین دیپفیکهای صوتی از رهبران خود ساخته است که امکان ترجمه به زبانهای دیگر را هم دارد.
به گفته مارکوس فاولر، مأمور سابق سیا، این گروهها هنوز از چین و روسیه عقبترند و کاربردهای پیچیدهتر هوش مصنوعی را «آرمانگرایانه» میبینند.
اما به گفته او، خطرات آنقدر بالاست که نمیتوان نادیدهشان گرفت و با گسترش استفاده از هوش مصنوعی ارزان و قدرتمند، این تهدیدها احتمالا افزایش خواهد یافت.

هکرها در کمیناند
هکرها فعلا از صدا و ویدئوی مصنوعی برای حملات فیشینگ استفاده میکنند؛ حملاتی که در آنها میکوشند خود را بهجای مدیران ارشد کسبوکار یا مقامات دولتی جا بزنند تا به شبکههای حساس دسترسی پیدا کنند. آنها همچنین میتوانند از هوش مصنوعی برای نوشتن کدهای مخرب یا خودکارسازی بخشهایی از حملات سایبری بهره ببرند.
نگرانکنندهتر، احتمال استفاده گروههای شبهنظامی از هوش مصنوعی برای کمک به تولید سلاحهای بیولوژیک یا شیمیایی است تا کمبود تخصص فنی خود را جبران کنند. این خطر در ارزیابی بهروز تهدیدات داخلی وزارت امنیت داخلی آمریکا که اوایل امسال منتشر شد، ذکر شده است.
فاولر میگوید: داعش خیلی زود وارد توییتر شد و راههایی برای استفاده به نفع خود از شبکههای اجتماعی پیدا کرد. آنها همیشه به دنبال چیز بعدی هستند تا به زرادخانهشان اضافه کنند.
مقابله با تهدیدی رو به رشد
قانونگذاران چندین پیشنهاد مطرح کردهاند و میگویند نیاز فوری به اقدام وجود دارد. سناتور مارک وارنر از ویرجینیا، دموکرات ارشد کمیته اطلاعات سنا، گفت ایالات متحده باید اشتراکگذاری اطلاعات میان توسعهدهندگان هوش مصنوعی درباره نحوه استفاده افراد مضر از نظر اجتماع از محصولاتشان(چه افراطگرایان، چه هکرهای جنایتکار یا جاسوسان خارجی) را آسانتر کند.
او گفت: از اواخر ۲۰۲۲ و با انتشار عمومی چت جیپیتی ، روشن بود که همان شیفتگی و آزمایشگری که عموم مردم نسبت به هوش مصنوعی مولد دارند، در میان طیفی از بازیگران مخرب هم وجود خواهد داشت.
در یک جلسه استماع اخیر درباره تهدیدات افراطی، نمایندگان مجلس دریافتند که داعش و القاعده کارگاههای آموزشی برگزار کردهاند تا به حامیان خود استفاده از هوش مصنوعی را بیاموزند.
قانونی که ماه گذشته از مجلس نمایندگان آمریکا عبور کرد، وزارت امنیت داخلی را ملزم میکند هر سال خطرات هوش مصنوعی ناشی از چنین گروههایی را ارزیابی کند.
آگوست فلوگر، نماینده جمهوریخواه تگزاس و پیشنهاددهنده این طرح، گفت محافظت در برابر استفاده مخرب از هوش مصنوعی تفاوتی با آمادگی برای حملات متعارف ندارد.
منبع: دنیای اقتصاد