به طور خلاصه
- محققان دانشگاههای کمبریج، ادینبورو و استراتکلاید ۹۷٬۸۹۵ موضوع انجمن جرایم سایبری منتشرشده پس از راهاندازی ChatGPT را تحلیل کردند.
- ابزارهای «هوش مصنوعی تاریک» مانند WormGPT سروصدای فرهنگی ایجاد کردند اما تقریباً هیچ بدافزار کارآمدی تولید نکردند، در حالی که چتباتهای جیلبریکشده بهطور فزایندهای دشوارتر میشوند تا بیش از چند روز کار کنند.
- بزرگترین جرم قابل اندازهگیری مبتنی بر هوش مصنوعی هک کردن نیست. بلکه تولید انبوه اسپم SEO، کلاهبرداریهای عاشقانه، و تصاویر برهنه تولیدشده توسط هوش مصنوعی است که هر کدام به قیمت یک دلار فروخته میشوند.
طی سه سال گذشته، شرکتهای امنیت سایبری، دولتها و آزمایشگاههای هوش مصنوعی هشدار دادهاند که هوش مصنوعی مولد نسل جدیدی از هکرهای فوققدرتمند را آزاد خواهد کرد. اما طبق یک مقاله علمی جدید که واقعاً این موضوع را بررسی کرده، این هکرهای فوققدرتمند عمدتاً از ChatGPT برای نوشتن اسپم و تولید تصاویر برهنه برای سرگرمی استفاده میکنند.
این مطالعه با عنوان Stand-Alone Complex or Vibercrime? توسط محققان دانشگاه کمبریج و دانشگاههای دیگر در arXiv منتشر شده و هدف آن درک چگونگی پذیرش واقعی هوش مصنوعی در زیرزمین جرایم سایبری است، نه آنچه فروشندگان امنیت سایبری ادعا میکنند.
محققان نوشتند: «ما اینجا یکی از اولین تلاشها برای یک مطالعه تجربی ترکیبی از الگوهای اولیه پذیرش GenAI در زیرزمین جرایم سایبری را ارائه میدهیم.»
این تیم ۹۷٬۸۹۵ موضوع انجمن منتشرشده پس از راهاندازی ChatGPT در آبان ۱۴۰۱ را تحلیل کرد که از مجموعه داده CrimeBB مرکز جرایم سایبری کمبریج از انجمنهای زیرزمینی و دارک وب گرفته شده بود. آنها مدلهای موضوعی اجرا کردند، بیش از ۳٬۲۰۰ موضوع را به صورت دستی خواندند و خود را به صورت قومنگارانه در این صحنه غرق کردند.
نتیجهگیری برای جامعه بدبینان هوش مصنوعی چندان خوشایند نیست: ۹۷.۳٪ از موضوعات نمونه به عنوان «سایر» طبقهبندی شدند، یعنی در واقع اصلاً درباره استفاده از هوش مصنوعی برای جرم نبودند. تنها ۱.۹٪ شامل کسی بود که از ابزارهای vibe coding استفاده میکرد.
'چیزی جز یک ChatGPT بدون محدودیت نیست'
آیا WormGPT، FraudGPT و موج چتباتهای بهاصطلاح مخرب که در سال ۲۰۲۳ صفحات اول اخبار را پر کردند را به یاد میآورید؟ دادههای انجمن داستان متفاوتی تعریف میکنند.
محققان دریافتند که اکثر پستهای درباره محصولات «هوش مصنوعی تاریک» شامل افرادی بود که درخواست دسترسی رایگان داشتند، حدس و گمانهای بیهوده، و شکایت از اینکه ابزارها در واقع کار نمیکنند. یک توسعهدهنده یک سرویس محبوب Dark AI در نهایت به اعضای انجمن اعتراف کرد که این محصول یک تمرین بازاریابی بوده است.
توسعهدهنده قبل از تعطیل شدن پروژه نوشت: «در نهایت، [CybercrimeAI] چیزی جز یک ChatGPT بدون محدودیت نیست. هر کسی در اینترنت میتواند از یک تکنیک جیلبریک معروف استفاده کند و به همان، اگر نه بهتر، نتایج دست یابد.»
محققان میگویند تا اواخر سال ۲۰۲۴، جیلبریکهای مدلهای جریان اصلی یکبارمصرف شده بودند. اکثر آنها در یک هفته یا کمتر از کار میافتند. مدلهای متنباز را میتوان به طور نامحدود جیلبریک کرد، اما کند، پرمصرف و در زمان یخ زدهاند.
نویسندگان نتیجهگیری میکنند: «موانع ایمنی سیستمهای هوش مصنوعی هم مفید و هم مؤثر در حال اثبات هستند»، که آنها خود این را یافتهای غیرشهودی برای یک مقاله انتقادی مینامند.
Vibe coding واقعی است. Vibe hacking، عمدتاً، واقعی نیست
این مقاله مستقیماً به گزارش پرمخاطب Anthropic در مرداد ۱۴۰۴ میپردازد که ادعا میکرد Claude Code برای اجرای یک کمپین اخاذی «vibe hacking» علیه ۱۷ سازمان استفاده شده است. دادههای تیم کمبریج به سادگی آن الگو را در زیرزمین گستردهتر نشان نمیدهد.
در انجمنهایی که مطالعه کردند، دستیارهای کدنویسی هوش مصنوعی به همان روشی که توسعهدهندگان جریان اصلی از آنها استفاده میکنند مورد استفاده قرار میگیرند: به عنوان تکمیل خودکار و جایگزین Stack Overflow برای کدنویسان از پیش ماهر. بازیگران کممهارت به اسکریپتهای از پیش ساخته پایبند هستند، چون این اسکریپتها کار میکنند.
محققان دریافتند که حتی هکرها هم به ابزارهای هک vibe coded خود اعتماد ندارند. یک کاربر در انجمنی که محققان آن را رصد میکردند گفت: «کدنویسی با کمک هوش مصنوعی یک شمشیر دولبه است. توسعه را سرعت میبخشد اما خطراتی مانند کد ناامن و آسیبپذیریهای زنجیره تأمین را نیز تقویت میکند.»
دیگری درباره از دست دادن مهارت در درازمدت هشدار داد: یک هکر در انجمنی نوشت: «الان مشخص است که استفاده از هوش مصنوعی برای کد باعث کاهش بسیار سریع مهارتهای شما میشود. اگر هدف شما فقط تولید کلاهبرداریهای SaaS است و به کیفیت/امنیت/عملکرد کد اهمیت نمیدهید، میتوان از vibe code استفاده کرد. (همچنین برای فیشینگ هم قابل استفاده به نظر میرسد.)»
این در تضاد شدید با پیشبینیهای هشداردهنده Europol است که در سال ۲۰۲۵ هشدار داد که هوش مصنوعی کاملاً خودمختار روزی میتواند شبکههای جنایی را کنترل کند.
جایی که هوش مصنوعی واقعاً به مجرمان کمک میکند
اختلال، وقتی ظاهر میشود، در پایینترین سطح زنجیره غذایی است.
کلاهبرداران SEO از LLMها برای تولید انبوه اسپم وبلاگ برای دنبال کردن درآمد تبلیغاتی در حال کاهش استفاده میکنند. کلاهبرداران عاشقانه و اپراتورهای eWhoring کلونسازی صدا و تولید تصویر را به کار میگیرند. دلالهای سریعالثروتشدن کتابهای الکترونیکی نوشتهشده توسط هوش مصنوعی را برای فروش به قیمت ۲۰ دلار هر عدد تولید میکنند.
ناراحتکنندهترین بازاری که محققان یافتند شامل خدمات تولید تصاویر برهنه بود. یک اپراتور تبلیغ کرد: «میتوانم هر دختری را با هوش مصنوعی برهنه کنم… ۱ تصویر = ۱ دلار، ۱۰ تصویر = ۸ دلار، ۵۰ تصویر = ۴۰ دلار، ۹۰ تصویر = ۷۵ دلار.»
هیچکدام از اینها جرایم سایبری پیچیدهای نیستند. همان تلاش کمسود و پرحجمی است که صنعت اسپم را به مدت دو دهه تغذیه کرده، اکنون با ابزارهای کمی بهتر اجرا میشود.
مشاهده پایانی محققان تیزترین آن است. آنها پیشنهاد میکنند که بزرگترین راهی که هوش مصنوعی در نهایت اکوسیستم جرایم سایبری را مختل میکند، ممکن است نه از طریق توانمندتر کردن مجرمان باشد. بلکه ممکن است از طریق سوق دادن توسعهدهندگان اخراجشده از فناوری قانونی به زیرزمین برای جستجوی کار باشد.
مقاله میخواند: «در ماههای اخیر، نگرانی درباره اختلال در بازار کار ناشی از این ابزارها به شدت در حال افزایش است. این ممکن است در نهایت مهمترین روشی باشد که ابزارهای هوش مصنوعی مولد اکوسیستم جرایم سایبری را مختل میکنند—اخراجهای گسترده، رکود اقتصادی و بازار کار سرد که توسعهدهندگان قانونی و ماهرتر را به جوامع زیرزمینی طرحهای سریعالثروتشدن، کلاهبرداری و جرایم سایبری سوق میدهد.»
خبرنامه Daily Debrief
هر روز را با مهمترین اخبار روز، به علاوه ویژگیهای اصلی، پادکست، ویدیو و موارد دیگر شروع کنید.
Source: https://decrypt.co/366855/cybercrime-hacking-ai-study







