یک آسیب‌پذیری بحرانی در چارچوب محبوب یادگیری ماشین PyTorch کشف شده است که به مهاجمان اجازه می‌دهد کد دلخواه را از راه دور اجرا کنند — حتی در حالتی که گزینه‌ی امنیتی weights_only=True فعال باشد.


🧨 جزئیات آسیب‌پذیری: CVE-2025-32434

این باگ در تابع torch.load() وجود دارد؛ تابعی که به‌طور گسترده‌ای برای بارگذاری مدل‌های ذخیره‌شده استفاده می‌شود. گزینه‌ی weights_only=True که سال‌ها به‌عنوان راهکار امنیتی توصیه می‌شد، اکنون بی‌اثر شناخته شده است.

امتیاز CVSS: 9.3 (بحرانی)
بردار آسیب‌پذیری:
CVSS:4.0/AV:N/AC:L/AT:N/PR:N/UI:N/VC:H/VI:H/VA:H/SC:N/SI:N/SA:N
(یعنی بدون نیاز به دسترسی خاص، تعامل کاربر، یا مهارت بالا)


👤 چه کسانی در معرض خطر هستند؟

  • اپلیکیشن‌های تحقیقاتی، تولیدی و ابری که از torch.load() در نسخه‌های آسیب‌پذیر استفاده می‌کنند

  • پلتفرم‌هایی که از مدل‌های شخص ثالث یا مدل‌های منتشر شده در مخازن عمومی استفاده می‌کنند

  • خدمات یادگیری فدرال یا inference pipeline‌هایی که به امنیت مدل‌ها متکی‌اند


💥 نحوه‌ی حمله:

  1. مهاجم یک مدل آلوده می‌سازد و در یک مخزن عمومی یا زنجیره تأمین نرم‌افزار قرار می‌دهد

  2. توسعه‌دهنده یا پژوهشگر، مدل را با فرض امنیت گزینه‌ی weights_only=True بارگذاری می‌کند

  3. کد مخرب اجرا شده و دسترسی کامل به سیستم هدف فراهم می‌شود


✅ اقدامات فوری

🔄 به‌روزرسانی به PyTorch نسخه ۲.۶.۰
pip install --upgrade torch

🔍 بررسی مدل‌هایی که از منابع شخص ثالث یا عمومی دریافت شده‌اند

📡 نظارت بر اعلان‌های امنیتی رسمی در GitHub و PyTorch Security Page


🧠 نتیجه‌گیری:

این آسیب‌پذیری نشان می‌دهد که حتی ابزارهای قابل‌اعتماد حوزه‌ی هوش مصنوعی نیز از حملات پیشرفته در امان نیستند. PyTorch با همه‌ی محبوبیت و گستردگی‌اش، اکنون نقطه‌ی ورودی برای اجرای کد از راه دور شده است.

به‌روزرسانی فوری، بررسی مدل‌ها و رعایت اصول زنجیره تأمین مدل، حیاتی است.


دوست داشتید؟ لطفا با دوستان خود به اشتراک بگذارید.

139

یک نظر

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *