یادگیری ماشینمحققان امنیت سایبری چندین نقص امنیتی را فاش کرده‌اند که بر ابزارها و چارچوب‌های یادگیری ماشین منبع باز (ML) مانند MLflow ،H2O ،PyTorch و MLeap تأثیر می‌گذارد که می‌تواند راه را برای اجرای کد هموار کند.

این آسیب‌پذیری‌ها که توسط JFrog کشف شده‌اند، بخشی از مجموعه گسترده‌تر ۲۲ نقص امنیتی است که شرکت امنیت زنجیره تأمین برای اولین بار ماه گذشته افشا کرد[۱].

برخلاف مجموعه اول که شامل نقص‌هایی در سمت سرور بود، موارد جدید با جزئیات امکان بهره‌برداری از کلاینت‌های ML را می‌دهند و در کتابخانه‌هایی قرار می‌گیرند که قالب‌های مدل ایمن مانند [۲]Safetensors را مدیریت می‌کنند.

این شرکت گفت[۳]: «ربودن یک کلاینت ML در یک سازمان می‌تواند به مهاجمان اجازه دهد تا حرکات جانبی گسترده‌ای را در داخل سازمان انجام دهند. یک کلاینت ML به‌احتمال‌زیاد به خدمات مهم ML مانند ML Model Registries یا MLOps Pipelines دسترسی دارد.»

این به‌نوبه خود می‌تواند اطلاعات حساسی مانند اعتبارنامه‌های رجیستری مدل را فاش کند و عملاً به یک عامل مخرب اجازه دهد تا مدل‌های ML ذخیره‌شده در پشتی را پشت سر بگذارد یا به اجرای کد دست یابد.

یادگیری ماشین

لیست آسیب‌پذیری‌ها در زیر آمده است:

  • CVE-2024-27132 (امتیاز ۷٫۲ در CVSS) – یک مشکل sanitization ناکافی در MLflow که منجر به حمله اسکریپت بین سایتی (XSS) در هنگام اجرای دستورالعمل[۴] غیرقابل‌اعتماد در یک نوت بوک Jupyter می‌شود و درنهایت منجر به اجرای کد از راه دور سمت سرویس‌گیرنده می‌شود ( RCE)
  • CVE-2024-6960 (امتیاز ۷٫۵ در CVSS) – یک مشکل غیر ایمن‌سازی در H20 هنگام وارد کردن یک مدل ML غیرقابل‌اعتماد، که به‌طور بالقوه منجر به RCE می‌شود.
  • یک مشکل پیمایش مسیر در ویژگی TorchScript PyTorch که می‌تواند منجر به انکار سرویس (DoS) یا اجرای کد به دلیل بازنویسی دلخواه فایل شود، که می‌تواند برای بازنویسی فایل‌های مهم سیستم یا یک فایل pickle قانونی (بدون شناسه CVE) استفاده شود.
  • CVE-2023-5245 (امتیاز ۷٫۵ در CVSS) – یک مشکل پیمایش مسیر در MLeap هنگام بارگیری یک مدل ذخیره‌شده در قالب فشرده می‌تواند منجر به آسیب‌پذیری [۵]Zip Slip شود که منجر به بازنویسی دلخواه پرونده و اجرای کد بالقوه می‌شود.

JFrog خاطرنشان کرد که مدل‌های ML نباید کورکورانه بارگذاری شوند، حتی در مواردی که از یک نوع امن، مانند Safetensors بارگذاری می‌شوند، زیرا آن‌ها توانایی اجرای کد دلخواه را دارند.

Shachar Menashe، معاون تحقیقات امنیتی JFrog در بیانیه‌ای گفت: ابزارهای هوش مصنوعی و یادگیری ماشین (ML) پتانسیل بسیار زیادی برای نوآوری دارند، اما همچنین می‌توانند در را برای مهاجمان باز کنند تا آسیب گسترده‌ای به هر سازمانی وارد کنند.

“برای محافظت در برابر این تهدیدات، مهم است که بدانید از کدام مدل‌ها استفاده می‌کنید و هرگز مدل‌های غیرقابل‌اعتماد ML را حتی از یک مخزن ML “ایمن” بارگیری نکنید. انجام این کار می‌تواند منجر به اجرای کد از راه دور در برخی سناریوها شود و آسیب‌های زیادی به سازمان شما وارد کند.”

  منابع

[۱] https://thehackernews.com/2024/11/security-flaws-in-popular-ml-toolkits.html

[۲] https://thehackernews.com/2024/02/new-hugging-face-vulnerability-exposes.html

[۳] https://jfrog.com/blog/machine-learning-bug-bonanza-exploiting-ml-clients-and-safe-models/

[۴] https://mlflow.org/docs/latest/recipes.html

[۵] https://thehackernews.com/2023/10/openrefines-zip-slip-vulnerability.html

[۶] https://thehackernews.com/2024/12/researchers-uncover-flaws-in-popular.html