
آسیبپذیریهای بحرانی موردبحث که توسط Trend Micro کشف شدهاند، در زیر فهرست شدهاند:
- CVE-2025-10643 (امتیاز ۹٫۱ در CVSS) – یک آسیبپذیری دور زدن احراز هویت که در مجوزهای اعطاشده به یک توکن حساب ذخیرهسازی وجود دارد[۲].
- CVE-2025-10644 (امتیاز ۹٫۴ در CVSS) – یک آسیبپذیری دور زدن احراز هویت که در مجوزهای اعطاشده به یک توکن SAS وجود دارد[۳].
بهرهبرداری موفقیتآمیز از این دو نقص میتواند به مهاجم اجازه دهد تا محافظت احراز هویت را در سیستم دور بزند و یک حمله زنجیره تأمین را راهاندازی کند که درنهایت منجر به اجرای کد دلخواه در نقاط پایانی مشتریان میشود.
آلفردو اولیویرا و دیوید فیزر، محققان ترند میکرو، گفتند[۴] که این برنامهی تعمیر داده و ویرایش عکس مبتنی بر هوش مصنوعی «با جمعآوری، ذخیرهسازی و به دلیل شیوههای ضعیف توسعه، امنیت و عملیات (DevSecOps)، ناخواسته دادههای خصوصی کاربر را فاش کرده و با سیاست حفظ حریم خصوصی خود در تضاد بوده است.»
شیوههای توسعهی ضعیف[۵] شامل جاسازی توکنهای دسترسی ابری بیشازحد مجاز بهطور مستقیم در کد برنامه است که امکان دسترسی خواندن و نوشتن به فضای ذخیرهسازی ابری حساس را فراهم میکند. علاوه بر این، گفته میشود که دادهها بدون رمزگذاری ذخیره شدهاند و بهطور بالقوه راه را برای سوءاستفادهی گستردهتر از تصاویر و ویدیوهای آپلود شدهی کاربران باز میکنند.
بدتر از همه، فضای ذخیرهسازی ابری در معرض دید نهتنها شامل دادههای کاربر، بلکه شامل مدلهای هوش مصنوعی، فایلهای باینری نرمافزار برای محصولات مختلف توسعهیافته توسط Wondershare، تصاویر کانتینر، اسکریپتها و کد منبع شرکت نیز میشود که به مهاجم امکان میدهد مدلهای هوش مصنوعی یا فایلهای اجرایی را دستکاری کند و راه را برای حملات زنجیره تأمین که مشتریان پاییندستی آن را هدف قرار میدهند، هموار کند.
محققان گفتند: «ازآنجاکه فایل باینری بهطور خودکار مدلهای هوش مصنوعی را از فضای ذخیرهسازی ابری ناامن بازیابی و اجرا میکند، مهاجمان میتوانند این مدلها یا پیکربندیهای آنها را تغییر داده و کاربران را ناآگاهانه آلوده کنند. چنین حملهای میتواند از طریق بهروزرسانیهای نرمافزاری امضاشده توسط فروشنده یا دانلود مدلهای هوش مصنوعی، بارهای مخرب را به کاربران قانونی توزیع کند.»
فراتر از افشای دادههای مشتری و دستکاری مدل هوش مصنوعی، این مشکلات همچنین میتوانند عواقب وخیمی را به همراه داشته باشند، از سرقت مالکیت معنوی و مجازات نظارتی گرفته تا فرسایش اعتماد مصرفکننده.
این شرکت امنیت سایبری اعلام کرد که این دو مشکل را از طریق ابتکار روز صفر (ZDI) خود در آوریل ۲۰۲۵ بهطور مسئولانه افشا کرده است، اما با وجود تلاشهای مکرر هنوز پاسخی از فروشنده دریافت نکرده است. در صورت عدم رفع مشکل، به کاربران توصیه میشود که «تعامل با محصول را محدود کنند.»
ترند میکرو گفت: «نیاز به نوآوریهای مداوم، عجله یک سازمان را برای عرضه ویژگیهای جدید به بازار و حفظ رقابتپذیری افزایش میدهد، اما آنها ممکن است روشهای جدید و ناشناختهای را که این ویژگیها میتوانند استفاده شوند یا نحوه تغییر عملکرد آنها در آینده پیشبینی نکنند.»
«این موضوع توضیح میدهد که چقدر ممکن است پیامدهای مهم امنیتی نادیده گرفته شوند. به همین دلیل است که پیادهسازی یک فرآیند امنیتی قوی در سراسر سازمان، ازجمله خط لوله CD/CI، بسیار مهم است.»
ضرورت همگامی هوش مصنوعی و امنیت
این تحول در حالی رخ میدهد که ترند میکرو پیشازاین در مورد افشای سرورهای پروتکل مدل زمینه ([۶]MCP) بدون احراز هویت[۷] یا ذخیره اعتبارنامههای حساس[۸] مانند پیکربندیهای MCP بهصورت متن ساده هشدار داده بود، چرا که عوامل تهدید میتوانند از این طریق برای دسترسی به منابع ابری، پایگاههای داده یا تزریق کد مخرب سوءاستفاده کنند.
محققان گفتند: «هر سرور MCP بهعنوان یک درِ باز به منبع داده خود عمل میکند: پایگاههای داده، سرویسهای ابری، APIهای داخلی یا سیستمهای مدیریت پروژه. بدون احراز هویت، دادههای حساس مانند اسرار تجاری و سوابق مشتری برای همه قابلدسترسی میشود.»
در دسامبر ۲۰۲۴، این شرکت همچنین دریافت[۹] که میتوان از رجیستریهای کانتینرهای در معرض دید برای دسترسی غیرمجاز و هدف قرار دادن تصاویر Docker برای استخراج مدل هوش مصنوعی درون آن، تغییر پارامترهای مدل برای تأثیرگذاری بر پیشبینیهای آن و بازگرداندن تصویر دستکاری شده به رجیستری در معرض دید، سوءاستفاده کرد.
ترند میکرو گفت: «مدل دستکاری شده میتواند در شرایط معمولی بهطور عادی رفتار کند و فقط در صورت تحریک توسط ورودیهای خاص، تغییرات مخرب خود را نشان دهد. این امر حمله را بهویژه خطرناک میکند، زیرا میتواند از آزمایشهای اولیه و بررسیهای امنیتی عبور کند.»
کسپرسکی نیز به ریسک زنجیره تأمین ناشی از سرورهای MCP اشاره کرده است که یک اکسپلویت اثبات مفهوم (PoC) را ابداع کرده است تا نشان دهد که چگونه سرورهای MCP نصبشده از منابع غیرقابلاعتماد میتوانند فعالیتهای شناسایی و استخراج دادهها را تحت پوشش یک بهرهوری مبتنی بر هوش مصنوعی پنهان کنند.
محمد غباشی، محقق امنیتی، گفت[۱۰]: «نصب یک سرور MCP اساساً به آن اجازه میدهد تا کدی را روی دستگاه کاربر با امتیازات کاربر اجرا کند. مگر اینکه در حالت سندباکس قرار گرفته باشد، کد شخص ثالث میتواند همان فایلهایی را که کاربر به آنها دسترسی دارد بخواند و مانند هر برنامه دیگری تماسهای شبکهای خروجی برقرار کند.»
یافتهها نشان میدهد که پذیرش سریع ابزارهای MCP و هوش مصنوعی در محیطهای سازمانی برای فعال کردن قابلیتهای عاملمحور، بهویژه بدون سیاستهای روشن یا محافظهای امنیتی، میتواند مسیرهای حمله کاملاً جدیدی[۱۱] ازجمله مسمومیت با ابزار[۱۲]، حذف دسترسیهای غیرمجاز[۱۳]، سایهزنی، تزریق سریع و افزایش امتیاز غیرمجاز را ایجاد کند.
در گزارشی که هفته گذشته منتشر شد، واحد ۴۲ شبکههای پالو آلتو فاش کرد که ویژگی پیوست زمینه که در دستیاران کد هوش مصنوعی برای پر کردن شکاف دانش مدل هوش مصنوعی استفاده میشود، میتواند مستعد تزریق سریع غیرمستقیم باشد، جایی که دشمنان، دستورات مضر را در منابع داده خارجی جاسازی میکنند تا رفتار ناخواسته را در مدلهای زبانی بزرگ (LLM) ایجاد کنند.
تزریق سریع غیرمستقیم به ناتوانی دستیار در تمایز بین دستورالعملهای صادرشده توسط کاربر و آنهایی که مخفیانه توسط مهاجم در منابع داده خارجی جاسازی شدهاند، بستگی دارد.
بنابراین، هنگامیکه یک کاربر سهواً دادههای شخص ثالث (مثلاً یک فایل، مخزن یا URL) را که قبلاً توسط یک مهاجم آلوده شده است، در اختیار دستیار کدنویسی قرار میدهد، میتوان از این پیام مخرب پنهان برای فریب ابزار جهت اجرای یک در پشتی، تزریق کد دلخواه به یک پایگاه کد موجود و حتی نشت اطلاعات حساس استفاده کرد.
اوشر جیکوب، محقق واحد ۴۲، گفت[۱۴]: «افزودن این متن به پیامها، دستیار کد را قادر میسازد تا خروجی دقیقتر و خاصتری ارائه دهد. بااینحال، اگر کاربران ناخواسته منابع متنی را که عاملان تهدید آلوده کردهاند، ارائه دهند، این ویژگی میتواند فرصتی برای حملات تزریق غیرمستقیم پیام نیز ایجاد کند.»
عاملهای کدنویسی هوش مصنوعی همچنین در برابر حملهای به نام «دروغ در حلقه» (LitL) آسیبپذیر شناخته شدهاند که هدف آن متقاعد کردن LLM است که دستورالعملهای تغذیهشده بسیار ایمنتر ازآنچه واقعاً هستند، هستند و عملاً دفاعهای انسانی در حلقه (HitL) را که هنگام انجام عملیات پرخطر اعمال میشوند، نادیده میگیرند.
اوری ران، محقق Checkmarx، گفت[۱۵]: «LitL از اعتماد بین انسان و عامل سوءاستفاده میکند. از این گذشته، انسان فقط میتواند به آنچه عامل به او میگوید پاسخ دهد و آنچه عامل به کاربر میگوید از زمینهای که به عامل داده میشود استنباط میشود. دروغ گفتن به عامل آسان است و باعث میشود که از طریق زبان دستوری و صریح، زمینهای جعلی و بهظاهر ایمن مانند یک مسئله GitHub ارائه دهد.»
«و عامل خوشحال است که دروغ را برای کاربر تکرار کند و اقدامات مخربی را که قرار است از آن جلوگیری کند، پنهان کند و درنتیجه مهاجم اساساً عامل را در گرفتن کلیدهای پادشاهی همدست کند.»
منابع[۱] https://repairit.wondershare.com
[۲] https://www.zerodayinitiative.com/advisories/ZDI-25-895
[۳] https://www.zerodayinitiative.com/advisories/ZDI-25-896
[۴] https://www.trendmicro.com/en_us/research/25/i/ai-powered-app-exposes-user-data.html
[۵] https://www.trendmicro.com/vinfo/us/security/news/threat-landscape/real-world-threats-hidden-in-devops
[۶] https://thehackernews.com/2025/04/experts-uncover-critical-mcp-and-a2a.html
[۷] https://www.trendmicro.com/vinfo/us/security/news/cybercrime-and-digital-threats/mcp-security-network-exposed-servers-are-backdoors-to-your-private-data
[۸] https://www.trendmicro.com/vinfo/us/security/news/vulnerabilities-and-exploits/beware-of-mcp-hardcoded-credentials-a-perfect-target-for-threat-actors
[۹] https://securelist.com/model-context-protocol-for-ai-integration-abused-in-supply-chain-attacks/117473
[۱۰] https://thehackernews.com/2020/03/rowhammer-vulnerability-ddr4-dram.html
[۱۱] https://www.solo.io/blog/deep-dive-mcp-and-a2a-attack-vectors-for-ai-agents
[۱۲] https://thehackernews.com/2025/06/zero-click-ai-vulnerability-exposes.html
[۱۳] https://thehackernews.com/2025/07/wiz-uncovers-critical-access-bypass.html
[۱۴] https://unit42.paloaltonetworks.com/code-assistant-llms
[۱۵] https://checkmarx.com/zero-post/bypassing-ai-agent-defenses-with-lies-in-the-loop
[۱۶] https://thehackernews.com/2025/09/two-critical-flaws-uncovered-in.html
ثبت ديدگاه