گاردریل
گاردریل (Guardrail) مجموعهای از ابزارهای امنیتی است که برای محافظت از دادهها، جلوگیری از سواستفاده از مدلهای هوش مصنوعی، و رعایت استانداردهای اخلاقی در تعاملات و پردازشهای مدلهای زبانی و دیگر خدمات مرتبط با سرویس هوش مصنوعی طراحی شده است. گاردریل به شما این امکان را میدهد که در برابر تولید محتوای ناخواسته، افشای اطلاعات حساس، و تهدیدهای امنیتی محافظت کنید و مطمین شوید که استفاده از مدلهای هوش مصنوعی مطابق با سیاستهای امنیتی و حریم خصوصی است.
مدلهای هوش مصنوعی با دریافت دادههای ورودی از کاربران یاد میگیرند و پاسخ تولید میکنند. این فرآیند ریسکهایی مانند دسترسی غیرمجاز به دادههای حساس یا حملات تزریق پرسش (Prompt Injection) را بهدنبال دارد. گاردریل با ایجاد یک لایهی نظارتی، اطمینان میدهد که خروجی مدلها در چارچوب سیاستهای امنیتی و حریم خصوصی سازمان شما باقی میماند.
قابلیتهای اصلی گاردریل
گاردریل در سرویس هوش مصنوعی آروانکلاد، از سه لایهی حفاظتی تشکیل شده است که با رفتارهایی نظیر پنهانسازی (Mask)، حذف (Redact) و مسدودسازی (Block) عمل میکنند.
۱. حفاظت از دادههای حساس (Sensitive Data Protection)
ای ن قابلیت بهطور خودکار اطلاعات خصوصی کاربران مانند ایمیل، شماره تلفن و کد ملی را شناسایی میکند. بر اساس تنظیمات شما، برخورد گاردریل با این دادهها میتواند یکی از موارد زیر باشد:
- پنهانسازی (Mask): جایگزینی بخشی از داده با کاراکترهای خاص.
- حذف (Redact): پاک کردن کامل داده از متن.
- مسدودسازی (Block): جلوگیری از ارسال کل پیام حاوی اطلاعات حساس به مدل.
۲. مقابله با جیلبریک و تزریق پرسش (Jailbreak & Prompt Injection)
در این نوع حملات، کاربر تلاش میکند با فریب دادن مدل، محدودیتهای ایمنی آن را دور بزند یا دستورات مخربی را اجرا کند. گاردریل با شناسایی الگوهای مشکوک، این درخواستها را مسدود (Block) کرده و از پردازش آنها جلوگیری میکند.