وبیون
جستجو
این کادر جستجو را ببندید.

تکنیک محافظت از تصاویر در برابر دستکاری هوش مصنوعی

تکنیک محافظت از تصاویر در برابر دستکاری هوش مصنوعی توسط محققان MIT توسعه یافت که با تغییر پیکسل ها و ایجاد تصاویر جعلی تدابیر حفاظتی صورت میگیرد.

به گزارش وبیون، محققان MIT تکنیک محافظت از تصاویر در برابر دستکاری هوش مصنوعی را توسعه دادند.

مدل‌های هوش مصنوعی زیادی وجود دارند که می‌توانند تصاویر را دستکاری کنند. ازاین‌رو، محققان دانشگاه MIT تکنیک جدیدی موسوم به PhotoGuard را توسعه داده‌اند که می‌تواند از تغییر تصاویر توسط این فناوری جلوگیری کند. این تکنیک به نحوی عکس‌ها را برای هوش مصنوعی مخدوش می‌کند که توسط چشم انسان قابل مشاهده نیست.

به گزارش انگجت، محققان آزمایشگاه علوم کامپیوتر و هوش مصنوعی مؤسسه فناوری ماساچوست (MIT) سیستمی به نام PhotoGuard ساخته‌اند که بخشی از پیکسل‌های درون تصویر را عوض می‌کند تا هوش مصنوعی نتواند محتوای عکس را متوجه شود. این «اختلال‌ها» با چشم انسان دیده نمی‌شوند، اما کامپیوتر می‌تواند آن‌ها را تشخیص دهد.

PhotoGuard به دو روش جلوی دستکاری های هوش مصنوعی را می گیرد

سازوکار اول موجب افزودن عناصری به تصویر می‌شود که درک مدل هوش مصنوعی از اطلاعات مخفی موجود در عکس را هدف قرار می‌گیرد. این اطلاعات پیچیده ریاضی همان داده‌هایی هستند که موقعیت و رنگ دقیق هر پیکسل را در تصویر مشخص می‌کنند. با این تغییرات، هوش مصنوعی عملاً نمی‌تواند متوجه شود که دارد به چه چیزی نگاه می‌کند.

تکنیک محافظت از تصاویر در برابر دستکاری هوش مصنوعی

محققان سازوکار دیگری را هم معرفی کرده‌اند که یک تصویر را در چشم هوش مصنوعی به یک تصویر دیگر تبدیل می‌کند. در این روش تصویر اصلی به‌نوعی زیر یک تصویر جعلی قرار می‌گیرد و تمام دستکاری‌های هوش مصنوعی، روی تصویر جعلی انجام می‌شود. بنابراین تصویر اصلی در برابر تغییر مصون خواهد ماند.

پژوهشگران می‌گویند این تدابیر ایمنی شکست‌ناپذیر نیستند و هکرها می‌توانند آن‌ها را دور بزنند، اما حداقل تا حدی به کاربران کمک خواهند کرد تا از عکس‌های خود محافظت کنند. «هادی سلمان»، دانشجوی مقطع دکتری دانشگاه MIT و محقق ارشد این پروژه می‌گوید:

«همکاری توسعه‌دهندگان مدل‌های هوش مصنوعی، پلتفرم‌های شبکه‌های اجتماعی و سیاست‌گذاران می‌تواند به ایجاد سازوکاری مستحکم برای مقابله با دستکاری غیرمجاز تصاویر کمک کند. تلاش برای حل این مسئله امروز اهمیت بسیار زیادی پیدا کرده است. هرچند که من از کمک به توسعه این راهکار خوشحالم، اما همچنان کارهای زیادی باید برای ایجاد تدابیر حفاظتی مناسب صورت بگیرد. شرکت‌هایی که این مدل‌های هوش مصنوعی را توسعه می‌دهند، باید روی ساخت سازوکارهای ایمن‌سازی محتواها در برابر تهدیدات ناشی از این ابزارها سرمایه‌گذاری کنند.»

نتیجه تلاش‌های صورت‌گرفته در این پروژه به‌صورت مقاله‌ای در وب‌سایت arXiv منتشر شده است.

منبع: دیجیاتو

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اشتراک گذاری