تضمین امنیت عکس ها در برابر هوش مصنوعی با PhotoGuard

تکنیک PhotoGuard که با ایجاد ماسک‌های نامرئی مانع از تحریف تصاویر توسط سیستم‌های هوش مصنوعی می‌شود.
تکنیک PhotoGuard برای محافظت از عکس ها

تیمی از محققان MIT با نام PhotoGuard یک تکنیک جدید برای حفظ حریم خصوصی افراد در برابر دستکاری تصاویر توسط سیستم‌های هوش مصنوعی طراحی کرده‌اند.

در حال حاضر، مدل‌های تولید تصویر هوش مصنوعی مانند Midjourney و Stable Diffusion، به راحتی می‌توانند برای ویرایش تصاویر موجود استفاده شوند. با افزودن نواحی جدید به عکس از طریق رنگ‌آمیزی، برش دادن اشیا و ترکیب مجدد آن‌ها با اشیا دیگر، مانند گرفتن چهره یک شخص و قرار دادن آن بر روی تصویر دیگری، تصاویر به سادگی تغییر می‌کنند.

اما تکنیک PhotoGuard با ایجاد ماسک‌های نامرئی بر روی تصاویر، جلوی هرگونه دستکاری غیرمجاز تصاویر توسط سیستم‌های هوش مصنوعی مانند Midjourney و Stable Diffusion را می‌گیرد. این تکنیک به حفظ حریم خصوصی افراد کمک می‌کند و از این طریق، تصاویر حساسی که نیاز به حفظ حریم خصوصی دارند، از دسترسی غیرمجاز توسط سیستم‌های هوش مصنوعی محافظت می‌شوند.

دانشمندان MIT با ایجاد تکنیک جدیدی به نام PhotoGuard، یک ماسک محافظ را طراحی کرده‌اند که از دستکاری تصاویر توسط سیستم‌های هوش مصنوعی جلوگیری می‌کند. این ماسک‌ها توسط چشم انسان قابل مشاهده نیستند، اما با تغییر بخشی از پیکسل‌های داخل عکس، خروجی تصویر را برای هوش مصنوعی غیر‌قابل تشخیص می‌کنند.

هدف از طراحی PhotoGuard، بهبود تشخیص دیپ‌فیک‌ها است که ویدیوها یا تصاویر دستکاری شده‌ای هستند که تشخیص آنها از واقعی بسیار دشوار است. با ایمن‌سازی تصویر اصلی، قبل از اینکه دیگران بتوانند به آن دسترسی داشته باشند، امکان اعمال تغییر و ویرایش بر روی آن برای هر کسی دشوار می‌شود.

تکنیک PhotoGuard برای محافظت از عکس ها

PhotoGuard اکنون تحت مجوز MIT در GitHub در دسترس است. این مجوز به PhotoGuard اجازه می‌دهد تا برای مقاصد تجاری از آن استفاده شود، اما این امر مستلزم حفظ حق نسخه‌برداری و سایر اعلامیه‌های مربوط به مجوز است.

محققان در مقاله‌ای نوشته‌اند که اضافه کردن واترمارک کافی نیست، زیرا هنوز هم می‌توان تصاویر را قبل از اضافه شدن واترمارک تغییر داد. با محافظت از تصاویر در برابر دستکاری در وهله اول، می‌توان از وقوع حملات دیپ فیک و ساخت تصاویر جعلی در همان ابتدا جلوگیری کرد.

با رایج‌تر شدن استفاده از مدل‌های تصویر هوش مصنوعی مانند DALL-E و Stable Diffusion، به نظر می‌رسد موارد سوءاستفاده از این مدل‌ها به‌ویژه در رسانه‌های اجتماعی نیز افزایش می‌یابد. به عنوان مثال، کمپین انتخاباتی ران دیسانتیس با استفاده از تصاویر تولید شده توسط هوش مصنوعی، پرزیدنت ترامپ و دکتر فائوچی را در حالتی بحث برانگیز با یکدیگر نشان می‌دهد.

بنابراین، نیاز به شناسایی آثار تولید شده توسط هوش مصنوعی در حال افزایش است. در حالی که تشخیص این تصاویر تولید‌شده برای متخصصان این حوزه آسان است، اما در حال حاضر در جستجوی راه‌حل‌هایی هستیم که بتوانند به همه افراد کمک کنند تا این کار را آسان‌تر انجام دهند. استفاده از ماسک‌های محافظ می‌تواند یکی از این راه‌حل‌ها باشد.

لازم به ذکر است که ماسک‌های محافظ مانند PhotoGuard نمی‌توانند به طور کامل جلوی دستکاری تصاویر توسط هوش مصنوعی را بگیرند، اما می‌توانند به شدت این دستکاری را سخت‌تر کنند و از وقوع حملات دیپ فیک جلوگیری کنند. به همین دلیل، استفاده از این ماسک‌ها می‌تواند به‌عنوان یک ابزار مفید در جلوگیری از تقلب و سوءاستفاده از تصاویر تولید شده توسط هوش مصنوعی مورد استفاده قرار گیرد.

در نهایت، برای جلوگیری از سوءاستفاده از تصاویر تولید شده توسط هوش مصنوعی، لازم است که افراد بیشتری آگاهی پیدا کنند و از ابزارهای مناسبی برای شناسایی تصاویر جعلی و دیپ فیک استفاده کنند. همچنین، توسعه روش‌های جدید و بهبود دادن روش‌های موجود برای تشخیص تصاویر جعلی و دیپ فیک، می‌تواند به مقابله با این مشکل کمک کند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

ما را در شبکه های اجتماعی دنبال کنید

از آخرین اخبار روز جدید ترین هوش مصنوعی ها گرفته تا آخرین بازی های منتشر شده و یا اخبار جدید نرم افزار ها و سیستم عامل و دیگرخبر های روزتکنولوژی دنیا؛ 

همه و همه در شبکه های اجتماعی هایپر بایت!