تیمی از محققان MIT با نام PhotoGuard یک تکنیک جدید برای حفظ حریم خصوصی افراد در برابر دستکاری تصاویر توسط سیستمهای هوش مصنوعی طراحی کردهاند.
در حال حاضر، مدلهای تولید تصویر هوش مصنوعی مانند Midjourney و Stable Diffusion، به راحتی میتوانند برای ویرایش تصاویر موجود استفاده شوند. با افزودن نواحی جدید به عکس از طریق رنگآمیزی، برش دادن اشیا و ترکیب مجدد آنها با اشیا دیگر، مانند گرفتن چهره یک شخص و قرار دادن آن بر روی تصویر دیگری، تصاویر به سادگی تغییر میکنند.
اما تکنیک PhotoGuard با ایجاد ماسکهای نامرئی بر روی تصاویر، جلوی هرگونه دستکاری غیرمجاز تصاویر توسط سیستمهای هوش مصنوعی مانند Midjourney و Stable Diffusion را میگیرد. این تکنیک به حفظ حریم خصوصی افراد کمک میکند و از این طریق، تصاویر حساسی که نیاز به حفظ حریم خصوصی دارند، از دسترسی غیرمجاز توسط سیستمهای هوش مصنوعی محافظت میشوند.
دانشمندان MIT با ایجاد تکنیک جدیدی به نام PhotoGuard، یک ماسک محافظ را طراحی کردهاند که از دستکاری تصاویر توسط سیستمهای هوش مصنوعی جلوگیری میکند. این ماسکها توسط چشم انسان قابل مشاهده نیستند، اما با تغییر بخشی از پیکسلهای داخل عکس، خروجی تصویر را برای هوش مصنوعی غیرقابل تشخیص میکنند.
هدف از طراحی PhotoGuard، بهبود تشخیص دیپفیکها است که ویدیوها یا تصاویر دستکاری شدهای هستند که تشخیص آنها از واقعی بسیار دشوار است. با ایمنسازی تصویر اصلی، قبل از اینکه دیگران بتوانند به آن دسترسی داشته باشند، امکان اعمال تغییر و ویرایش بر روی آن برای هر کسی دشوار میشود.
PhotoGuard اکنون تحت مجوز MIT در GitHub در دسترس است. این مجوز به PhotoGuard اجازه میدهد تا برای مقاصد تجاری از آن استفاده شود، اما این امر مستلزم حفظ حق نسخهبرداری و سایر اعلامیههای مربوط به مجوز است.
محققان در مقالهای نوشتهاند که اضافه کردن واترمارک کافی نیست، زیرا هنوز هم میتوان تصاویر را قبل از اضافه شدن واترمارک تغییر داد. با محافظت از تصاویر در برابر دستکاری در وهله اول، میتوان از وقوع حملات دیپ فیک و ساخت تصاویر جعلی در همان ابتدا جلوگیری کرد.
با رایجتر شدن استفاده از مدلهای تصویر هوش مصنوعی مانند DALL-E و Stable Diffusion، به نظر میرسد موارد سوءاستفاده از این مدلها بهویژه در رسانههای اجتماعی نیز افزایش مییابد. به عنوان مثال، کمپین انتخاباتی ران دیسانتیس با استفاده از تصاویر تولید شده توسط هوش مصنوعی، پرزیدنت ترامپ و دکتر فائوچی را در حالتی بحث برانگیز با یکدیگر نشان میدهد.
بنابراین، نیاز به شناسایی آثار تولید شده توسط هوش مصنوعی در حال افزایش است. در حالی که تشخیص این تصاویر تولیدشده برای متخصصان این حوزه آسان است، اما در حال حاضر در جستجوی راهحلهایی هستیم که بتوانند به همه افراد کمک کنند تا این کار را آسانتر انجام دهند. استفاده از ماسکهای محافظ میتواند یکی از این راهحلها باشد.
لازم به ذکر است که ماسکهای محافظ مانند PhotoGuard نمیتوانند به طور کامل جلوی دستکاری تصاویر توسط هوش مصنوعی را بگیرند، اما میتوانند به شدت این دستکاری را سختتر کنند و از وقوع حملات دیپ فیک جلوگیری کنند. به همین دلیل، استفاده از این ماسکها میتواند بهعنوان یک ابزار مفید در جلوگیری از تقلب و سوءاستفاده از تصاویر تولید شده توسط هوش مصنوعی مورد استفاده قرار گیرد.
در نهایت، برای جلوگیری از سوءاستفاده از تصاویر تولید شده توسط هوش مصنوعی، لازم است که افراد بیشتری آگاهی پیدا کنند و از ابزارهای مناسبی برای شناسایی تصاویر جعلی و دیپ فیک استفاده کنند. همچنین، توسعه روشهای جدید و بهبود دادن روشهای موجود برای تشخیص تصاویر جعلی و دیپ فیک، میتواند به مقابله با این مشکل کمک کند.