یکی از مقامات FBI به تازگی بیان کرده است که مدلهای زبانی هوش مصنوعی، یکی از عوامل اصلی در گسترش بدافزار و حملات سایبری در فضای مجازی محسوب میشوند. او بیان کرده است که قابلیت کدنویسی و تولید بدافزار توسط هوش مصنوعی مولد، این تکنولوژی را به یک ابزار قدرتمند برای هکرها تبدیل کرده است.
دفتر تحقیقات فدرال (FBI) اخیراً اعلام کرده است که هوش مصنوعی به طور گسترده در تمام جنبههای فعالیتهای مجرمانه سایبری، از زمان توسعه بدافزارها تا استقرار و انتشار آنها، به کمک مجرمان میآید.
یکی از مقامات FBI در یک تماس با رسانههای آمریکایی بیان کرده است که مدلهای زبانی منبع باز، که رایگان و قابل تنظیم هستند، در میان هکرهایی که به دنبال گسترش بدافزار، انجام حملات فیشینگ و سایر انواع کلاهبرداری هستند، به طور فزایندهای محبوب شدهاند.
همچنین، آمده است که بدافزارهایی که با استفاده از هوش مصنوعی تولید میشوند، در فضای مجازی به صورت رو به افزایشی در حال گسترش هستند. این بدافزارها به صورت هدفمند برای حمله به کاربران آسیبپذیر اینترنت طراحی شدهاند.
استفاده از هوش مصنوعی در بدافزار ها و حملات سایبری
Yahoo گزارش داده است که مقامات FBI به این باورند که هوش مصنوعی مولد، به دلیل تواناییهایی که در زمینه کدنویسی دارد، میتواند یک منبع جذاب برای تولید بدافزار توسط هکرها باشد. در حال حاضر، دهها مدل زبانی هوش مصنوعی با قابلیت کدنویسی وجود دارد که میتوانند به یک ابزار تولید و رفع مشکل کد برای هکرها تبدیل شوند.
به علاوه، گزارشهای FBI نشان میدهد که مدلهای زبانی مذکور، نه تنها قابلیت توسعه بدافزار را دارند، بلکه میتوانند برای کسانی که قبلاً این مهارت را نداشتهاند، یک دروازه ورود به این حوزه باشند.
FBI هشدار داده است که راهاندازی مدلهای چند وجهی مانند GPT-4، باعث شده تا هکرها توانایی تولید ویدئوهای دیپ فیک، نزدیک به واقعیت را کسب کنند و با استفاده از این تکنولوژی، قربانیان را مجبور به پرداخت هزینههایی در برابر اطلاعات حساس و غیره کنند.
در اوایل سال جاری، شرکت متا از یک هوش مصنوعی جالب به نام Voicebox رونمایی کرد که توانایی تبدیل متن به گفتار بر اساس یک کلیپ صوتی چند ثانیهای را داشت.
در همان زمان، محققان شرکت متا اعلام کردند که به دلیل نگرانیهایی که مربوط به سوءاستفاده از هوش مصنوعی Voicebox بود، این تکنولوژی فعلاً در دسترس عموم قرار نخواهد گرفت.