تهدید جدید هوش مصنوعی شناسایی شد
یک مطالعه تازه در مورد افزایش موارد کلاهبرداری با استفاده از تقلید صدای تولید شده از طریق هوش مصنوعی هشدار داده است.
جی پلاس، مطالعهای در کالج دانشگاهی لندن نشان داده است که بیش از یک چهارم صداهای تقلید شده با استفاده از ابزار موسوم به "Deepfake"، موفق شده اند حتی تیزترین و با تمرکزترین شنوندگان را فریب دهند.
باشگاه خبرنگاران جوان نوشت؛ به گفته محققان کالج دانشگاهی لندن، بیش از ۵۰۰ نفر که برای تشخیص صداهای واقعی از صداهای تقلیدی آموزش دیده بودند، توانستند تنها ۷۳ درصد از صداهای تقلید شده را در طول مطالعه تشخیص دهند.
این مطالعه با استفاده از دو زبان انگلیسی و چینی انجام شد که در آن درصدهای به دست آمده برای هر دو زبان مشابه بود؛ اما این تیم تحقیقاتی دریافت که انگلیسی زبانان صدای انسان از صدای جعلی را از طریق ریتم تنفس تشخیص میدهند، در حالی که چینیها از طریق ریتم، سرعت و روانی گفتار، موفق به تشخیص شدند.
طبق گزارشات موجود، در برهه اخیر از صداهای جعلی برای کلاهبرداری از مردم و گرفتن پول از آنها با معرفی خود به عنوان دوست یا شریک تجاری و درخواست از قربانی برای انتقال پول استفاده میشود.
پیشرفتهای اخیر در فناوری هوش مصنوعی، نگرانیهایی را در مورد احتمال وقوع کلاهبرداریهای گسترده، به ویژه با توانایی برنامههای هوش مصنوعی برای تقلید صدا با دقت بالا، افزایش داده است.
گروهی از محققان دانشگاه لندن هشدار داده اند که در نتیجه پیشرفت فناوری، تولید یک کپی تقریبا واقعی از صدای هر شخصی با استفاده از ضبط چند کلمه از صدای او ممکن شده است.
محققان گفتند که نتایج این مطالعه ممکن است به طور صد در صد واقعیت را منعکس نکند، زیرا شرکت کنندگان در مطالعه، حتی آنهایی که آموزش ندیده بودند، میدانستند که بخشی از یک آزمایش هستند و بنابراین بیشتر بر روی تشخیص صداهای تقلیدی تمرکز کردند.
بیشتر تلاشها برای مبارزه با کلاهبرداری از طریق تقلید صدا، در حال حاضر بر استفاده از سیستمهای هوش مصنوعی برای شناسایی صداهای جعلی متمرکز است که در همان سطح عملکرد افراد شرکتکننده در آزمایش دانشگاه عمل کرده اند، اما در مقایسه با افرادی که نمیدانستند در حال آزمایش هستند، عملکرد بهتری دارند.
محققان تأکید کرده اند که با توجه به پیشرفت چشمگیر در تکنیکهای تقلید صدا، توسعه ابزارهای پیشرفتهتر برای تشخیص این صداهای جعلی ضروری است.
دیدگاه تان را بنویسید