دنیای سیاست به واسطه تکنولوژی و هوش مصنوعی، وارد فضایی با خطوط ممنوعه کمتری شده که میتواند همراه با سوءاستفاده و یا استفاده نا به جا باشد!
گروه علم و فناوری: شورای روابط خارجی ایالات متحده نوشت: همان طور که انتظار میرفت در ماه آوریل سال 2023، رئیس جمهور بایدن با انتشار یک ویدئو به صورت رسمی کمپین تبلیغاتی شرکت دوباره خود در انتخابات را آغاز کرد. در آن سوی صحنه، در همان روز، کمیته ملی حزب جمهوریخواه در یک تبلیغ سی ثانیهایی به این کار پاسخ داد؛ مبنی بر این که این یعنی ادامه روند جرائم بیشتر، مرزهای باز، جنگ با چین و بنبست اقتصادی.
هر چند در نگاه نخست این تنها یک حمله تبلیغاتی به نظر میرسد ولی مهم این است که تمام تصاویر این تبلیغ به وسیله هوش مصنوعی تولید شده بود. علیرغم شفافیت حزب جمهوری خواه مبنی بر استفاده از هوش مصنوعی در این تبلیغ، اما در هر صورت این بدان معناست که دنیای سیاست وارد فضایی با خطوط ممنوعه کمتری شده است که میتواند همراه با سوءاستفاده و یا استفاده نا به جا باشد!
در سال 2018 رابرت چسنی و دانیل سیترون در مجله فارین افیرز در مقالهایی با عنوان «جعل عمیق (دیپ فیک) و جنگ جدید اطلاعات ناصحیح» پیش بینی کردند که توزیع آبشاری اطلاعات از طریق رسانهها میتواند اعتماد به رسانههای سنتی را از بین ببرد و ارتقاء باورپذیری در پیامهای تولید شده مبتنی بر فناوری جعل عمیق میتواند طوفانی از انتشار اطلاعات سوء و نادرست پدید بیاورد و حالا پیشبینی آنها به وقوع پیوسته است.
در ژانویه سال گذشته ویدئویی از رئیسجمهور بایدن در شبکه ایکس منتشر شد که از طرف او اعلام میکرد او در حال تهیه پیشنویسی است که براساس آن آمریکاییها برای جنگ باید به اوکراین اعزام شوند. در ابتدا این فیلم با یک زیرنویس بود که خاطرنشان میکرد این ویدئو به وسیله هوش مصنوعی تولید شده است، ولی سرعت چرخش خیلی بالا، باعث نادیده گرفته شدن این اعلام شد که این نشان میدهد به چه آسانی اطلاعات سوء قابل انتشار است.
اگرچه منظر نگاه چسنی و دانیل در آن سال تمرکز بر تهدید بهرهگیری از فناوری جعل عمیق به وسیله روسیه و سازمانهای تروریستی بود، اما حالا این کار سختی نیست که ببینیم این فناوری، دنیای تبلیغات سیاسی را از ریل خارج کند.
حتی فارغ از توانایی هوش مصنوعی در تولید تصاویر، کمپینهای تبلیغاتی میتوانند با دستکاری عکسها نوع عملکردشان را تغییر دهند. به عنوان مثال در سال 2015 معلوم شد کمپین مک کین با دستکاری تصاویر باراک اوباما تلاش کرده است چهرهایی تیره از او نشان دهد.
و حالا یکی از مخاطرهها این است که این تصاویر میتواند علیه گروههای آسیبپذیر مانند اقلیتها، زنان یا جوامع ال جی بی تی به کار گرفته شود. در مطالعهایی که در زمان انتخابات کنگره آمریکا در سال 2020 به وسیله مرکز دموکراسی و فناوری انجام شد، نشان داد که زنان رنگین پوست دو برابر بیشتر در معرض خطر تبلیغات سوء برخط قرار دارند.
هند از جمله کشورهایی است که در آن از فناوری جعل عمیق به عنوان سلاحی علیه زنان سیاستمدار و روزنامهنگار به کار گرفته میشود. شکل غالب این حمله، قرار دادن تصویر یا ویدئو فعالان زن روی محتواهای پورن و چرخش آن در فضای مجازی است. فناوری جعل عمیق به آسانی قادر به جنسی کردن هویت زنان سیاستمدار و تاثیرگذار است که تحقیقات نشان داده است این امر میتواند اعتبارشان را تخریب کند.
از دیگر سو رواج هر چه بیشتر فناوری جعل عمیق باعث میشود سیاستمداران با یک بیان ساده که این محتوا به وسیله هوش مصنوعی تولید شده است، حتی از پاسخگویی به مواردی که در برابر آن مسئول هستند شانه خالی کنند.
در پاسخ به این پرسشها شبکههای اجتماعی شروع به اعمال قوانینی درباره استفاده از فناوری جعل عمیق کردهاند اما مشکل در اعمال این موارد به محتواهای مربوط به دنیای سیاست است. به عنوان مثال شرکت متا استفاده از فناوری جعل عمیق را در سکوهای خود ممنوع کرده است؛ اما همچنان به سیاست عدم صحت سنجی محتواهای سیاستمداران پایبند است.
تیک تاک نیز بهره گیری از فناوری جعل عمیق را برای تمام تصاویر شخصی ممنوع کرده است، اما در ارتباط با تصاویر عمومی این سیاست در صورتی اعمال میشود که محتوای تولیدی نقض کننده سایر قوانین این برنامه -مانند انتشار سخنرانیهای نفرت انگیر- باشد و بهره گیری از فناوری جعل عمیق برای تصاویر عمومی با اهداف هنری یا آموزشی مجاز است.
گامهایی برای جلوگیری از این آسیبها در حال برنامهریزی است. از جمله این که به تازگی کاخ سفید میزبان اعضاء هیات مدیره شرکتهای حوزه هوش مصنوعی بوده است. متعاقب این نشست یک برنامه عمل برای مسئولیتپذیری در برابر محتواهای مبتنی بر نوآوری هوش مصنوعی تنظیم شده است. علاوه بر این کمیته زیرمجموعه حریم قضایی، فناوری و قانون نیز یک جلسه استماع در مورد آثار سوء هوش مصنوعی بر انتخابات سال 2024 برگزار کرده است اما هیچ یک از این اقدامات، مسئولیت سنگین دولت در قانونمند کردن این حوزه برای پیشگیری از آسیبهای احتمالی را منتفی نمیکند.