پایگاه اطلاع رسانی و خبری جماران -تهران

جی پلاس / وقتی هوش مصنوعی همه چیز را بهم می ریزد

نگرانی از یک اتفاق غیرمنتظره در انتخابات ریاست جمهوری!

دنیای سیاست به واسطه تکنولوژی و هوش مصنوعی، وارد فضایی با خطوط ممنوعه کمتری شده که می‌تواند همراه با سوءاستفاده و یا استفاده نا به جا باشد!

گروه علم و فناوری: شورای روابط خارجی ایالات متحده نوشت: همان طور که انتظار می‌رفت در ماه آوریل سال 2023، رئیس جمهور بایدن با انتشار یک ویدئو به صورت رسمی کمپین تبلیغاتی شرکت دوباره خود در انتخابات را آغاز کرد. در آن سوی صحنه، در همان روز، کمیته ملی حزب جمهوری‌خواه در یک تبلیغ سی ثانیه‌ایی به این کار پاسخ داد؛ مبنی بر این که این یعنی ادامه روند جرائم بیشتر، مرزهای باز، جنگ با چین و بن‌بست اقتصادی.

هر چند در نگاه نخست این تنها یک حمله تبلیغاتی به نظر می‌رسد ولی مهم این است که تمام تصاویر این تبلیغ به وسیله هوش مصنوعی تولید شده بود. علیرغم شفافیت حزب جمهوری خواه مبنی بر استفاده از هوش مصنوعی در این تبلیغ، اما در هر صورت این بدان معناست که دنیای سیاست وارد فضایی با خطوط ممنوعه  کمتری شده است که می‌تواند همراه با سوءاستفاده و یا استفاده نا به جا باشد!

در سال 2018 رابرت چسنی و دانیل سیترون در مجله فارین افیرز در مقاله‌ایی با عنوان «جعل عمیق (دیپ فیک) و جنگ جدید اطلاعات ناصحیح» پیش بینی کردند که توزیع آبشاری اطلاعات از طریق رسانه‌ها می‌تواند اعتماد به رسانه‌های سنتی را از بین ببرد و ارتقاء باورپذیری در پیام‌های تولید شده مبتنی بر فناوری جعل عمیق می‌تواند طوفانی از انتشار اطلاعات سوء و نادرست پدید بیاورد و حالا پیش‌بینی آنها به وقوع پیوسته است.

در ژانویه سال گذشته ویدئویی از رئیس‌جمهور بایدن در شبکه ایکس منتشر شد که از طرف او اعلام می‌کرد او در حال تهیه پیش‌نویسی است که براساس آن آمریکایی‌ها برای جنگ باید به اوکراین اعزام شوند. در ابتدا این فیلم با یک زیرنویس بود که خاطرنشان می‌کرد این ویدئو به وسیله هوش مصنوعی تولید شده است، ولی سرعت چرخش خیلی بالا، باعث نادیده گرفته شدن این اعلام شد که این نشان می‌دهد به چه آسانی اطلاعات سوء قابل انتشار است.

اگرچه منظر نگاه چسنی و دانیل در آن سال تمرکز بر تهدید بهره‌گیری از فناوری جعل عمیق به وسیله روسیه و سازمان‌های تروریستی بود، اما حالا این کار سختی نیست که ببینیم این فناوری، دنیای تبلیغات سیاسی را از ریل خارج کند.

حتی فارغ از توانایی هوش مصنوعی در تولید تصاویر، کمپین‌های تبلیغاتی می‌توانند با دستکاری عکس‌ها نوع عملکردشان را تغییر دهند. به عنوان مثال در سال 2015 معلوم شد کمپین مک کین با دستکاری تصاویر باراک اوباما تلاش کرده است چهره‌ایی تیره از او نشان دهد.  

و حالا یکی از مخاطره‌ها این است که این تصاویر می‌تواند علیه گروه‌های آسیب‌پذیر مانند اقلیت‌ها، زنان یا جوامع ال جی بی تی به کار گرفته شود. در مطالعه‌ایی که در زمان انتخابات کنگره آمریکا در سال  2020 به وسیله مرکز دموکراسی و فناوری انجام شد، نشان داد که زنان رنگین پوست دو برابر بیشتر در معرض خطر تبلیغات سوء برخط قرار دارند.

هند از جمله کشورهایی است که در آن از فناوری جعل عمیق به عنوان سلاحی علیه زنان سیاستمدار و روزنامه‌نگار به کار گرفته می‌شود. شکل غالب این حمله، قرار دادن تصویر یا ویدئو فعالان زن روی محتواهای پورن و چرخش آن در فضای مجازی است. فناوری جعل عمیق به آسانی قادر به جنسی کردن هویت زنان سیاستمدار و تاثیرگذار است که تحقیقات نشان داده است این امر می‌تواند اعتبارشان را تخریب کند.

از دیگر سو رواج هر چه بیشتر فناوری جعل عمیق باعث می‌شود سیاستمداران با یک بیان ساده که این محتوا به وسیله هوش مصنوعی تولید شده است، حتی از پاسخگویی به مواردی که در برابر آن مسئول هستند شانه خالی کنند.

در پاسخ به این پرسش‌ها شبکه‌های اجتماعی شروع به اعمال قوانینی درباره استفاده از فناوری جعل عمیق کرده‌اند اما مشکل در اعمال این موارد به محتواهای مربوط به دنیای سیاست است. به عنوان مثال شرکت متا استفاده از فناوری جعل عمیق را در سکوهای خود ممنوع کرده است؛ اما همچنان به سیاست عدم صحت سنجی محتواهای سیاستمداران پایبند است.

تیک تاک نیز بهره گیری از فناوری جعل عمیق را برای تمام تصاویر شخصی ممنوع کرده است، اما در ارتباط با تصاویر عمومی این سیاست در صورتی اعمال می‌شود که محتوای تولیدی نقض کننده سایر قوانین این برنامه -مانند انتشار سخنرانی‌های نفرت انگیر- باشد و بهره گیری از فناوری جعل عمیق برای تصاویر عمومی با اهداف هنری یا آموزشی مجاز است.

گام‌هایی برای جلوگیری از این آسیب‌ها در حال برنامه‌ریزی است. از جمله این که به تازگی کاخ سفید میزبان اعضاء هیات مدیره شرکت‌های حوزه هوش مصنوعی بوده است. متعاقب این نشست یک برنامه عمل برای مسئولیت‌پذیری در برابر محتواهای مبتنی بر نوآوری هوش مصنوعی تنظیم شده است. علاوه بر این کمیته زیرمجموعه حریم قضایی، فناوری و قانون نیز یک جلسه استماع در مورد آثار سوء هوش مصنوعی بر انتخابات سال 2024 برگزار کرده است اما هیچ یک از این اقدامات، مسئولیت سنگین دولت در قانونمند کردن این حوزه برای پیشگیری از آسیب‌های احتمالی را منتفی نمی‌کند.

انتهای پیام
این مطلب برایم مفید است
0 نفر این پست را پسندیده اند

موضوعات داغ

نظرات و دیدگاه ها

مسئولیت نوشته ها بر عهده نویسندگان آنهاست و انتشار آن به معنی تایید این نظرات نیست.