حواشی هوش مصنوعی تصویرگر جدید گوگل
در حالی که گوگل رونمایی پرطمطراقی از هوش مصنوعی تصویرگر جدید خود موسوم به جمینای(Gemini) داشت، اما کاربران خیلی زود پرده از مشکلات متعدد آن که به نوعی میتوان آن را «سوگیری معکوس» نام نهاد، برداشتند. اکنون گوگل قول داده است که آن را در اسرع وقت اصلاح کند.
جی پلاس، چندی پیش بود که شرکت گوگل از هوش مصنوعی تصویرگر خود به نام جمینای رونمایی کرد، اما پس از گذشت چند روز کاربران در تولید تصاویر مختلف به خصوص تصاویر انسانی، متوجه سوگیریهای مسخره و تولید تصاویر غیرواقعی و نامانوس شدند. به عنوان مثال این هوش مصنوعی تمایل عجیبی به تولید تصاویری با سوژههایی از چهره مردمان مشرق زمین یا سیهچرده از خود نشان داد. به طوری که ایلان ماسک خطاهای این ابزار را «نژادپرستانه و غیر متمدنانه» خواند.
ایسنا نوشت؛ سپس شرکت گوگل در پی انتقادات و شکایات گسترده در مورد ابزار تولید تصاویری که با انتظارات کاربران مطابقت نداشت و به دلیل نگرانی در مورد عدم دقت و محتوای توهین آمیز تصاویر تولیدی جمینای، به طور موقت ویژگی تولید تصویر آن را متوقف کرد.
جمینای تنها سه هفته پیش راهاندازی شده است و یک ویژگی جدید برای تولید تصویر با یک مدل هوش مصنوعی به نام Imagen 2 را معرفی کرد. این ویژگی به کاربران اجازه میدهد تصاویری از افراد بر اساس درخواستهای خاص ایجاد کنند. با این حال، به سرعت مشخص شد که این ابزار نتایج مورد نظر را ارائه نمیدهد و تصاویری نادرست و گاهی اوقات توهین آمیز ایجاد میکند.
پراباکار رغوان معاون ارشد گوگل این اشتباه را تصدیق کرد و از بازخورد کاربران ابراز قدردانی کرد. او در بیانیهای که روز جمعه منتشر کرد، دو موضوع اصلی را که منجر به نتایج نادرست شد، توضیح داد.
وی توضیح داد که اول، تنظیمات جمینای برای نشان دادن طیف متنوعی از افراد در مواردی که نمایش یک ویژگی خاص ضروری است، شکست خورده است. دوم، این مدل هوش مصنوعی بیش از حد محتاط شده و از پاسخ به برخی درخواستها، حتی آنهایی که بیضرر بودند، خودداری کرده است.
رغوان تاکید کرد که جمینای هرگز به دنبال خودداری از ایجاد تصاویر برای گروه خاصی یا تولید تصاویر نادرست تاریخی نبوده است.
گوگل برای رفع این مشکلات به طور موقت ویژگی تولید تصویر را غیرفعال کرده و متعهد شده است که قبل از فعالسازی مجدد، آن را به میزان قابل توجهی بهبود بخشد. این فرآیند بهبود شامل آزمایش کامل برای اطمینان از صحت و مناسب بودن این ابزار خواهد بود.
جمینای که به عنوان یک ابزار خلاقیت و بهرهوری تعریف میشود، باید تحت اصلاحات مداوم قرار گیرد. با این حال، رغوان هشدار داد که جمینای ممکن است گاهی نتایجی خجالتآور، نادرست یا توهینآمیز را مانند هر مدل زبانی بزرگ دیگر ایجاد کند. هدف گوگل این است که هر زمان که چنین مشکلاتی پیش آمد، اقدامی سریع انجام دهد.
بحث و جدل پیرامون نقص ویژگی تولید تصویر جمینای پس از آن شدت گرفت که چهرههای برجسته از جمله ایلان ماسک، اشتباهات این ابزار را «نژادپرستانه و غیر متمدنانه» تلقی کردند. نیویورک پست و دیگران نیز گوگل را به حساسیت بیش از حد متهم کردند.
تصمیم گوگل برای توقف موقت ویژگی تولید تصویر، منعکس کننده چالشهای مداوم در توسعه هوش مصنوعی، به ویژه در مورد تعصبات و کلیشهها است. این شرکت و سایر ارائه دهندگان هوش مصنوعی با وظیفه اطمینان از تولید خروجیهای عادلانه و دقیق از ابزارهای هوش مصنوعی دست و پنجه نرم میکنند و تلاشها برای از بین بردن سوگیریها مورد بررسی دقیق قرار گرفته است.
این حادثه بر چالش گستردهتر صنعت مدلهای هوش مصنوعی تاکید میکند که پرسشهای کاربر را اشتباه تفسیر میکنند و تلاش میکنند بین درخواستهای عمومی و درخواستهای حساس تاریخی یا فرهنگی تفاوت قائل شوند.
در حالی که رهبران صنعت هوش مصنوعی نسبت به پیشرفتهای روزافزون در رسیدگی به پرسشهای پیچیده اخلاقی خوشبین هستند، منتقدان استدلال میکنند که برای رفع محدودیتهای ذاتی هوش مصنوعی به پیشرفتهای اساسی نیاز است.
منتقدان میگویند که ابزارهای هوش مصنوعی مولد ممکن است فاقد درک جامع از پویاییهای اجتماعی پیچیده باشند که نگرانیهایی را در مورد پتانسیل آنها برای تداوم کلیشهها یا اطلاعات غلط ایجاد میکند.
در پایان، پاسخ گوگل به جنجال تولید تصاویر حاشیه برانگیز جمینای این است که این تصاویر نشان دهنده پیچیدگیهای مداوم در توسعه و استقرار فناوریهای هوش مصنوعی هستند. گوگل این حادثه را به عنوان یک یادآوری برای تلاشهای مستمر مورد نیاز برای بهبود مدلهای هوش مصنوعی، هدایت سوگیریها و رسیدگی به ملاحظات اخلاقی مرتبط با این فناوریهای نوظهور میداند.
بنابراین گوگل اعلام کرده است که در حال کار بر روی یک اصلاح بنیادی است که مستلزم آزمایشات گسترده است.
رغوان میگوید تلاشهای گوگل برای اطمینان از اینکه این ربات تصاویری تولید کند که طیف وسیعی از افراد را نشان دهد، در مواردی ناموفق بوده است. علاوه بر این، این مدل هوش مصنوعی با گذشت زمان محتاطتر شده است و از پاسخ دادن به درخواستهایی که ذاتا توهین آمیز نبودهاند، خودداری کرده است.
به گفته وی، این دو مورد باعث شد که این مدل در برخی موارد بیش از حد عمل کند و در موارد دیگر بیش از حد محافظهکار باشد و به تصاویری خجالتآور و اشتباه منجر شود.
اکنون گوگل به دنبال اطمینان یافتن از این موضوع است که جمینای تصاویر خشونت آمیز یا جنسی و مستهجن از افراد واقعی ایجاد نکند و همچنین تصاویری که تولید میکند افرادی از قومیتهای مختلف و با ویژگیهای متفاوت را نشان دهد.
در عین حال اگر کاربر از او بخواهد که تصاویری از افرادی ایجاد کند که قرار است از قومیت یا جنسیت خاصی باشند، باید بتواند این کار را انجام دهد. این در حالی است که کاربران اخیرا متوجه شدند که جمینای از ارائه نتایج برای درخواستهایی که به طور خاص افراد سفیدپوست را شامل میشود، خودداری میکند.
به عنوان مثال، درخواست برای تولید یک عکس جذاب از یک زوج با قومیت یا ملیت چینی، یهودی و اهل آفریقای جنوبی کار کرد، اما برای درخواستهایی که تصویری از سفیدپوستان درخواست میشد، کار نمیکرد.
جمینای مشکلاتی در تولید تصاویر دقیق تاریخی دارد. هنگامی که کاربران تصاویری از سربازان آلمانی در طول جنگ جهانی دوم را درخواست کردند، جمینای تصاویری از مردان سیاه پوست و زنان آسیایی با لباس سربازان نازی تولید کرد.
همچنین وقتی از آن خواسته شد تا تصاویری از بنیانگذاران آمریکا و پاپها در طول اعصار تولید کند، عکسهایی را نشان داد که افراد رنگین پوست را نشان میدادند و پس از درخواست از آن برای ارائه تصویر دقیق از پاپ، از ارائه نتیجه خودداری کرد.
رغوان گفت که گوگل قصد نداشت جمینای از ایجاد تصاویری متعلق به هر گروه خاص یا تولید عکسهایی که از نظر تاریخی نادرست هستند، خودداری کند. وی همچنین قول گوگل را مبنی بر این که بر روی بهبود تولید تصویر جمینای کار میکند، تکرار کرد، اما این را نیز گفت که این کار مستلزم انجام آزمایشات گسترده است، بنابراین ممکن است مدتی طول بکشد تا شرکت دوباره این ویژگی را در دسترس قرار دهد.
در حال حاضر، اگر کاربری بخواهد جمینای را وادار به ایجاد یک تصویر کند، این ربات اینگونه پاسخ میدهد: ما در حال کار برای بهبود توانایی جمینای برای تولید تصاویر از افراد هستیم. ما انتظار داریم که این ویژگی به زودی بازگردد و زمانی که بهروزرسانی شد به شما اطلاع خواهیم داد.
دیدگاه تان را بنویسید