در حالی که یکی از بازیگران مشهور هالیوود از تشابه صدای مورد استفاده توسط هوش مصنوعی ChatGPT به صدای خود انتقاد کرده بود، شرکت اوپنایآی اکنون اعلام کرده است که این صدا را از هوش مصنوعی خود حذف میکند.
به گزارش جماران؛ روز گذشته اسکارلت جوهانسون بازیگر هالیوودی، شرکت اوپنایآی را متهم کرد که صدایی را برای هوش مصنوعی ChatGPT خود ایجاد کرده است که به طرز عجیبی شبیه به صدای اوست و این احتمالا به این دلیل است که او قبلا از مشارکت در صدابخشی به این هوش مصنوعی خودداری کرده است.
ایسنا نوشت؛ شرکت اوپنایآی(OpenAI) نیز با اینکه با نظر کاربران مبنی بر تشابه صدای هوش مصنوعی با صدای این بازیگر مخالف بود، اکنون اعلام کرده است که این صدا را حذف خواهد کرد.
گفتنی است که صدای اسکارلت جوهانسون در فیلمی به نام «Her» به عنوان صدای یک ربات گفتگوگر هوش مصنوعی استفاده شده بود و به احتمال فراوان استفاده از صدایی شبیه به او توسط شرکت اوپنایآی به همین دلیل و در واقع یک تکنیک تبلیغاتی بوده است.
اوپنایآی به شدت این صدا موسوم به اسکای(Sky) را برای ChatGPT تبلیغ کرده بود و آن را در یک رویداد مهم اخیر برای نشان دادن قابلیتهای مدل جدید هوش مصنوعی ChatGPT-4o به نمایش گذاشت.
این صدا که جذاب و زنانه توصیف میشود، به سرعت با صدای جوهانسون به عنوان دستیار هوش مصنوعی در فیلم Her (ساخته شده در سال ۲۰۱۳) مقایسه شد.
این شباهت واکنشهای گستردهای را از سوی کاربران و رسانهها برانگیخت و واکنشهای شدیدی را در پی داشت.
توضیحات اوپنایآی
در پاسخ به این هیاهو، سم آلتمن، مدیر عامل اوپنایآی بیانیهای منتشر کرد که در آن توضیح داد که صدای Sky تقلیدی از صدای جوهانسون نیست.
آلتمن در ایمیلی به خبرگزاری رویترز نوشت: صدای اسکای تقلیدی از اسکارلت جوهانسون نیست، بلکه متعلق به یک هنرپیشه حرفهای دیگر است که از صدای طبیعی خود استفاده کرده است.
او تاکید کرد که این شرکت برای صنعت صداپیشگی ارزش قائل است و به مشارکت همه صداپیشگان خود احترام میگذارد.
وی در ادامه گفت: ما سؤالاتی در مورد نحوه انتخاب صداها در ChatGPT به ویژه Sky شنیدهایم و در حال تلاش برای توقف استفاده از Sky در حین رسیدگی به آنها هستیم.
شرکت اوپنایآی برای شفافسازی بیشتر، یک پست وبلاگی را منتشر کرد که در آن جزئیات فرآیند ایجاد صدای Sky را توضیح داد. در این پست نوشته شده بود: صدای اسکای صدای اسکارلت جوهانسون نیست و هرگز قرار نبود شبیه صدای او باشد. ما قبل از هر گونه تماسی با خانم جوهانسون، صداپیشه را برای صدای اسکای انتخاب کرده بودیم.
این شرکت همچنین اشاره کرد که نمیتواند هویت صداپیشه را برای حفظ حریم خصوصی وی فاش کند.
پاسخ جوهانسون
اسکارلت جوهانسون در بیانیهای تأیید کرد که سم آلتمن در ماه سپتامبر با پیشنهادی برای صداپیشگی یکی از شخصیتهای ChatGPT با او تماس گرفته که او آن را رد کرده است.
جوهانسون غافلگیری و ناامیدی خود را از انتشار Sky ابراز کرد و گفت: حالا 9 ماه بعد، دوستان، خانواده و عموم مردم متوجه شدند که جدیدترین صدای این سیستم به نام «اسکای» چقدر شبیه به صدای من است.
وی افزود: وقتی دموی منتشر شده را شنیدم، شوکه شدم، عصبانی شدم و در ناباوری از اینکه آقای آلتمن صدایی را دنبال کرده که به طرز وحشتناکی شبیه به صدای من است، طوری که نزدیکترین دوستانم و خبرگزاریها نمیتوانند تفاوت آن را با صدای من تشخیص دهند، شوکه شدم.
جوهانسون همچنین اشاره کرد که از اشاره آلتمن به او در یک توییت به نظر میرسد که این شباهت عمدی بوده است.
وی افزود که توئیت تک کلمهای آلتمن که کلمه «Her» را نوشته بود، نشانه واضحی بود که طراحی صدای اسکای به صورت عمدی شخصیت من را در آن فیلم تقلید میکند.
مفاهیم حقوقی و صنعتی
این حادثه نگرانیهای جاری در هالیوود را در مورد حقوق صداها و تصاویر بازیگران، بهویژه با پیشرفت فناوری هوش مصنوعی برجسته میکند.
جوهانسون اظهار داشت که او یک مشاور حقوقی برای بررسی روند ایجاد صدای Sky استخدام کرده است.
آنچه شاهد آن هستیم، این است که مبارزه بر سر این حقوق در حال تشدید شدن است و اتحادیههای بزرگ سرگرمی بر سر مسائل مربوط به استفاده از هوش مصنوعی در فکر اعتصاب هستند.
مدل جدید اوپنایآی و فرآیند انتخاب صدا
با وجود این حواشی و اختلاف نظرها، راهاندازی مدل GPT-4o توسط شرکت اوپنایآی در هفته گذشته، پیشرفت قابل توجهی در فناوری هوش مصنوعی بود. این مدل جدید شامل قابلیتهای صوتی است که امکان برقراری مکالمات واقعی و در لحظه و انسانمانند را با کاربران فراهم میکند.
شرکت اوپنایآی ادعا کرد که گزینههای صوتی ChatGPT را بر اساس معیارهایی مانند قابلیت دسترسی انتخاب کرده است و هدف آن صداهایی است که اعتماد را تداعی میکنند. این شرکت صدها مورد ارسالی را در طول پنج ماه بررسی کرد و در نهایت پنج گزینه صوتی را انتخاب کرد و جلسات ضبط را در سانفرانسیسکو برگزار کرد.
آشفتگی داخلی در اوپنایآی
علاوه بر چالشهای موجود اوپنایآی، این شرکت با استعفای چندین نفر از اعضای ارشد تیم ایمنی از جمله محقق اصلی خود به نام جان لیک(Jan Leike) و آشفتگی داخلی مواجه شده است.
لیک از این شرکت به دلیل اولویت دادن به «محصولات چشمپرکن» بر فرهنگ و فرآیندهای ایمنی انتقاد کرد.
آلتمن و یکی از بنیانگذاران اوپنایآی به نام گرگ براکمن نیز در مقام دفاع گفتند که در صورت وجود نگرانیهای ایمنی، محصولی را منتشر نخواهند کرد.