اوپن‌ای‌آی، شرکت هوش مصنوعی سازنده چت‌جی‌پی‌تی، هشدار داد که ظهور هوش مصنوعی که از انسان‌ها جلو می‌زند، اجتناب‌ناپذیر است.

جی پلاس، فیلسوفان و دانشگاهیان دهه‌ها درباره هوش مصنوعی جامع که به عنوان ابرهوش نیز شناخته می‌شود، نظریه‌پردازی کرده‌اند، با این حال چهره‌های ارشد اوپن‌‌ای‌آی هشدار دادند که پیشرفت‌های سریع سال‌های اخیر موجب شده‌‌اند احتمالا اکنون در آستانه آن باشیم.

سم آلتمن، گرگ براکمن و ایلیا سوتسکور از اوپن‌ای‌آی در یک پست وبلاگی که روز چهارشنبه منتشر شد، گفتند که ابرهوش مصنوعی از لحاظ توان خود بی‌نظیر خواهد بودــ هم از جنبه مثبت و هم منفی.

در این پست آمده است: «با توجه به تصویری که اینک می‌بینیم، می‌توان تصور کرد که ظرف ۱۰ سال آینده، سیستم‌های هوش مصنوعی در اغلب زمینه‌ها از سطح مهارت‌های تخصصی فراتر روند و به اندازه یکی از بزرگ‌ترین شرکت‌های امروزی، فعالیت‌های مولد کالا و خدمات انجام دهند.»

«هم از نظر جنبه‌های مثبت احتمالی و هم منفی، ابرهوش از سایر فناوری‌هایی که بشر در گذشته مجبور به ستیز و رقابت با آن‌ها بوده است، قدرتمندتر خواهد بود.»

اوپن‌ای‌آی سه راه به بشریت ارائه کرد که می‌تواند با آن از پس شرایط سخت ورود ابرهوش برآید؛ اگرچه به قانون‌گذاران و نهادهای قانونی در قبال تلاش برای متوقف کردن آن هشدار داد.

این پست هشدار داد: «ما بر این باوریم که متوقف کردن ایجاد ابرهوش به طور غیرمستقیم خطرناک و دشوار خواهد بود.»

«از آنجایی که نقاط مثبت آن فوق‌العاده زیاد است، هزینه ساخت آن سالانه کاهش می‌یابد و تعداد عوامل سازنده آن به‌سرعت در حال افزایش‌اند و این به طور ذاتی بخشی از مسیر فناورانه‌ای است که ما در آن قرار داریم. توقف آن به چیزی شبیه یک رژیم نظارت جهانی نیاز دارد و حتی آن هم ضمانتی نیست که جواب بدهد. از این رو باید آن را درست انجام دهیم.»

آلتمن هفته پیش در جلسه استماع کنگره با پرسش‌ سناتورهای ایالات متحده در خصوص خطراتی که هوش مصنوعی پیشرفته ایجاد می‌کند، روبرو شد.

این مرد ۳۸ ساله درباره حریم خصوصی، فناوری و قانون به کمیته فرعی سنا گفت بر این باور است که چت‌بات‌های مبتنی بر هوش مصنوعی مانند چت‌جی‌پی‌تی «زمینه جدی برای نگرانی» به شمار می‌روند و برای جلوگیری از سوء‌استفاده، به قوانین و دستورالعمل‌هایی نیاز دارند.

کوری بوکر، سناتور دموکرات، اذعان کرد: «برای برگرداندن این غول به درون چراغ جادو هیچ راهی وجود ندارد [کار از کار گذشته‌ است]. به طور کلی این در حال انفجار است.»

آلتمن گفت یکی از راه‌های احتمالی جلوگیری از آسیب‌های هوش مصنوعی از جمله دستکاری در انتخابات، معرفی الزامات مجوز و آزمایش به منظور توسعه هوش مصنوعی است.

به گفته اوپن‌اِی‌آی، یک حالت [اجرای این کار] از طریق ایجاد یک سازمان اعطای مجوز به هوش مصنوعی در ایالات متحده است که دفتر ایمنی زیرساخت و امنیت هوش مصنوعی «اوسیس» (Office for AI Safety and Infrastructure Security/ Oasis) خوانده می‌شود. 

 

انتهای پیام
این مطلب برایم مفید است
0 نفر این پست را پسندیده اند
نظرات و دیدگاه ها

مسئولیت نوشته ها بر عهده نویسندگان آنهاست و انتشار آن به معنی تایید این نظرات نیست.