اوپنایآی، شرکت هوش مصنوعی سازنده چتجیپیتی، هشدار داد که ظهور هوش مصنوعی که از انسانها جلو میزند، اجتنابناپذیر است.
فیلسوفان و دانشگاهیان دههها درباره هوش مصنوعی جامع که به عنوان ابرهوش نیز شناخته میشود، نظریهپردازی کردهاند، با این حال چهرههای ارشد اوپنایآی هشدار دادند که پیشرفتهای سریع سالهای اخیر موجب شدهاند احتمالا اکنون در آستانه آن باشیم.
سم آلتمن، گرگ براکمن و ایلیا سوتسکور از اوپنایآی در یک پست وبلاگی که روز چهارشنبه منتشر شد، گفتند که ابرهوش مصنوعی از لحاظ توان خود بینظیر خواهد بودــ هم از جنبه مثبت و هم منفی.
در این پست آمده است: «با توجه به تصویری که اینک میبینیم، میتوان تصور کرد که ظرف ۱۰ سال آینده، سیستمهای هوش مصنوعی در اغلب زمینهها از سطح مهارتهای تخصصی فراتر روند و به اندازه یکی از بزرگترین شرکتهای امروزی، فعالیتهای مولد کالا و خدمات انجام دهند.»
«هم از نظر جنبههای مثبت احتمالی و هم منفی، ابرهوش از سایر فناوریهایی که بشر در گذشته مجبور به ستیز و رقابت با آنها بوده است، قدرتمندتر خواهد بود.»
اوپنایآی سه راه به بشریت ارائه کرد که میتواند با آن از پس شرایط سخت ورود ابرهوش برآید؛ اگرچه به قانونگذاران و نهادهای قانونی در قبال تلاش برای متوقف کردن آن هشدار داد.
این پست هشدار داد: «ما بر این باوریم که متوقف کردن ایجاد ابرهوش به طور غیرمستقیم خطرناک و دشوار خواهد بود.»
«از آنجایی که نقاط مثبت آن فوقالعاده زیاد است، هزینه ساخت آن سالانه کاهش مییابد و تعداد عوامل سازنده آن بهسرعت در حال افزایشاند و این به طور ذاتی بخشی از مسیر فناورانهای است که ما در آن قرار داریم. توقف آن به چیزی شبیه یک رژیم نظارت جهانی نیاز دارد و حتی آن هم ضمانتی نیست که جواب بدهد. از این رو باید آن را درست انجام دهیم.»
آلتمن هفته پیش در جلسه استماع کنگره با پرسش سناتورهای ایالات متحده در خصوص خطراتی که هوش مصنوعی پیشرفته ایجاد میکند، روبرو شد.
این مرد ۳۸ ساله درباره حریم خصوصی، فناوری و قانون به کمیته فرعی سنا گفت بر این باور است که چتباتهای مبتنی بر هوش مصنوعی مانند چتجیپیتی «زمینه جدی برای نگرانی» به شمار میروند و برای جلوگیری از سوءاستفاده، به قوانین و دستورالعملهایی نیاز دارند.
کوری بوکر، سناتور دموکرات، اذعان کرد: «برای برگرداندن این غول به درون چراغ جادو هیچ راهی وجود ندارد [کار از کار گذشته است]. به طور کلی این در حال انفجار است.»
آلتمن گفت یکی از راههای احتمالی جلوگیری از آسیبهای هوش مصنوعی از جمله دستکاری در انتخابات، معرفی الزامات مجوز و آزمایش به منظور توسعه هوش مصنوعی است.
به گفته اوپناِیآی، یک حالت [اجرای این کار] از طریق ایجاد یک سازمان اعطای مجوز به هوش مصنوعی در ایالات متحده است که دفتر ایمنی زیرساخت و امنیت هوش مصنوعی «اوسیس» (Office for AI Safety and Infrastructure Security/ Oasis) خوانده میشود.