اوپن آ آی به رهبری سم آلتمن، معتقد است سیستم های هوش مصنوعی در ۱۰ سال آینده در مهارت های مختلف خبره می شوند و می توانند فعالیت ها را با بهره وری بالاتری نسبت به بزرگ ترین شرکت های امروز انجام دهند.
اوپن آ آی در یک پست وبلاگی دلایلش برای قانونمندسازی هوش مصنوعی را توضیح داده و نوشته است: نظارت بر قدرتمندترین سیستم ها و همچنین تصمیم گیری در خصوص به کارگیری چنین سیستم هایی باید همراه نظارت عمومی قدرتمند باشد. ما معتقدیم مردم سراسر جهان باید به طور دموکراتیک درباره مرزها و قصورهای مربوط به سیستم های هوش مصنوعی تصمیم بگیرند.
در ادامه آمده است: ما هنوز نمی دانیم چنین مکانیسمی را چطور طراحی کنیم اما قصد داریم به طور آزمایشی آن را توسعه دهیم.
پست وبلاگی مذکور توسط سم آلتمن (بنیانگذار)، گرگ بروکمن (رییس شرکت) و ایلیا سوتسکور (محقق ارشد) شرکت اوپن آ آی نوشته شده است. در این پست ابر هوشمندی را با انرژی هسته ای مقایسه و پیشنهاد شده یک سازمان مشابه آژانس بین المللی انرژی اتمی برای کاهش ریسک های هوش مصنوعی ایجاد شود.
اوپن آ آی یک برنامه سه مرحله ای برای کاهش ریسک سیستم های هوش مصنوعی ابر هوشمند آینده پیشنهاد کرده که عبارت است از:
۱- هماهنگی میان توسعه دهندگان هوش مصنوعی: در پست وبلاگی اوپن آ آی پیشنهاد شده شرکت هایی که سیستم های هوش مصنوعی مانند بارد (متعلق به گوگل) و بینگ (موتور جستجوی مایکروسافت) می سازند، باید به طور هماهنگ برای تضمین ایجاد سیستم های ابر هوشمند ایمن تلاش و به یکپارچگی این سیستم ها در جامعه کمک کنند.
سازنده چت جی پی تی دو روش برای هماهنگی پیشنهاد کرده است که عبارتند از اینکه دولت های سراسر جهان با همکاری تولیدکنندگان برتر هوش مصنوعی یک سیستم رگولاتوری بسازند یا این شرکت ها می توانند با همکاری یکدیگر رشد هوش مصنوعی را به ازای نرخی سالانه محدود کنند.
۲- یک رگولاتور بین المللی: اوپن آ آی همچنین پیشنهاد کرده یک سازمان بین المللی جدید مانند سازمان انرژی اتمی تاسیس شود تا ریسک های فعلی سیستم های هوش مصنوعی ابر هوشمند کاهش یابد. این شرکت معتقد است سازمان رگولاتوری پیشنهادی باید اختیار بررسی سیستم ها، اجرای بازبینی، تست برای همخوانی با استانداردهای ایمنی، وضع محدودیت بر میزان به کارگیری سیستم و سطح امنیت را داشته باشد.
سیتنا