Ilya Sutskever، یکی از بنیانگذاران OpenAI، شرکت هوش مصنوعی را راه اندازی می کند که بیش از همه بر ایمنی تمرکز دارد

ادغام Fetch، SingularityNET و Ocean Protocol در نیروگاه هوش مصنوعی در ژوئن نهایی می شود

Ilya Sutskever، یکی از بنیانگذاران OpenAI و دانشمند ارشد سابق، اعلام کرد که در حال راه اندازی یک شرکت هوش مصنوعی جدید است که در درجه اول بر روی توسعه یک “ابر هوش ایمن” تمرکز خواهد کرد.

بر اساس اعلامیه 19 ژوئن، دانیل لوی، عضو سابق OpenAI و دانیل گراس، رهبر سابق هوش مصنوعی اپل نیز از بنیانگذاران شرکتی هستند که Safe Superintelligence Inc. نامیده می شود.

به گفته این شرکت، ابرهوش “در دسترس” است و اطمینان از “ایمن” بودن آن برای انسان ها “مهم ترین چالش فنی عصر ما” است.

این شرکت افزود که قصد دارد یک “آزمایشگاه ابرهوش ایمن (SSI)” با فناوری به عنوان تنها محصول و ایمنی هدف اصلی خود باشد. اضافه کرد:

“ما در حال جمع آوری یک تیم ناب و شکست خورده از بهترین مهندسان و محققان جهان هستیم که بر روی SSI تمرکز می کنند و هیچ چیز دیگری.”

Safe Superintelligence Inc. اعلام کرد که قصد دارد قابلیت‌ها را در سریع‌ترین زمان ممکن و در عین حال ایمنی را ارتقا دهد. رویکرد متمرکز شرکت به این معنی است که مدیریت، سربار، فشارهای تجاری کوتاه مدت و چرخه محصول، آن را از هدف خود منحرف نخواهد کرد.

“به این ترتیب، ما می توانیم در صلح مقیاس.”

این شرکت افزود که سرمایه گذاران با رویکرد اولویت دادن به توسعه ایمن بر هر چیز دیگری موافق هستند.

در مصاحبه ای با بلومبرگ، Sutskever از ذکر نام حامیان مالی یا بیان مبلغ جمع آوری شده تا کنون خودداری کرد، در حالی که گراس به طور گسترده اظهار نظر کرد و گفت که “افزایش سرمایه قرار نیست” مشکلی برای شرکت باشد.

Safe Superintelligence Inc در پالو آلتو، کالیفرنیا، با دفاتری در تل آویو، اسرائیل مستقر خواهد شد.

راه اندازی به دنبال نگرانی های ایمنی در OpenAI است

راه اندازی Safe Superintelligence به دنبال اختلاف در OpenAI رخ می دهد. Sutskever بخشی از گروهی بود که در نوامبر 2023 سعی در برکناری مدیر عامل OpenAI سم آلتمن از سمت خود داشت.

گزارش‌های اولیه، از جمله آتلانتیک، حاکی از این بود که ایمنی یک نگرانی در شرکت در زمان مناقشه بوده است. در همین حال، یک یادداشت داخلی شرکت حاکی از آن بود که تلاش برای اخراج آلتمن به قطع ارتباط بین او و هیئت مدیره شرکت مربوط می شود.

Sutskever ماه ها پس از این حادثه انظار عمومی را ترک کرد و چند هفته پیش در ماه می رسماً Open AI را ترک کرد. او هیچ دلیلی برای جدایی خود ذکر نکرد، اما تحولات اخیر در شرکت هوش مصنوعی، موضوع ایمنی هوش مصنوعی را به منصه ظهور رسانده است.

یان لیک و گرچن کروگر، کارکنان OpenAI اخیراً شرکت را ترک کردند و دلیل آن نگرانی در مورد ایمنی هوش مصنوعی بود. در همین حال، گزارش‌های Vox حاکی از آن است که حداقل پنج کارمند دیگر که از نظر ایمنی آگاه هستند، از نوامبر ترک کرده‌اند.

در مصاحبه ای با بلومبرگ، ساتسکور گفت که رابطه خوبی با آلتمن دارد و گفت که OpenAI از شرکت جدید “در سطح وسیع” آگاه است.

در این مقاله ذکر شده است