دانشمندان هوش مصنوعی «طرح اضطراری» را در صورتی که انسان کنترل هوش مصنوعی را از دست بدهد، توصیه می‌کند

دانشمندان هوش مصنوعی «طرح اضطراری» را در صورتی که انسان کنترل هوش مصنوعی را از دست بدهد، توصیه می‌کند

گروهی از دانشمندان هوش مصنوعی از کشورها می خواهند تا در صورت از دست دادن کنترل هوش مصنوعی، یک سیستم نظارت جهانی ایجاد کنند تا از “نتایج فاجعه بار” بالقوه جلوگیری کنند.

در بیانیه ای که در 16 سپتامبر منتشر شد، گروهی از دانشمندان بانفوذ هوش مصنوعی این نگرانی را مطرح کردند که در صورت از بین رفتن کنترل انسان، فناوری ای که به توسعه آنها کمک کردند می تواند آسیب جدی به همراه داشته باشد.

در این بیانیه پیش از ادامه آمده است: «از دست دادن کنترل انسانی یا استفاده مخرب از این سیستم‌های هوش مصنوعی می‌تواند منجر به نتایج فاجعه‌باری برای کل بشریت شود.

متأسفانه، ما هنوز علم لازم را برای کنترل و حفاظت از استفاده از چنین اطلاعات پیشرفته ای ایجاد نکرده ایم.»

دانشمندان توافق کردند که کشورها باید مقاماتی را توسعه دهند تا حوادث هوش مصنوعی و خطرات فاجعه آمیز را در حوزه قضایی خود شناسایی و به آنها پاسخ دهند و یک “طرح اضطراری جهانی” باید ایجاد شود.

در بلندمدت، دولت‌ها باید یک رژیم حکمرانی بین‌المللی ایجاد کنند تا از توسعه مدل‌هایی که می‌توانند خطرات فاجعه‌بار جهانی را به همراه داشته باشند، جلوگیری کنند.»

این بیانیه بر اساس یافته‌های گفتگوی بین‌المللی درباره ایمنی هوش مصنوعی در ونیز در اوایل سپتامبر، سومین نشست از نوع خود که توسط گروه تحقیقاتی غیرانتفاعی ایالات متحده Safe AI Forum برگزار شد، استوار است.

پروفسور جیلیان هادفیلد دانشگاه جانز هاپکینز، که به اشتراک گذاشته شده است بیانیه ای که در پستی در X منتشر شد، می گوید: “اگر شش ماه آینده دچار نوعی فاجعه شده بودیم، اگر متوجه شویم مدل هایی وجود دارند که به طور مستقل شروع به خودسازی کرده اند، با چه کسی تماس می گیرید؟”

منبع: گیلیان هادفیلد

آنها اظهار داشتند که ایمنی هوش مصنوعی به عنوان یک کالای عمومی جهانی شناخته شده است که نیاز به همکاری و حکومت بین المللی دارد.

توسعه‌دهندگان هوش مصنوعی سه فرآیند کلیدی را پیشنهاد کردند: موافقت‌نامه‌ها و مؤسسات آمادگی اضطراری، چارچوب تضمین ایمنی، و تحقیقات مستقل ایمنی و تأیید هوش مصنوعی جهانی.

مرتبط: ایلان ماسک از قوانین ایمنی فراگیر هوش مصنوعی حمایت می کند

این بیانیه بیش از 30 امضاکننده از ایالات متحده، کانادا، چین، بریتانیا، سنگاپور و سایر کشورها داشت. این گروه متشکل از کارشناسانی از موسسات و دانشگاه‌های پیشرو در زمینه هوش مصنوعی و چندین برنده جایزه تورینگ، معادل جایزه نوبل برای محاسبات بود.

دانشمندان گفتند که این گفت و گو به دلیل کاهش تبادل علمی بین ابرقدرت ها و افزایش بی اعتمادی بین ایالات متحده و چین ضروری است و این امر بر دشواری دستیابی به اجماع در مورد تهدیدات هوش مصنوعی می افزاید.

در اوایل ماه سپتامبر، ایالات متحده، اتحادیه اروپا و بریتانیا اولین معاهده بین المللی هوش مصنوعی الزام آور قانونی را امضا کردند که حقوق بشر و مسئولیت پذیری را در مقررات هوش مصنوعی در اولویت قرار می دهد.

با این حال، شرکت های فناوری و مدیران اجرایی گفته اند که مقررات بیش از حد می تواند نوآوری را به ویژه در اتحادیه اروپا خفه کند.

مجله: طرح “منظره جهنمی” پهپاد هوش مصنوعی برای تایوان، LLM ها برای نابودی بشریت احمقانه تر از آن هستند: AI Eye