اتاق فکر بریتانیا استدلال می کند که رهبری هوش مصنوعی در گزارش جدید به مقررات مؤثر بستگی دارد


دولت بریتانیا قصد دارد این کشور را به عنوان یک رهبر جهانی در هوش مصنوعی معرفی کند، اما کارشناسان استدلال میکنند که مقررات مؤثر برای تحقق این چشمانداز ضروری است.
گزارش اخیر مؤسسه Ada Lovelace تجزیه و تحلیل عمیقی از نقاط قوت و ضعف مدل حاکمیت AI پیشنهادی بریتانیا ارائه می دهد.
بر اساس این گزارش، دولت در نظر دارد به جای معرفی قوانین جامع، «رویکردی مبتنی بر متن و بخش» را برای تنظیم هوش مصنوعی اتخاذ کند و به قانونگذاران موجود برای اجرای اصول جدید تکیه کند.
در حالی که موسسه از توجه به ایمنی هوش مصنوعی استقبال می کند، اما معتقد است مقررات داخلی برای اعتبار و آرزوهای رهبری بریتانیا در صحنه بین المللی اساسی است.
مقررات جهانی هوش مصنوعی
با این حال، همانطور که بریتانیا رویکرد نظارتی هوش مصنوعی خود را توسعه می دهد، سایر کشورها نیز چارچوب های حاکمیتی را اجرا می کنند. چین اخیراً اولین مقررات خود را که به طور خاص بر سیستم های هوش مصنوعی مولد حاکم است رونمایی کرده است. همانطور که توسط CryptoSlate، قوانین تنظیم کننده اینترنت چین در ماه آگوست اعمال می شود و برای سرویس های قابل دسترس عموم نیاز به مجوز دارد. آنها همچنین پیروی از “ارزش های سوسیالیستی” و اجتناب از محتوای ممنوعه در چین را الزامی می کنند. برخی از کارشناسان این رویکرد را به عنوان بیش از حد محدودکننده انتقاد می کنند که منعکس کننده استراتژی نظارت تهاجمی چین و تمرکز صنعتی بر توسعه هوش مصنوعی است.
چین به کشورهای دیگر ملحق می شود و همزمان با گسترش این فناوری در سطح جهان، شروع به اجرای مقررات ویژه هوش مصنوعی می کند. اتحادیه اروپا و کانادا در حال تدوین قوانین جامعی هستند که ریسک ها را کنترل می کند، در حالی که ایالات متحده دستورالعمل های اخلاقی داوطلبانه هوش مصنوعی را صادر کرد. با پیشرفت هوش مصنوعی، قوانین خاصی مانند کشورهای نمایشی چین با ایجاد تعادل بین نوآوری و نگرانی های اخلاقی دست و پنجه نرم می کنند. همراه با تجزیه و تحلیل بریتانیا، بر چالشهای پیچیده تنظیم مؤثر فناوریهای در حال تکامل سریع مانند هوش مصنوعی تأکید میکند.
اصول اصلی طرح هوش مصنوعی دولت بریتانیا
همانطور که موسسه Ada Lovelace گزارش داد، طرح دولت شامل پنج اصل سطح بالا – ایمنی، شفافیت، انصاف، پاسخگویی و جبران خسارت – است که تنظیمکنندههای بخش خاص آنها را تفسیر و در حوزههای خود اعمال میکنند. عملکردهای جدید دولت مرکزی از طریق نظارت بر ریسک ها، پیش بینی تحولات و هماهنگی پاسخ ها از تنظیم کننده ها حمایت می کند.
با این حال، گزارش شکاف های قابل توجهی را در این چارچوب، با پوشش اقتصادی نابرابر استدلال می کند. بسیاری از مناطق فاقد نظارت آشکار هستند، از جمله خدمات دولتی مانند آموزش، که در آن استقرار سیستمهای هوش مصنوعی در حال افزایش است.
تحلیل حقوقی این موسسه نشان میدهد افرادی که تحت تأثیر تصمیمهای هوش مصنوعی قرار میگیرند ممکن است از حفاظت یا مسیرهای کافی برای مبارزه با آنها بر اساس قوانین فعلی برخوردار نباشند.
این گزارش تقویت مقررات اساسی، به ویژه قانون حفاظت از داده ها، و شفاف سازی مسئولیت های تنظیم کننده در بخش های غیرقانونی را برای رفع این نگرانی ها توصیه می کند. این استدلال میکند که تنظیمکنندهها از طریق تأمین مالی، قدرتهای حسابرسی فنی و مشارکت جامعه مدنی به قابلیتهای گستردهتری نیاز دارند. اقدامات فوری بیشتری در مورد خطرات در حال ظهور از “مدل های بنیاد” قدرتمند مانند GPT-3 مورد نیاز است.
به طور کلی، این تحلیل بر ارزش توجه دولت به ایمنی هوش مصنوعی تاکید می کند، اما معتقد است که مقررات داخلی برای آرمان های آن ضروری است. در حالی که به طور گسترده از رویکرد پیشنهادی استقبال می کند، پیشرفت های عملی را پیشنهاد می کند تا چارچوب با مقیاس چالش مطابقت داشته باشد. اگر بریتانیا ضمن کاهش خطرات، نوآوری هوش مصنوعی را تشویق کند، حکمرانی مؤثر بسیار مهم خواهد بود.
با تسریع پذیرش هوش مصنوعی، مؤسسه استدلال می کند که مقررات باید اطمینان حاصل کند که سیستم ها قابل اعتماد هستند و توسعه دهندگان پاسخگو هستند. در حالی که همکاری بین المللی ضروری است، نظارت داخلی معتبر احتمالاً پایه و اساس رهبری جهانی خواهد بود. از آنجایی که کشورهای سراسر جهان با هوش مصنوعی حاکم دست و پنجه نرم می کنند، این گزارش بینش هایی را در مورد به حداکثر رساندن مزایای هوش مصنوعی از طریق مقررات دوراندیشی با محوریت تأثیرات اجتماعی ارائه می دهد.
دیدگاهتان را بنویسید