اتاق فکر بریتانیا استدلال می کند که رهبری هوش مصنوعی در گزارش جدید به مقررات مؤثر بستگی دارد

Upland: برلین اینجاست!

دولت بریتانیا قصد دارد این کشور را به عنوان یک رهبر جهانی در هوش مصنوعی معرفی کند، اما کارشناسان استدلال می‌کنند که مقررات مؤثر برای تحقق این چشم‌انداز ضروری است.

گزارش اخیر مؤسسه Ada Lovelace تجزیه و تحلیل عمیقی از نقاط قوت و ضعف مدل حاکمیت AI پیشنهادی بریتانیا ارائه می دهد.

بر اساس این گزارش، دولت در نظر دارد به جای معرفی قوانین جامع، «رویکردی مبتنی بر متن و بخش» را برای تنظیم هوش مصنوعی اتخاذ کند و به قانون‌گذاران موجود برای اجرای اصول جدید تکیه کند.

در حالی که موسسه از توجه به ایمنی هوش مصنوعی استقبال می کند، اما معتقد است مقررات داخلی برای اعتبار و آرزوهای رهبری بریتانیا در صحنه بین المللی اساسی است.

مقررات جهانی هوش مصنوعی

با این حال، همانطور که بریتانیا رویکرد نظارتی هوش مصنوعی خود را توسعه می دهد، سایر کشورها نیز چارچوب های حاکمیتی را اجرا می کنند. چین اخیراً اولین مقررات خود را که به طور خاص بر سیستم های هوش مصنوعی مولد حاکم است رونمایی کرده است. همانطور که توسط CryptoSlate، قوانین تنظیم کننده اینترنت چین در ماه آگوست اعمال می شود و برای سرویس های قابل دسترس عموم نیاز به مجوز دارد. آنها همچنین پیروی از “ارزش های سوسیالیستی” و اجتناب از محتوای ممنوعه در چین را الزامی می کنند. برخی از کارشناسان این رویکرد را به عنوان بیش از حد محدودکننده انتقاد می کنند که منعکس کننده استراتژی نظارت تهاجمی چین و تمرکز صنعتی بر توسعه هوش مصنوعی است.

چین به کشورهای دیگر ملحق می شود و همزمان با گسترش این فناوری در سطح جهان، شروع به اجرای مقررات ویژه هوش مصنوعی می کند. اتحادیه اروپا و کانادا در حال تدوین قوانین جامعی هستند که ریسک ها را کنترل می کند، در حالی که ایالات متحده دستورالعمل های اخلاقی داوطلبانه هوش مصنوعی را صادر کرد. با پیشرفت هوش مصنوعی، قوانین خاصی مانند کشورهای نمایشی چین با ایجاد تعادل بین نوآوری و نگرانی های اخلاقی دست و پنجه نرم می کنند. همراه با تجزیه و تحلیل بریتانیا، بر چالش‌های پیچیده تنظیم مؤثر فناوری‌های در حال تکامل سریع مانند هوش مصنوعی تأکید می‌کند.

اصول اصلی طرح هوش مصنوعی دولت بریتانیا

همانطور که موسسه Ada Lovelace گزارش داد، طرح دولت شامل پنج اصل سطح بالا – ایمنی، شفافیت، انصاف، پاسخگویی و جبران خسارت – است که تنظیم‌کننده‌های بخش خاص آن‌ها را تفسیر و در حوزه‌های خود اعمال می‌کنند. عملکردهای جدید دولت مرکزی از طریق نظارت بر ریسک ها، پیش بینی تحولات و هماهنگی پاسخ ها از تنظیم کننده ها حمایت می کند.

با این حال، گزارش شکاف های قابل توجهی را در این چارچوب، با پوشش اقتصادی نابرابر استدلال می کند. بسیاری از مناطق فاقد نظارت آشکار هستند، از جمله خدمات دولتی مانند آموزش، که در آن استقرار سیستم‌های هوش مصنوعی در حال افزایش است.

تحلیل حقوقی این موسسه نشان می‌دهد افرادی که تحت تأثیر تصمیم‌های هوش مصنوعی قرار می‌گیرند ممکن است از حفاظت یا مسیرهای کافی برای مبارزه با آنها بر اساس قوانین فعلی برخوردار نباشند.

این گزارش تقویت مقررات اساسی، به ویژه قانون حفاظت از داده ها، و شفاف سازی مسئولیت های تنظیم کننده در بخش های غیرقانونی را برای رفع این نگرانی ها توصیه می کند. این استدلال می‌کند که تنظیم‌کننده‌ها از طریق تأمین مالی، قدرت‌های حسابرسی فنی و مشارکت جامعه مدنی به قابلیت‌های گسترده‌تری نیاز دارند. اقدامات فوری بیشتری در مورد خطرات در حال ظهور از “مدل های بنیاد” قدرتمند مانند GPT-3 مورد نیاز است.

به طور کلی، این تحلیل بر ارزش توجه دولت به ایمنی هوش مصنوعی تاکید می کند، اما معتقد است که مقررات داخلی برای آرمان های آن ضروری است. در حالی که به طور گسترده از رویکرد پیشنهادی استقبال می کند، پیشرفت های عملی را پیشنهاد می کند تا چارچوب با مقیاس چالش مطابقت داشته باشد. اگر بریتانیا ضمن کاهش خطرات، نوآوری هوش مصنوعی را تشویق کند، حکمرانی مؤثر بسیار مهم خواهد بود.

با تسریع پذیرش هوش مصنوعی، مؤسسه استدلال می کند که مقررات باید اطمینان حاصل کند که سیستم ها قابل اعتماد هستند و توسعه دهندگان پاسخگو هستند. در حالی که همکاری بین المللی ضروری است، نظارت داخلی معتبر احتمالاً پایه و اساس رهبری جهانی خواهد بود. از آنجایی که کشورهای سراسر جهان با هوش مصنوعی حاکم دست و پنجه نرم می کنند، این گزارش بینش هایی را در مورد به حداکثر رساندن مزایای هوش مصنوعی از طریق مقررات دوراندیشی با محوریت تأثیرات اجتماعی ارائه می دهد.