اتحادیه اروپا اولین قانون هوش مصنوعی جهان را تصویب می کند که تشخیص چهره در مکان های عمومی را ممنوع می کند

اتحادیه اروپا (EU) در رقابت برای تنظیم هوش مصنوعی (AI) پیشرو است. با پایان دادن به مذاکرات سه روزه، شورای اروپا و پارلمان اروپا اوایل امروز به یک توافق موقت دست یافتند آنچه قرار است به اولین مقررات جامع هوش مصنوعی در جهان تبدیل شود.
کارمه آرتیگاس، وزیر امور خارجه اسپانیا در بخش دیجیتالی شدن و هوش مصنوعی، در بیانیهای مطبوعاتی این توافق را یک «دستاورد تاریخی» خواند. آرتیگاس گفت که این قوانین “توازن بسیار ظریف” را بین تشویق نوآوری و پذیرش ایمن و قابل اعتماد هوش مصنوعی در سراسر اتحادیه اروپا و محافظت از “حقوق اساسی” شهروندان ایجاد کرده است.
پیش نویس قانون – قانون هوش مصنوعی – برای اولین بار توسط کمیسیون اروپا در آوریل 2021 پیشنهاد شد. پارلمان و کشورهای عضو اتحادیه اروپا به تصویب پیش نویس قانون در سال آینده رای خواهند داد، اما این قوانین تا سال 2025 اجرایی نخواهد شد.
یک رویکرد مبتنی بر ریسک برای تنظیم هوش مصنوعی
قانون هوش مصنوعی با استفاده از یک رویکرد مبتنی بر ریسک طراحی شده است، که در آن هر چه خطر یک سیستم هوش مصنوعی بالاتر باشد، قوانین سختگیرانه تر هستند. برای دستیابی به این هدف، مقررات، هوش مصنوعیها را طبقهبندی میکند تا آنهایی را که دارای «خطر بالا» هستند، شناسایی کند.
هوش مصنوعی هایی که غیرتهدید کننده و کم خطر تلقی می شوند مشمول «تعهدات شفافیت بسیار خفیف» خواهند بود. به عنوان مثال، چنین سیستمهای هوش مصنوعی باید افشا کنند که محتوای آنها توسط هوش مصنوعی تولید شده است تا کاربران بتوانند تصمیمات آگاهانه بگیرند.
برای هوش مصنوعی پرخطر، این قانون تعدادی تعهدات و الزامات را اضافه خواهد کرد، از جمله:
نظارت انسانی: این قانون یک رویکرد انسان محور را الزامی می کند و بر مکانیسم های نظارت انسانی واضح و مؤثر بر سیستم های هوش مصنوعی پرخطر تأکید دارد. این به این معنی است که انسانها در حلقه حضور داشته باشند، به طور فعال بر عملکرد سیستم هوش مصنوعی نظارت و نظارت کنند. نقش آنها شامل حصول اطمینان از عملکرد سیستم به صورت مورد نظر، شناسایی و رسیدگی به آسیب های احتمالی یا پیامدهای ناخواسته و در نهایت مسئولیت پذیری برای تصمیمات و اقدامات آن است.
شفافیت و توضیح پذیری: ابهام زدایی از عملکرد درونی سیستم های هوش مصنوعی پرخطر برای ایجاد اعتماد و اطمینان از مسئولیت پذیری بسیار مهم است. توسعه دهندگان باید اطلاعات واضح و قابل دسترس در مورد نحوه تصمیم گیری سیستم هایشان ارائه دهند. این شامل جزئیات الگوریتم های اساسی، داده های آموزشی و سوگیری های احتمالی است که ممکن است بر خروجی های سیستم تأثیر بگذارد.
حاکمیت داده: قانون هوش مصنوعی بر شیوههای دادههای مسئولانه با هدف جلوگیری از تبعیض، سوگیری و نقض حریم خصوصی تأکید دارد. توسعه دهندگان باید اطمینان حاصل کنند که داده های مورد استفاده برای آموزش و راه اندازی سیستم های هوش مصنوعی پرخطر دقیق، کامل و معرف هستند. اصول کمینه سازی داده ها بسیار مهم است، تنها اطلاعات لازم برای عملکرد سیستم را جمع آوری می کند و خطر سوء استفاده یا نقض را به حداقل می رساند. علاوه بر این، افراد باید حقوق روشنی برای دسترسی، تصحیح و پاک کردن دادههای خود که در سیستمهای هوش مصنوعی استفاده میشوند، داشته باشند و به آنها قدرت کنترل اطلاعات خود و اطمینان از استفاده اخلاقی از آنها را بدهد.
مدیریت ریسک: شناسایی و کاهش ریسک پیشگیرانه به یک نیاز کلیدی برای هوش مصنوعی پرخطر تبدیل خواهد شد. توسعه دهندگان باید چارچوب های مدیریت ریسک قوی را پیاده سازی کنند که به طور سیستماتیک آسیب های احتمالی، آسیب پذیری ها و پیامدهای ناخواسته سیستم هایشان را ارزیابی کند.