اگر OpenAI به AGI نزدیکتر شده باشد، یک برداشت منطقی از سناریوی «روز قیامت» SkyNet

فیلم های پرفروش هالیوود به طور معمول هوش مصنوعی سرکش را به تصویر می کشند که علیه بشریت می چرخند. با این حال، روایت دنیای واقعی در مورد خطراتی که هوش مصنوعی ایجاد می‌کند بسیار کمتر هیجان‌انگیز اما به‌طور قابل توجهی مهم‌تر است. ترس از یک هوش مصنوعی دانا که شکست ناپذیر را بشکند و به بشریت اعلان جنگ کند، سینمای بزرگی را ایجاد می کند، اما خطرات ملموس را بسیار نزدیک به خانه پنهان می کند.

من قبلاً در مورد اینکه چگونه انسان‌ها قبل از رسیدن به هوش مصنوعی با هوش مصنوعی آسیب بیشتری می‌رسانند صحبت کرده‌ام. با این حال، در اینجا، من می خواهم چند افسانه رایج در مورد خطرات AGi را از طریق یک لنز مشابه رد کنم.

افسانه هوش مصنوعی شکستن رمزگذاری قوی.

بیایید با از بین بردن یک استعاره محبوب هالیوود شروع کنیم: این ایده که هوش مصنوعی پیشرفته رمزگذاری قوی را می شکند و با انجام این کار، دست برتر را بر بشریت به دست می آورد.

حقیقت این است که توانایی هوش مصنوعی برای رمزگشایی رمزگذاری قوی به طور قابل توجهی محدود است. در حالی که هوش مصنوعی پتانسیل را در تشخیص الگوهای درون داده های رمزگذاری شده نشان داده است، که نشان می دهد برخی از طرح های رمزگذاری می توانند آسیب پذیر باشند، این سناریوی آخرالزمانی که اغلب به تصویر کشیده می شود، فاصله زیادی دارد. پیشرفت‌های اخیر، مانند شکستن الگوریتم رمزگذاری پس کوانتومی CRYSTALS-Kyber، از طریق ترکیبی از آموزش بازگشتی هوش مصنوعی و حملات کانال جانبی به دست آمد، نه از طریق قابلیت‌های مستقل هوش مصنوعی.

تهدید واقعی ناشی از هوش مصنوعی در امنیت سایبری گسترش چالش های فعلی است. هوش مصنوعی می‌تواند برای تقویت حملات سایبری مانند فیشینگ نیزه استفاده شود. این روش‌ها پیچیده‌تر می‌شوند و به هکرها اجازه می‌دهند به طور مؤثرتری به شبکه‌ها نفوذ کنند. نگرانی یک حاکم هوش مصنوعی مستقل نیست، بلکه سوء استفاده انسانی از هوش مصنوعی در نقض امنیت سایبری است. علاوه بر این، پس از هک شدن، سیستم‌های هوش مصنوعی می‌توانند یاد بگیرند و برای تحقق اهداف مخرب به طور مستقل سازگار شوند و شناسایی و مقابله با آن‌ها سخت‌تر شود.

هوش مصنوعی در حال فرار به اینترنت برای تبدیل شدن به یک فراری دیجیتالی است.

این ایده که ما می توانیم به سادگی یک هوش مصنوعی سرکش را خاموش کنیم آنقدرها هم که به نظر می رسد احمقانه نیست.

الزامات سخت افزاری عظیم برای اجرای یک مدل هوش مصنوعی بسیار پیشرفته به این معنی است که نمی تواند مستقل از نظارت و کنترل انسان وجود داشته باشد. برای اجرای سیستم‌های هوش مصنوعی مانند GPT4 به قدرت محاسباتی فوق‌العاده، انرژی، نگهداری و توسعه نیاز دارد. اگر بخواهیم امروز به AGI دست یابیم، هیچ راه عملی برای «فرار» این هوش مصنوعی به اینترنت وجود نخواهد داشت، همانطور که اغلب در فیلم ها می بینیم. باید به طریقی به مزرعه های سرور معادل دسترسی پیدا کند و بدون شناسایی اجرا شود، که به سادگی امکان پذیر نیست. این واقعیت به تنهایی به طور قابل توجهی خطر توسعه خودمختاری هوش مصنوعی را تا حدی کاهش می دهد که بر کنترل انسان غلبه کند.

علاوه بر این، شکاف تکنولوژیکی بین مدل‌های فعلی هوش مصنوعی مانند ChatGPT و تصاویر علمی تخیلی هوش مصنوعی وجود دارد، همانطور که در فیلم‌هایی مانند «نابودگر» دیده می‌شود. در حالی که ارتش‌های سراسر جهان از پهپادهای پیشرفته هوایی خودگردان استفاده می‌کنند، ما با ارتشی از روبات‌هایی که قادر به جنگ‌های پیشرفته هستند فاصله داریم. در واقع، ما به ندرت به روبات هایی که قادر به حرکت از پله ها هستند تسلط داریم.

کسانی که روایت روز رستاخیز SkyNet را پیش می‌برند، جهش تکنولوژیکی مورد نیاز را تشخیص نمی‌دهند و ممکن است ناخواسته زمینه را به طرفدارانی بر علیه مقررات واگذار کنند، کسانی که در بهانه نوآوری برای رشد بی‌نظیر هوش مصنوعی استدلال می‌کنند. صرفاً به این دلیل که ما روبات های روز قیامت نداریم، به این معنی نیست که هیچ خطری وجود ندارد. این فقط به این معنی است که تهدید انسان ساخته و در نتیجه واقعی تر است. این سوء تفاهم ممکن است بر بحث ظریف در مورد ضرورت نظارت در توسعه هوش مصنوعی سایه افکند.

دیدگاه نسلی از هوش مصنوعی، تجاری سازی و تغییرات آب و هوایی

من قریب‌الوقوع‌ترین خطر را تجاری‌سازی بیش از حد هوش مصنوعی تحت عنوان «پیشرفت» می‌دانم. در حالی که من درخواست توقف توسعه هوش مصنوعی را که توسط افرادی مانند ایلان ماسک (قبل از راه‌اندازی xAI) پشتیبانی می‌شود، تکرار نمی‌کنم، اما به نظارت دقیق‌تر بر تجاری‌سازی هوش مصنوعی مرزی اعتقاد دارم. تصمیم OpenAI برای عدم گنجاندن AGI در معامله خود با مایکروسافت، نمونه ای عالی از پیچیدگی استفاده تجاری از هوش مصنوعی است. در حالی که منافع تجاری ممکن است باعث پیشرفت سریع و دسترسی به فناوری‌های هوش مصنوعی شود، آنها همچنین می‌توانند به اولویت‌بندی دستاوردهای کوتاه‌مدت نسبت به ملاحظات ایمنی و اخلاقی بلندمدت منجر شوند. تعادل ظریفی بین تقویت نوآوری و حصول اطمینان از توسعه مسئولانه وجود دارد که شاید هنوز آن را نفهمیده باشیم.

با تکیه بر این، همانطور که ‘Boomers’ و ‘GenX’ به دلیل بی علاقگی ظاهری آنها نسبت به تغییرات آب و هوایی مورد انتقاد قرار گرفته اند، با توجه به اینکه ممکن است شاهد مخرب ترین اثرات آن نباشند، ممکن است روند مشابهی در توسعه هوش مصنوعی وجود داشته باشد. عجله برای پیشرفت فناوری هوش مصنوعی، اغلب بدون توجه کافی به پیامدهای بلندمدت، منعکس کننده این کوته بینی نسل است. تصمیم‌هایی که امروز می‌گیریم، تأثیرات ماندگاری خواهند داشت، چه اینجا باشیم که شاهد آن‌ها باشیم یا نه.

این دیدگاه نسلی با در نظر گرفتن اضطرار وضعیت، حتی بیشتر مناسب می‌شود، زیرا عجله برای پیشرفت فناوری هوش مصنوعی فقط یک بحث آکادمیک نیست، بلکه پیامدهای دنیای واقعی دارد. تصمیماتی که ما امروز در توسعه هوش مصنوعی می گیریم، بسیار شبیه به تصمیماتی که در سیاست زیست محیطی اتخاذ می کنیم، آینده ای را که پشت سر می گذاریم شکل می دهد.

ما باید یک اکوسیستم فن‌آوری پایدار و ایمن بسازیم که برای نسل‌های آینده سودمند باشد، نه اینکه میراثی از چالش‌هایی را که کوته‌اندیشی ما ایجاد می‌کند به جای بگذاریم.

نوآوری پایدار، عملگرا و مورد توجه.

از آنجایی که ما در آستانه پیشرفت های قابل توجه هوش مصنوعی هستیم، رویکرد ما نباید مبتنی بر ترس و بازداری باشد، بلکه باید یک نوآوری مسئولانه باشد. ما باید زمینه ای را که در آن این ابزارها را توسعه می دهیم به خاطر بسپاریم. هوش مصنوعی، با تمام پتانسیل‌هایش، مخلوقی از نبوغ انسانی و تحت کنترل انسان است. همانطور که به سمت AGI پیش می رویم، ایجاد نرده های محافظ قوی فقط توصیه نمی شود. ضروریه. برای ادامه کوبیدن همان طبل، انسان ها مدت ها قبل از اینکه هوش مصنوعی بتواند خودش این کار را انجام دهد، یک رویداد در سطح انقراض از طریق هوش مصنوعی ایجاد می کند.

خطرات واقعی هوش مصنوعی نه در روایت‌های هیجان‌انگیز هالیوود، بلکه در واقعیت پیش پا افتاده‌تر سوء استفاده و کوته‌اندیشی انسان نهفته است. زمان آن فرا رسیده است که تمرکز خود را از آخرالزمان غیرمحتمل هوش مصنوعی به چالش‌های واقعی و فعلی که هوش مصنوعی در دستان کسانی که ممکن است از آن سوء استفاده کنند ایجاد می‌کند، برداریم. بیایید نوآوری را خفه نکنیم، بلکه مسئولانه آن را به سوی آینده ای هدایت کنیم که در آن هوش مصنوعی به بشریت خدمت می کند، نه اینکه آن را تضعیف کند.