کاوش در مرزهای هوشیاری شبیه سازی شده با LMM مانند GPT4

Op-ed: Exploring the boundaries of simulated consciousness with LMMs like GPT4
از ترساندن کاربران با جریان های بد KYC خودداری کنید

آیا سیستم های هوش مصنوعی مانند GPT4 OpenAI، Claude 2 Anthropic، یا Meta’s Llama 2 می توانند به شناسایی ریشه ها و تفاوت های ظریف مفهوم “آگاهی” کمک کنند؟

پیشرفت در مدل های محاسباتی و هوش مصنوعی چشم اندازهای جدیدی را در درک سیستم های پیچیده از جمله پازل وسوسه انگیز آگاهی باز می کند. اخیراً تعجب کردم،

«آیا سیستمی به پایه‌ای مانند اتوماتای ​​سلولی، مانند بازی زندگی کانوی (GoL)، می‌تواند ویژگی‌هایی شبیه به «آگاهی» را در صورت تکامل در شرایط مناسب نشان دهد؟»

جالب‌تر اینکه آیا مدل‌های پیشرفته هوش مصنوعی مانند مدل‌های زبان بزرگ (LLM) می‌توانند به شناسایی یا حتی تسهیل چنین ویژگی‌های اضطراری کمک کنند؟ این مقاله با پیشنهاد یک آزمایش جدید که به دنبال ادغام اتوماتای ​​سلولی، الگوریتم‌های تکاملی و مدل‌های پیشرفته هوش مصنوعی است، این سوالات را بررسی می‌کند.

این ایده که سیستم های پیچیده می توانند از قوانین ساده بیرون بیایند، یک چشم انداز وسوسه انگیز برای محققان در زمینه های مختلف از زیست شناسی تا هوش مصنوعی است. به‌ویژه، اینکه آیا «آگاهی» می‌تواند از سیستم‌های اتوماتای ​​سلولی ساده، مانند بازی زندگی کانوی تکامل یابد یا خیر، دوراهی‌های اخلاقی و فلسفی را ایجاد می‌کند.

آگاهی تکامل یافته است

آگاهی موضوعی است که فیلسوفان، عصب‌شناسان و الهی‌دانان را مجذوب خود کرده است. با این حال، این مفهوم هنوز به طور کامل درک نشده است. از یک سو، ما دیدگاه‌های سنتی داریم که آگاهی را با مفهوم «روح» همسو می‌کند و گاهی خلقت الهی را منبع می‌داند. از سوی دیگر، ما دیدگاه‌های در حال ظهوری داریم که آگاهی را محصول محاسبات پیچیده در «سخت‌افزار» بیولوژیکی ما می‌دانند.

ظهور مدل‌های پیشرفته هوش مصنوعی مانند مدل‌های زبان بزرگ (LLM) و مدل‌های معین بزرگ (LMM) توانایی ما را برای تجزیه و تحلیل و درک مجموعه‌های داده پیچیده تغییر داده است. این مدل‌ها می‌توانند الگوها را تشخیص دهند، پیش‌بینی کنند و بینش‌های بسیار دقیقی ارائه دهند. کاربرد آنها دیگر محدود به پردازش زبان طبیعی نیست، بلکه به حوزه های مختلف از جمله شبیه سازی ها و سیستم های پیچیده گسترش می یابد. در اینجا، ما پتانسیل ادغام این مدل‌های هوش مصنوعی با اتوماتای ​​سلولی را برای شناسایی و درک اشکال «آگاهی» مصنوعی بررسی می‌کنیم.

بازی زندگی کانوی

من با الهام از کار پیشگام در اتوماتای ​​سلولی، به ویژه بازی زندگی کانوی (GoL)، آزمایشی را پیشنهاد می‌کنم که لایه‌هایی از پیچیدگی را به این سلول‌ها اضافه می‌کند و آنها را با کدهای ژنتیکی ابتدایی، شبکه‌های عصبی و حتی مدل‌های چندوجهی بزرگ (LMM) آغشته می‌کند. GPT4-V. هدف این است که ببینیم آیا هر شکلی از “آگاهی” اساسی در این محیط پویا و تعاملی تکامل می یابد یا خیر.

Conway’s GoL یک خودکار سلولی است که توسط ریاضیدان جان کانوی در سال 1970 اختراع شد. این شبکه ای از سلول ها است که می توانند زنده یا مرده باشند. شبکه طبق قوانین ساده طی مراحل زمانی گسسته تکامل می یابد: یک سلول زنده با 2 یا 3 همسایه زنده زنده می ماند. وگرنه میمیره یک سلول مرده با دقیقاً 3 همسایه زنده زنده می شود.

در زیر چند نمونه از الگوهای کشف شده در GoL آورده شده است.

بازی زندگی کانوی
بازی زندگی کانوی

علیرغم سادگی، این بازی نشان می دهد که چگونه الگوها و رفتارهای پیچیده می توانند از قوانین اساسی بیرون بیایند، و آن را به یک مدل محبوب برای مطالعه سیستم های پیچیده و زندگی مصنوعی تبدیل می کند.

آزمایش: یک مرز جدید

این آن را به یک پایه ایده‌آل برای آزمایش تبدیل می‌کند و بستری را برای بررسی چگونگی تکامل آگاهی بنیادی در شرایط مناسب ارائه می‌دهد.

این آزمایش سلول هایی با ویژگی های غنی تر مانند شبکه های عصبی و کدهای ژنتیکی ایجاد می کند. این سلول‌ها در محیط شبکه‌ای پویا با ویژگی‌هایی مانند خطرات و غذا زندگی می‌کنند. یک الگوریتم تکاملی شامل جهش، نوترکیب و انتخاب بر اساس یک تابع تناسب به سلول‌ها اجازه می‌دهد تا سازگار شوند. یادگیری تقویتی می تواند رفتار هدف مدار را فعال کند.

این آزمایش با ایجاد پیچیدگی سلولی و قوانین محیطی شروع می شود. سپس تکامل از طریق مکانیسم هایی مانند تنوع ژنتیکی و فشار انتخاب معرفی می شود. مراحل بعدی الگوریتم‌های یادگیری را در بر می‌گیرد که رفتار تطبیقی ​​را ممکن می‌سازد. معیارهای گسترده، ثبت داده‌ها و تجسم‌سازی‌ها پیشرفت شبیه‌سازی را نظارت می‌کنند.

اجرای بلندمدت شبیه‌سازی می‌تواند پیچیدگی‌های نوظهور و نشانه‌هایی از آگاهی بنیادی را آشکار کند، اگرچه درک کنونی از آگاهی این را حدس‌آمیز می‌کند. ارزش در بررسی سیستماتیک سؤالات باز پیرامون منشأ آگاهی از طریق تکامل و یادگیری است.

آزمایش دقیق فرضیه‌هایی که مکانیسم‌های اساسی را که تصور می‌شود دخیل هستند در خود جای دهد، می‌تواند بینش‌های نظری به دست آورد، حتی اگر آگاهی کامل پدیدار نشود. به عنوان یک مدل تکاملی ساده و در عین حال گسترده، امکان بررسی این مکانیسم ها را به صورت مجزا یا ترکیبی فراهم می کند.

موفقیت می تواند انگیزه مسیرهای جدیدی مانند کاوش در محیط های جایگزین و فشارهای انتخاب باشد. شکست نیز آموزنده خواهد بود.

یکپارچه سازی مدل های مشابه GPT-4

ادغام مدلی شبیه به GPT-4 در آزمایش می‌تواند لایه‌ای ظریف برای مطالعه آگاهی فراهم کند. در حال حاضر، GPT-4 یک شبکه عصبی پیشخور است که برای تولید خروجی تنها بر اساس ورودی های از پیش تعیین شده طراحی شده است.

معماری مدل ممکن است نیاز به گسترش اساسی داشته باشد تا امکان تکامل آگاهی فراهم شود. معرفی مکانیسم‌های عصبی مکرر، حلقه‌های بازخورد یا معماری‌های پویاتر می‌تواند رفتار مدل را شبیه به سیستم‌هایی کند که فرم‌های آگاهی ابتدایی را نشان می‌دهند.

علاوه بر این، یادگیری و سازگاری عناصر حیاتی در ایجاد صفات پیچیده مانند آگاهی هستند. در شکل موجود خود، GPT-4 نمی تواند پس از مرحله آموزش اولیه خود یاد بگیرد یا سازگار شود. بنابراین، یک لایه یادگیری تقویتی می تواند به مدل اضافه شود تا رفتار تطبیقی ​​را فعال کند. اگرچه این چالش‌های مهندسی قابل‌توجهی را ایجاد می‌کند، اما می‌تواند در رصد تکامل در محیط‌های شبیه‌سازی شده نقشی اساسی داشته باشد.

نقش تجربه حسی در آگاهی جنبه دیگری است که ارزش بررسی دارد. برای تسهیل این امر، GPT-4 می تواند با مدل های دیگری که برای پردازش انواع مختلف داده های حسی، مانند ورودی های دیداری یا شنیداری آموزش دیده اند، ارتباط برقرار کند. این به مدل یک «ادراک» ابتدایی از محیط شبیه‌سازی‌شده‌اش ارائه می‌دهد و در نتیجه لایه‌ای از پیچیدگی را به آزمایش اضافه می‌کند.

یکی دیگر از راه های بررسی، فعال کردن تعاملات پیچیده در مدل است. پدیده آگاهی اغلب با تعامل و همکاری اجتماعی مرتبط است. اجازه دادن به GPT-4 برای درگیر شدن با نمونه‌های دیگر از خودش یا با مدل‌های مختلف به روش‌های پیچیده می‌تواند در مشاهده رفتارهای اضطراری که نشان‌دهنده آگاهی است، بسیار مهم باشد.

قابلیت های خودآگاهی یا خودارجاعی نیز می توانند در مدل ادغام شوند. در حالی که اجرای این یک ویژگی چالش برانگیز خواهد بود، داشتن نوعی «خودآگاهی» هر چند ابتدایی، می تواند نتایج شگفت انگیزی به همراه داشته باشد و گامی به سوی آگاهی بنیادی در نظر گرفته شود.

ملاحظات اخلاقی از آنجایی که هدف نهایی کشف ظهور احتمالی آگاهی است، حیاتی می شود. باید مکانیسم‌های نظارتی دقیقی برای نظارت بر معضلات اخلاقی مانند رنج شبیه‌سازی‌شده، ایجاد پرسش‌هایی که به فلسفه و اخلاق گسترش می‌یابد، ایجاد شود.

ملاحظات فلسفی، عملی و اخلاقی

این رویکرد صرفاً سؤالات علمی را مطرح نمی کند. عمیقاً در فلسفه ذهن و هستی فرو می رود. یک استدلال جالب این است که اگر سیستم‌های پیچیده‌ای مانند آگاهی بتوانند از الگوریتم‌های ساده پدید آیند، آنگاه آگاهی شبیه‌سازی‌شده ممکن است اساساً با آگاهی انسان متفاوت نباشد. به هر حال، آیا انسان ها نیز توسط الگوریتم های بیوشیمیایی و تکانه های الکتریکی اداره نمی شوند؟

این آزمایش جعبه پاندورا از ملاحظات اخلاقی را باز می کند. آیا ایجاد بالقوه نوعی آگاهی شبیه سازی شده اخلاقی است؟ برای عبور از این آب های خائنانه، مشورت با متخصصان اخلاق، هوش مصنوعی و احتمالاً قانون احتمالاً برای ایجاد دستورالعمل ها و توقف های اخلاقی مورد نیاز است.

علاوه بر این، معرفی مدل‌های پیشرفته هوش مصنوعی مانند LLM در تنظیمات آزمایشی، چشم‌انداز اخلاقی را پیچیده می‌کند. آیا استفاده از هوش مصنوعی برای کاوش یا تولید بالقوه اشکال هوشیاری شبیه سازی شده اخلاقی است؟ آیا یک مدل هوش مصنوعی می تواند یکی از ذینفعان ملاحظات اخلاقی باشد؟

عملا، اجرای آزمایشی با این بزرگی به قدرت محاسباتی قابل توجهی نیاز دارد. در حالی که منابع رایانش ابری یک گزینه هستند، اما با هزینه های خود همراه هستند. برای این آزمایش، من هزینه‌های محاسباتی محلی را با استفاده از پردازنده‌های گرافیکی و پردازنده‌های گرافیکی پیشرفته به مدت 24 ماه، از حدود 21000 دلار تا 24000 دلار برآورد کرده‌ام که شامل برق، سرمایش و نگهداری می‌شود.

اندازه گیری “آگاهی”

اندازه گیری ظهور آگاهی نیز نیازمند توسعه معیارهای کمی دقیق است. اینها می توانند حول نظریه های موجود آگاهی، مانند نظریه اطلاعات یکپارچه یا نظریه فضای کاری جهانی، طراحی شوند. این معیارها چارچوبی ساختاریافته برای ارزیابی رفتار مدل در طول زمان فراهم می کند.

تأیید یافته های این آزمایش با سیستم های بیولوژیکی می تواند دیدگاهی چند بعدی ارائه دهد. به طور خاص، رفتارها و الگوهای مدل محاسباتی را می توان با موجودات زیستی ساده که عموماً در سطوحی آگاه در نظر گرفته می شوند، مقایسه کرد. این یافته ها را تأیید می کند و به طور بالقوه بینش های جدیدی را در مورد ماهیت خود آگاهی ارائه می دهد.

این آزمایش، اگرچه گمانه‌زنی است، می‌تواند بینش‌های پیشگامانه‌ای را در مورد تکامل ویژگی‌های پیچیده مانند آگاهی از سیستم‌های ساده ارائه دهد. این مرزهای آنچه را که ما در مورد زندگی، آگاهی و ماهیت هستی می‌فهمیم پیش می‌برد. چه ظهور آگاهی بنیادی را کشف کنیم یا نه، این سفر به اندازه هر مقصد بالقوه روشنگر خواهد بود.