محققان در چین یک موتور تصحیح توهم برای مدل‌های هوش مصنوعی توسعه دادند

تیمی از دانشمندان دانشگاه علم و فناوری چین و آزمایشگاه YouTu Tencent ابزاری را برای مبارزه با “توهم” توسط مدل‌های هوش مصنوعی (AI) توسعه داده‌اند.

توهم، تمایل یک مدل هوش مصنوعی برای تولید خروجی هایی با سطح اطمینان بالایی است که بر اساس اطلاعات موجود در داده های آموزشی آن ظاهر نمی شوند. این مشکل در تحقیقات مدل زبان بزرگ (LLM) نفوذ می کند و اثرات آن را می توان در مدل هایی مانند ChatGPT OpenAI و Claude Anthropic مشاهده کرد.

تیم USTC/Tencent ابزاری به نام “دارکوب” توسعه دادند که به ادعای آنها می‌تواند توهمات را در مدل‌های زبان بزرگ چندوجهی (MLLM) اصلاح کند.

این زیرمجموعه هوش مصنوعی شامل مدل‌هایی مانند GPT-4 (به ویژه نوع بصری آن، GPT-4V) و سیستم‌های دیگری است که بینایی و/یا پردازش‌های دیگر را در کنار مدل‌سازی زبان مبتنی بر متن در حالت هوش مصنوعی مولد قرار می‌دهند.

طبق مقاله تحقیقاتی پیش از چاپ این تیم، دارکوب از سه مدل هوش مصنوعی مجزا استفاده می کند، جدای از اینکه MLLM برای توهم تصحیح می شود، برای اصلاح توهم.

از جمله GPT-3.5 توربو، Grounding DINO و BLIP-2-FlanT5. این مدل‌ها با هم به‌عنوان ارزیاب‌هایی عمل می‌کنند تا توهم‌ها را شناسایی کنند و به مدل اصلاح‌شده دستور دهند تا خروجی‌اش را مطابق با داده‌هایش بازسازی کند.

در هر یک از مثال‌های بالا، یک LLM یک پاسخ نادرست (پس‌زمینه سبز) به درخواست (پس‌زمینه آبی) توهم می‌دهد. پاسخ های دارکوب تصحیح شده با پس زمینه قرمز نشان داده شده است. منبع: Yin, et. al., 2023

برای تصحیح توهم، مدل‌های هوش مصنوعی که دارکوب را تقویت می‌کنند از یک فرآیند پنج مرحله‌ای استفاده می‌کنند که شامل «استخراج مفهوم کلیدی، فرمول‌بندی سؤال، اعتبارسنجی دانش بصری، تولید ادعای بصری و تصحیح توهم» است.

مربوط: انسان‌ها و هوش مصنوعی اغلب پاسخ‌های ربات چت متمم را به حقیقت ترجیح می‌دهند – مطالعه

محققان ادعا می‌کنند که این تکنیک‌ها شفافیت بیشتر و بهبود دقت 30.66/24.33 درصدی را نسبت به MiniGPT-4/mPLUG-Owl پایه ارائه می‌کنند. آنها تعداد زیادی MLLM “خارج از قفسه” را با استفاده از روش خود ارزیابی کردند و به این نتیجه رسیدند که دارکوب را می توان “به راحتی در MLLM های دیگر ادغام کرد.”