محققان در چین یک موتور تصحیح توهم برای مدلهای هوش مصنوعی توسعه دادند
تیمی از دانشمندان دانشگاه علم و فناوری چین و آزمایشگاه YouTu Tencent ابزاری را برای مبارزه با “توهم” توسط مدلهای هوش مصنوعی (AI) توسعه دادهاند.
توهم، تمایل یک مدل هوش مصنوعی برای تولید خروجی هایی با سطح اطمینان بالایی است که بر اساس اطلاعات موجود در داده های آموزشی آن ظاهر نمی شوند. این مشکل در تحقیقات مدل زبان بزرگ (LLM) نفوذ می کند و اثرات آن را می توان در مدل هایی مانند ChatGPT OpenAI و Claude Anthropic مشاهده کرد.
تیم USTC/Tencent ابزاری به نام “دارکوب” توسعه دادند که به ادعای آنها میتواند توهمات را در مدلهای زبان بزرگ چندوجهی (MLLM) اصلاح کند.
این زیرمجموعه هوش مصنوعی شامل مدلهایی مانند GPT-4 (به ویژه نوع بصری آن، GPT-4V) و سیستمهای دیگری است که بینایی و/یا پردازشهای دیگر را در کنار مدلسازی زبان مبتنی بر متن در حالت هوش مصنوعی مولد قرار میدهند.
طبق مقاله تحقیقاتی پیش از چاپ این تیم، دارکوب از سه مدل هوش مصنوعی مجزا استفاده می کند، جدای از اینکه MLLM برای توهم تصحیح می شود، برای اصلاح توهم.
از جمله GPT-3.5 توربو، Grounding DINO و BLIP-2-FlanT5. این مدلها با هم بهعنوان ارزیابهایی عمل میکنند تا توهمها را شناسایی کنند و به مدل اصلاحشده دستور دهند تا خروجیاش را مطابق با دادههایش بازسازی کند.

برای تصحیح توهم، مدلهای هوش مصنوعی که دارکوب را تقویت میکنند از یک فرآیند پنج مرحلهای استفاده میکنند که شامل «استخراج مفهوم کلیدی، فرمولبندی سؤال، اعتبارسنجی دانش بصری، تولید ادعای بصری و تصحیح توهم» است.
مربوط: انسانها و هوش مصنوعی اغلب پاسخهای ربات چت متمم را به حقیقت ترجیح میدهند – مطالعه
محققان ادعا میکنند که این تکنیکها شفافیت بیشتر و بهبود دقت 30.66/24.33 درصدی را نسبت به MiniGPT-4/mPLUG-Owl پایه ارائه میکنند. آنها تعداد زیادی MLLM “خارج از قفسه” را با استفاده از روش خود ارزیابی کردند و به این نتیجه رسیدند که دارکوب را می توان “به راحتی در MLLM های دیگر ادغام کرد.”