استارت‌آپ فرانسوی Mistral AI به جایگاه تک شاخ در مسابقه هوش مصنوعی دست یافت

French startup Mistral AI achieves unicorn status in AI race

استارت‌آپ هوش مصنوعی Mistral AI که در پاریس مستقر است، پس از جمع‌آوری ۳۸۵ میلیون یورو یا ۴۱۵ میلیون دلار در دومین دور سرمایه‌گذاری خود در هفت ماه گذشته، به آخرین شرکت در این بخش تبدیل شد که به وضعیت تک‌شاخ رسید.

سرمایه‌گذاری که توسط سرمایه‌گذارانی مانند Andreessen-Horowitz و LightSpeed ​​Ventures هدایت می‌شود، ارزش این استارت‌آپ را به حدود ۲ میلیارد دلار رسانده و آن را در میان برترین شرکت‌های هوش مصنوعی در جهان قرار می‌دهد. در ماه ژوئن، Mistral AI حدود 105 میلیون یورو (حدود 113 میلیون دلار) به ارزش 260 میلیون دلار جذب کرد.

موفقیت Mistral AI بر علاقه پایدار شرکت‌های هوش مصنوعی در سال گذشته تأکید دارد. موفقیت این صنعت ناشی از اشتیاق زیاد به ابزارهای هوش مصنوعی مولد مانند ChatGPT OpenAI، Bard Google و Anthropic’s Claude است.

OpenAI پیشتاز این روند بود، به طوری که بسیاری از شرکت‌های هوش مصنوعی دیگر با ایجاد نرم‌افزار هوش مصنوعی یا خرید استارت‌آپ‌های هوش مصنوعی، گسترش قابل‌توجهی را تجربه کردند.

با وضعیت جدید خود، Mistral آماده است تا به عنوان یک رقیب قدرتمند اروپایی در برابر بازیکنان معتبری مانند OpenAI ظاهر شود. آرتور منش، یکی از بنیانگذاران و مدیرعامل Mistral AI گفته است:

از زمان ایجاد هوش مصنوعی Mistral در ماه مه، ما مسیر روشنی را دنبال می کنیم: ایجاد یک قهرمان اروپایی با حرفه جهانی در هوش مصنوعی مولد، بر اساس یک رویکرد باز، مسئولانه و غیرمتمرکز به فناوری.

محصول جدید را عرضه می کند

هوش مصنوعی Mistral در میان افزایش ارزش خود، دسترسی بتا را به سرویس پلتفرم افتتاحیه خود، “la plateforme” راه اندازی کرد. این سرویس سه نقطه پایانی چت را ارائه می دهد که برای تولید متن بر اساس دستورالعمل های متنی طراحی شده اند.

به گفته میسترال، «mistral-miny» و «mistral-small» از مدل‌های باز منتشر شده استفاده می‌کنند، در حالی که «mistral-medium» بر روی یک نمونه اولیه کار می‌کند که عملکرد برتر را در تنظیمات دنیای واقعی به نمایش می‌گذارد و در حال حاضر در حال آزمایش است.

علاوه بر این، این شرکت Mixtral 8x7B را معرفی کرد که یک مدل هوش مصنوعی یکی از بنیانگذاران آن است. گیوم لامپ ادعاها مطابقت دارد یا عملکرد بهتری دارد [Meta’s] لاما 2 70 بی و [OpenAI’s] GPT3.5 در اکثر معیارهای استاندارد. وی افزود که Mixtral 8x7B در حال حاضر از “mistral-small” خود استفاده می کندنقطه پایانی

Mixtral 8x7B تحت مجوز Apache 2.0 منتشر شد و به صورت بتا در دسترس است.