استارتآپ فرانسوی Mistral AI به جایگاه تک شاخ در مسابقه هوش مصنوعی دست یافت

استارتآپ هوش مصنوعی Mistral AI که در پاریس مستقر است، پس از جمعآوری ۳۸۵ میلیون یورو یا ۴۱۵ میلیون دلار در دومین دور سرمایهگذاری خود در هفت ماه گذشته، به آخرین شرکت در این بخش تبدیل شد که به وضعیت تکشاخ رسید.
سرمایهگذاری که توسط سرمایهگذارانی مانند Andreessen-Horowitz و LightSpeed Ventures هدایت میشود، ارزش این استارتآپ را به حدود ۲ میلیارد دلار رسانده و آن را در میان برترین شرکتهای هوش مصنوعی در جهان قرار میدهد. در ماه ژوئن، Mistral AI حدود 105 میلیون یورو (حدود 113 میلیون دلار) به ارزش 260 میلیون دلار جذب کرد.
موفقیت Mistral AI بر علاقه پایدار شرکتهای هوش مصنوعی در سال گذشته تأکید دارد. موفقیت این صنعت ناشی از اشتیاق زیاد به ابزارهای هوش مصنوعی مولد مانند ChatGPT OpenAI، Bard Google و Anthropic’s Claude است.
OpenAI پیشتاز این روند بود، به طوری که بسیاری از شرکتهای هوش مصنوعی دیگر با ایجاد نرمافزار هوش مصنوعی یا خرید استارتآپهای هوش مصنوعی، گسترش قابلتوجهی را تجربه کردند.
با وضعیت جدید خود، Mistral آماده است تا به عنوان یک رقیب قدرتمند اروپایی در برابر بازیکنان معتبری مانند OpenAI ظاهر شود. آرتور منش، یکی از بنیانگذاران و مدیرعامل Mistral AI گفته است:
از زمان ایجاد هوش مصنوعی Mistral در ماه مه، ما مسیر روشنی را دنبال می کنیم: ایجاد یک قهرمان اروپایی با حرفه جهانی در هوش مصنوعی مولد، بر اساس یک رویکرد باز، مسئولانه و غیرمتمرکز به فناوری.
محصول جدید را عرضه می کند
هوش مصنوعی Mistral در میان افزایش ارزش خود، دسترسی بتا را به سرویس پلتفرم افتتاحیه خود، “la plateforme” راه اندازی کرد. این سرویس سه نقطه پایانی چت را ارائه می دهد که برای تولید متن بر اساس دستورالعمل های متنی طراحی شده اند.
به گفته میسترال، «mistral-miny» و «mistral-small» از مدلهای باز منتشر شده استفاده میکنند، در حالی که «mistral-medium» بر روی یک نمونه اولیه کار میکند که عملکرد برتر را در تنظیمات دنیای واقعی به نمایش میگذارد و در حال حاضر در حال آزمایش است.
علاوه بر این، این شرکت Mixtral 8x7B را معرفی کرد که یک مدل هوش مصنوعی یکی از بنیانگذاران آن است. گیوم لامپ ادعاها مطابقت دارد یا عملکرد بهتری دارد [Meta’s] لاما 2 70 بی و [OpenAI’s] GPT3.5 در اکثر معیارهای استاندارد. وی افزود که Mixtral 8x7B در حال حاضر از “mistral-small” خود استفاده می کند” نقطه پایانی
Mixtral 8x7B تحت مجوز Apache 2.0 منتشر شد و به صورت بتا در دسترس است.