دوازده روز. چهار مدل. هر کدوم از یه شرکت چینی مختلف. اگه فکر میکردی رقابت AI فقط بین OpenAI و Anthropic و Google هست، وقتشه دوباره فکر کنی.
توی اواخر آوریل و اوایل می ۲۰۲۶، چهار مدل زبانی بزرگ از شرکتهای چینی منتشر شد که همگی با مدلهای Frontier غربی رقابت میکنن — ولی با هزینه Inference خیلی کمتر.
چهار مدل، دوازده روز
GLM-5.1 (Z.ai / Zhipu AI)
Zhipu AI با GLM-5.1 اومد. این مدل توی بنچمارکهای کدنویسی و استدلال عملکرد خیلی خوبی داره. نکته جالبش اینه که Z.ai داره روی اکوسیستم توسعهدهنده تمرکز میکنه — SDK های خوب، مستندات کامل، و API سازگار با فرمت OpenAI. یعنی اگه الان از OpenAI API استفاده میکنی، مهاجرت به GLM-5.1 خیلی سادهست.
MiniMax M2.7
MiniMax که قبلاً بیشتر توی بازار چین فعال بود، با M2.7 وارد بازار جهانی شده. نقطه قوتش کارهای چندمودالی هست — متن، تصویر، صدا. هزینه Inference اش تقریباً یکسوم GPT-5.5 هست برای تسکهای مشابه.
Kimi K2.6 (Moonshot AI)
Kimi K2.6 از Moonshot AI، شرکتی که قبلاً با Context Window بزرگش معروف شده بود. K2.6 توی Agentic Engineering خیلی قویه — یعنی میتونه Chain of Tools پیچیده رو مدیریت کنه بدون اینکه وسط راه گیج بشه. یه قابلیت که برای ساختن Agent های پیچیده خیلی مهمه.
DeepSeek V4
و البته DeepSeek که بعد از موفقیت V3 و R1، حالا با V4 اومده. DeepSeek V4 توی استدلال ریاضی و کدنویسی تقریباً همسطح GPT-5.5 عمل میکنه. ولی نکته اصلی اینه: DeepSeek متدهای آموزشش رو منتشر میکنه. این یعنی جامعه اوپنسورس میتونه ازشون یاد بگیره و مدلهای بهتری بسازه.
یه سقف مشترک
نکته جالب اینه که هر چهار مدل تقریباً به یه سقف توانایی مشابه رسیدن — مخصوصاً توی Agentic Engineering. یعنی وقتی بنچمارکها رو مقایسه میکنی، تفاوتها خیلی کم شدن.
این یعنی چی؟ یعنی ما داریم به نقطهای میرسیم که «کیفیت مدل» دیگه تنها عامل تمایز نیست. وقتی همه مدلها تقریباً یه کار رو با کیفیت مشابه انجام میدن، چیزهای دیگه مهم میشن:
- هزینه: اگه دو مدل یه کار رو انجام میدن، ارزونتر رو انتخاب میکنی
- سرعت: Latency پایینتر = تجربه کاربری بهتر
- اکوسیستم: SDK، مستندات، پشتیبانی، جامعه
- قابلیت سفارشیسازی: Fine-tuning، RAG، یکپارچهسازی با سیستمهای موجود
Apple و آزادی انتخاب مدل
یه خبر مرتبط: Apple اعلام کرده که iOS 27 به کاربران اجازه میده مدل AI شخص ثالث انتخاب کنن. یعنی به جای Siri یا مدل پیشفرض Apple، میتونی Claude، GPT، یا حتی یه مدل چینی رو به عنوان دستیار AI گوشیت انتخاب کنی.
این تصمیم Apple خیلی مهمه چون:
- بازار رقابتیتر میشه — هر مدلی باید برای جلب کاربر تلاش کنه
- مدلهای چینی با هزینه کمتر میتونن سهم بازار بگیرن
- کاربرها قدرت انتخاب بیشتری دارن
- فشار روی Apple برای بهبود مدل خودش بیشتر میشه
Subquadratic — معماری جدید با ۱۲ میلیون توکن
یه تحول فنی مهم دیگه: معماری Subquadratic که Context Window رو تا ۱۲ میلیون توکن رسونده. برای درک بزرگی این عدد:
- یه کتاب معمولی حدود ۷۰,۰۰۰ توکنه
- ۱۲ میلیون توکن یعنی حدود ۱۷۰ کتاب رو یکجا توی Context بذاری
- یا کل Codebase یه پروژه بزرگ رو بدی به مدل
مشکل Transformer های معمولی اینه که هزینه محاسباتی Attention به صورت Quadratic (درجه ۲) با طول Context رشد میکنه. یعنی اگه Context رو ۲ برابر کنی، هزینه ۴ برابر میشه. معماری Subquadratic این مشکل رو حل میکنه — هزینه خیلی کمتر از درجه ۲ رشد میکنه.
این یعنی Context Window های خیلی بزرگتر بدون افزایش شدید هزینه ممکن میشه. برای کاربردهایی مثل تحلیل اسناد حقوقی، مرور Codebase، یا ریسرچ علمی، این یه تحول واقعیه.
این رقابت به نفع کیه؟
جواب ساده: به نفع ما توسعهدهندهها و کاربرها.
وقتی مدلهای زیادی با کیفیت مشابه وجود داشته باشن:
- قیمتها پایین میاد
- نوآوری سریعتر میشه
- مدلهای اوپنسورس بهتر میشن
- وابستگی به یه شرکت خاص کمتر میشه
ولی یه چالش هم هست: انتخاب سختتر میشه. وقتی ۱۰ تا مدل خوب داری، کدوم رو انتخاب میکنی؟ جواب اینه که بستگی به Use Case داره:
- هزینه مهمه؟ → مدلهای چینی (DeepSeek V4, Kimi K2.6)
- اکوسیستم و پشتیبانی مهمه؟ → OpenAI یا Anthropic
- استقلال و کنترل مهمه؟ → مدلهای اوپنسورس (DeepSeek, Llama)
- Context Window بزرگ لازمه؟ → مدلهای با معماری Subquadratic
جمعبندی
چهار مدل چینی در دوازده روز. این فقط یه عدد نیست — این نشونه یه تغییر بنیادی توی بازار AI هست. عصر انحصار تموم شده. عصر تنوع و رقابت شروع شده.
برای ما توسعهدهندهها، این بهترین زمانه. ابزارهای بیشتر، هزینه کمتر، و آزادی انتخاب بیشتر. فقط باید یاد بگیریم چطور درست انتخاب کنیم — و این خودش یه مهارت جدیده.
نظرات
هنوز نظری ثبت نشده. اولین نفر باشید!
نظر خود را بنویسید