یه مدل اوپنسورس که توی بنچمارکهای کدنویسی، استدلال و ریاضی با GPT-5.5 و Claude Opus 4.7 رقابت میکنه — ولی ۷ برابر ارزونتره. این یه وعده تبلیغاتی نیست. دیپسیک V4 در ۲۴ آوریل ۲۰۲۶ با لایسنس MIT منتشر شد و کدش روی گیتهاب در دسترسه.
توی این مطلب بررسی میکنیم V4 چه قابلیتهایی داره، چرا قیمتش انقدر پایینه، و این ماجرا چه تأثیری روی آینده صنعت AI داره.
دو نسخه، دو هدف متفاوت
دیپسیک این بار یه مدل نداده — دو تا داده:
V4-Pro: مدل Flagship با ۱.۶ تریلیون پارامتر کل. ولی فقط ۴۹ میلیارد پارامتر در هر لحظه فعاله. چطوری؟ با معماری Mixture of Experts (ترکیب متخصصان). به زبان ساده، مدل مثل یه بیمارستان بزرگه که هزار تا دکتر متخصص داره ولی برای هر بیمار فقط ۲-۳ متخصص مرتبط رو صدا میزنه. نتیجه: کیفیت بالا بدون اینکه همه منابع رو مصرف کنه.
V4-Flash: نسخه سبکتر با ۲۸۴ میلیارد پارامتر کل و فقط ۱۳ میلیارد فعال. طراحی شده برای وقتی سرعت و هزینه مهمتر از دقت نهایی هست. برای chatbot ها، خلاصهسازی و تسکهای روزمره عالیه.
هر دو نسخه از Context Window یک میلیون توکنی پشتیبانی میکنن. یک میلیون توکن یعنی حدود ۱۴ تا کتاب رو یکجا توی ورودی مدل بذاری و باهاش کار کنی.
قیمتی که صنعت رو به چالش میکشه
V4-Pro ورودی: ۰.۱۴۵ دلار به ازای هر میلیون توکن. همین تسک با GPT-5.5 یا Claude Opus 4.7 حدود ۷ برابر بیشتر هزینه داره.
V4-Pro خروجی: ۱.۷۴ دلار به ازای هر میلیون توکن — تقریباً ۶ برابر ارزونتر از رقبای غربی.
عملکرد در بنچمارکها
V4-Pro توی SWE-Bench (بنچمارک مهندسی نرمافزار) به امتیاز ۸۰.۶٪ رسیده. این بنچمارک باگهای واقعی از ریپوزیتوریهای گیتهاب رو به مدل میده و ازش میخواد فیکسشون کنه. امتیاز ۸۰.۶٪ یعنی مدل تونسته بیش از ۴ باگ از هر ۵ تا رو درست حل کنه.
توی بنچمارکهای استدلال ریاضی، کدنویسی و درک متن هم V4-Pro تقریباً همسطح مدلهای Closed-source (کد بسته) عمل میکنه. ولی یه تفاوت بنیادی هست: کد V4 کاملاً باز و رایگانه.
لایسنس MIT — واقعاً اوپنسورس
دیپسیک V4 با لایسنس MIT منتشر شده — سادهترین و آزادترین لایسنس اوپنسورس. میتونی ازش استفاده تجاری کنی. میتونی تغییرش بدی. حتی میتونی مدل رو Fine-tune (بازتنظیم) کنی و بدون هیچ محدودیتی بفروشی.
برای شرکتهایی که نگران وابستگی به یه ارائهدهنده API هستن، این یه فرصت واقعیه. میتونی مدل رو روی سرور خودت اجرا کنی و هیچ دادهای رو به بیرون نفرستی.
۴ مدل چینی در ۱۲ روز
V4 تنها نبود. توی یه بازه ۱۲ روزه، چهار شرکت چینی مدلهای Frontier منتشر کردن: DeepSeek V4، Z.ai GLM-5.1، MiniMax M2.7 و Moonshot Kimi K2.6.
ولی V4 بین همه اینا یه جایگاه خاص داره. دلیلش فقط عملکرد نیست — دلیلش شفافیته. دیپسیک متدهای آموزشش رو منتشر میکنه و جامعه تحقیقاتی میتونه ازشون یاد بگیره.
این ماجرا چرا مهمه؟
تا چند سال پیش یه باور عمومی وجود داشت: ساختن مدلهای Frontier نیاز به میلیاردها دلار سرمایه داره. فقط OpenAI و Google و Anthropic میتونن این کار رو بکنن.
دیپسیک این باور رو زیر سوال برد. وقتی یه شرکت با منابع محدودتر میتونه مدلی بسازه که با غولها برابری کنه و ۷ برابر ارزونتر باشه، سوال اصلی عوض میشه. دیگه سوال این نیست که «آیا اوپنسورس میتونه با کد بسته رقابت کنه؟» — سوال اینه که مدلهای کد بسته چه ارزش افزودهای دارن.
برای توسعهدهندهها یعنی چی؟
هزینه کمتر: اگه از API استفاده میکنی، V4-Pro میتونه هزینهها رو به شدت پایین بیاره.
استقلال: با لایسنس MIT، میتونی مدل رو Self-host کنی. برای پروژههایی که حریم خصوصی داده مهمه، این خیلی ارزشمنده.
Context بزرگ: یک میلیون توکن یعنی میتونی کل Codebase یه پروژه متوسط رو به مدل بدی و ازش بخوای باگ پیدا کنه.
برنده نهایی این رقابت، ما کاربرها و توسعهدهندهها هستیم. مدلهای بهتر، ارزونتر، و آزادتر. اگه سوالی درباره انتخاب مدل مناسب برای پروژهات داری، خوشحال میشم باهات صحبت کنم.
نظرات
هنوز نظری ثبت نشده. اولین نفر باشید!
نظر خود را بنویسید