DeepSeek V4 Шокуючий дебют: десять перших принципів боротьби з опонентами

Пів на четверту дня, сонце на Каліфорнійському проспекті вже почало нахилятися у бік Стенфорда. Собака біля входу до Zombie Café знову лежить під білим кріслом біля дверей. На столі розкладені три друковані документи: прес-реліз про випуск Opus 4.7 від Anthropic від 16 квітня, стенограма презентації GPT-5.5 від OpenAI від 23 квітня з Грегом Брокманом, а також технічний звіт DeepSeek V4, що вийшов цієї ночі, ще не висохла чорнило.

За вісім днів три компанії виклали на стіл усі карти щодо другого кварталу 2026 року.

Поки не допили каву, Аллан Вокер із Кремнієвої долини чітко пояснив цю ситуацію. Без розповіді про benchmark, без обговорення, який модель “відчувається краще”, без PR-статей. Лише з першопринципів — технології, чіпи, ціни, аудиторія, стратегія, екосистема — де саме стоять ці три гравці у 2026 році, хто лідирує, хто захищає позиції, хто штовхає стіл.

01 Відкритий код проти закритого — корінна боротьба за стратегію

DeepSeek цього разу одночасно відкрив для публіки моделі V4-Pro і V4-Flash, під ліцензією MIT, ваги моделей безпосередньо на Hugging Face, будь-хто може їх завантажити, доопрацювати, використовувати комерційно. Claude Opus 4.7 і GPT-5.5 — чисто закриті — лише API-інтерфейс, ваги моделей ніколи не будуть доступні.

Багато хто вважає, що це боротьба бізнес-моделей. Помилка. Це боротьба структур довіри.

Закрита модель — це “ти можеш приходити тільки до мене” — замкнути користувачів у чергу біля моїх дверей. Відкритий код — це “ти не можеш без моєї екосистеми” — побудувати інфраструктуру AI для розробників, компаній, цілої країни на моїй архітектурі. Один — платна дорога, інший — швидкісна автомагістраль.

DeepSeek реалізував цю ідею послідовним відкриттям моделей V3, R1, V3.2, V4. Сьогодні будь-яка компанія у світі, яка прагне локального розгортання або роботи з великими моделями у фінансах, медицині, державному управлінні, військовій сфері, — перша думка буде: DeepSeek. Китайські держпідприємства, суверенні фонди Близького Сходу, європейські банки, які не хочуть передавати дані американським хмарам — вони ніколи не використовуватимуть закриті API. Вони — протилежні ставки Anthropic і OpenAI: передовий інтелект завжди у них, найрозумніші клієнти готові платити більше.

Але ця стратегія має часовий вік. З виходом R1 здатність відкритого і закритого коду за рік звузилася до трьох місяців. Якщо цей період скоротиться до місяця, закрита модель почне тріскатися.

02 Архітектура моделей — три компанії йдуть різними шляхами

V4-Pro має 1.6 трлн параметрів / 49 млрд активних; V4-Flash — 284 млрд параметрів / 13 млрд активних. Стандартний контекст — 1 мільйон токенів. Ядро архітектури — гібридна увага (CSA + HCA чергується) + Manifold-Constrained Hyper-Connections + Muon-оптимізатор + тренування FP4. У сценарії з 1 мільйоном токенів, FLOPs для одного токена у V4-Pro — лише 27% від V3.2, кеш KV — 10%. V4-Flash ще ефективніше — FLOPs зменшено до 10%, кеш KV — до 7%.

Суть цієї архітектури — у тому, що довгий контекст — не здатність, а ефективність. Покоління V3 з MoE зменшило витрати на тренування, покоління V4 зменшить витрати на inference за рахунок гібридної уваги. Крок за кроком — у найдорогоцінніших частинах.

GPT-5.5 — інша історія. Офіційно — це перша модель після GPT-4.5, що тренується з нуля. Попередні версії 5.1, 5.2, 5.3, 5.4 — це ітерації на базі однієї архітектури. 5.5 — це переробка архітектури, новий корпус даних для попереднього тренування, нові цілі для агентів. Пачокі на презентації сказав — “прогрес моделей за останні два роки був дивно повільним” — насправді він мав на увазі, що їхній базовий код вже не дає можливості масштабуватися далі, потрібно змінювати двигун.

Claude Opus 4.7 — точне вдосконалення 4.6. Anthropic чітко визначилися: “значне покращення”, але не революція. SWE-bench підтвердив — з 80.8 до 87.6, візуальна роздільна здатність з 1568px до 2576px, загальна пропускна здатність у 3.3 рази вища, токенізатор оновлений (для того ж тексту потрібно на 1-1.35 разів більше токенів). Mythos Preview — їхня справжня наступна генерація, але поки що в сейфі, доступна лише 12 партнерам, для масового використання — чекати.

03 Нижчий рівень чіпів — найнедооціненіша новина сьогодні

Заголовки провідних англомовних медіа — про benchmark V4. Помилка. Найважливіша новина — частина тренувань V4 виконана на Huawei Ascend.

У той самий день Huawei оголосила про повну підтримку серії Ascend SuperPoD для V4 Pro і Flash. Камінь синхронно підтвердив сумісність. Акції SMIC у Гонконгу зросли на 10%. Це — справжня новина: вперше в історії AI вітчизняне обладнання повністю забезпечує тренування і inference без будь-яких чіпів NVIDIA.

Це — вагоміше за всі benchmark разом узяті.

За останні три роки США застосували єдиний важіль — експортний контроль на передові GPU. Логіка проста: ти не можеш тренувати найсильніші моделі, бо не можеш купити H100 або B200. Випуск V4 — це зменшення цього важеля наполовину. Перший ешелон відкритих моделей може тренуватися і розгортатися на не-NVIDIA обладнанні. Якщо ця тенденція підтвердиться на ринку, санкції у AI стануть безсилі.

Claude і GPT-5.5 працюють на стеку NVIDIA H100/H200/B200 + Google TPU + власний Trainium2 Anthropic. Іншого шляху немає. Це — бар’єр і одночасно точка уразливості. Якщо ціна NVIDIA зросте або виробництво не зможе задовольнити попит, обидві компанії постраждають. DeepSeek тепер має незалежний ланцюг постачання — ще один козир.

04 Структура витрат на тренування — як Muon, FP4 і 32 трлн токенів формують ціну

У технічному звіті V4 чітко написано: використано Muon-оптимізатор (швидше сходження, стабільніше тренування), FP4 — зменшення пам’яті вдвічі, двоступеневе пост-тренування (експерти з різних галузей — SFT + RL — потім об’єднані через on-policy дистиляцію). Тренувальний корпус — 32 трлн токенів.

Це не просто слова — це реальні механізми зниження витрат на тренування.

Результат — ціна API для V4-Pro може опуститися нижче за V3.2, а V4-Flash — до мінімуму для відкритих моделей.

Стратегія GPT-5.5 — підвищення цін. За 1 мільйон токенів — 5 доларів за вхід, 30 доларів за вихід — у два рази дорожче GPT-5.4. Офіційно — “ефективність токенів зросла на 40%, загальні витрати — лише на 20%”. Гарно звучить. Але якщо запустити реальний промпт у виробничому середовищі — довгі промпти, короткий вивід — рахунок подвоїться. OpenAI ставить ставку на “рідкість передового інтелекту”, тому може дозволити собі таке підвищення цін.

Claude Opus 4.7 — приховане підвищення цін. Ціни залишилися незмінними — 5/25 доларів, як у Opus 4.6. Але в документації Anthropic написано — новий токенізатор використовує до 1.35 разів більше токенів для того ж тексту. Тобто ціна не зросла, але рахунок може піднятися до 35%. Це — високорозумне підвищення цін, але великі компанії одразу побачать у звіті.

DeepSeek навпаки — знижує ціну. Вартість V3.2 вже низька, V4-Pro — ще дешевше. Після масового виробництва Huawei Ascend 950 ціна знову знизиться. Це — класична стратегія китайських інтернет-компаній: за допомогою масштабів і ефективності зруйнувати конкурентів, а потім утримати клієнтів через екосистему.

05 Ціноутворення API — скільки можна купити за долар

Розглянемо цінник.

Третя сторона — Artificial Analysis — навела співвідношення: при однаковому рівні інтелекту GPT-5.5 (medium) приблизно $1200, Claude Opus 4.7 (max) — близько $4800. Відповідно, V4-Pro — у 3-10 разів дешевше за ці моделі.

Це не “подешевше”. Це зниження вартості високорівневого інтелекту на один порядок.

Що це означає для компанії, яка витрачає мільйон доларів на місяць на токени? Раніше — на цю суму можна було запустити 10 агентських ліній, тепер — 80. Раніше — страшно було експериментувати, тепер — дешево. Якщо це підтвердять кілька провідних компаній (наприклад, зменшення витрат на core customer support на 70% без втрати якості), інші підуть за ними. Це — рефлексивна стратегія: кожна нова компанія, що перейде, знижує психологічний бар’єр для наступної.

OpenAI і Anthropic можуть відповідати двома способами: або знову збільшити різницю між закритим і відкритим передовим інтелектом (як швидко випустити Mythos), або підвищити бар’єри для переходу через корпоративні угоди, відповідність і надійність. Перший — потребує часу і грошей, другий — терпіння клієнтів.

06 Реальна економіка контексту у мільйон токенів

Усі три компанії мають 1M контексту. Зовні — однаковий показник.

Але — можливість робити і можливість робити дешево — різні речі.

V4-Pro у тесті Long Text Retrieval дає 83.5 балів, перевищуючи Gemini-3.1-Pro (76.3), але поступаючись Claude Opus 4.6 (92.9). CorpusQA при 1M токенах — 62%, вище за Gemini 3.1 Pro (53.8%). Точність пошуку — 94% при 128K, 82% — при 512K, 66% — при 1M. Абсолютно — не перший, але серед відкритих моделей — перший, хто зробив 1M за замовчуванням.

Claude Opus 4.7 не має додаткової плати за довгий контекст — це сильна сторона Anthropic. GPT-5.5 теж. Але проблема у тому, що вартість inference у трьох моделях — у десять разів різна, і при довгому контексті ця різниця зростає у десять разів.

Простий приклад. Юридичний документ на 500K токенів — аналіз однією моделлю: Opus 4.7 — лише вхідні дані коштують $2.5, разом з виходом — $3-4; GPT-5.5 — приблизно так само; V4-Pro — близько $1. Це — один запуск. Якщо за день зробити 10 000 таких, річна різниця у витратах — мільйони або понад мільйон доларів. Для середніх компаній довгий контекст — головна перешкода для агентських аналізів, V4-Pro цю перешкоду знімає.

07 Кодинг і агентські можливості — три компанії тримають свої позиції

Розкриємо benchmark — тут усе дуже ясно.

_Ці дані показують не хто сильніший, а три компанії зосереджені на різних агентських моделях.

Anthropic зосереджені на “роботі з реальним кодом і реальними задачами”. Cursor, Devin, Factory, Ramp — клієнти використовують Opus для не іграшкових задач — наприклад, “виправити race condition у 2-мільйонному кодовому базі, що був закопаний три тижні тому”. NVIDIA, розгорнувши Codex для 10 тисяч співробітників, повідомила, що цикл дебагу зменшився з кількох днів до кількох годин — це цифри Anthropic теж може підтвердити. Opus 4.7 — здатен показати 64.3% SWE-bench Pro — це справжня робота на виробництві.

OpenAI зосереджені на “агенті, що керує всім комп’ютером”. Terminal-Bench 2.0, OSWorld, Shell у Codex — все це вказує на майбутнє: AI не просто пише код, а керує терміналом, виконує команди, управляє Mac. Фраза Брокмана “масштабне агентне обчислення” — не порожня балачка, а слоган на наступне десятиліття OpenAI.

DeepSeek зосереджені на “спільних інтелектуальних активах відкритих розробників”. Вони не зможуть побити SWE-bench Pro, але підняли планку відкритого світу до 3206 балів у Codeforces. Це означає, що будь-яка стартап-компанія безкоштовно може запустити на своїх машинах модель, близьку до топових змагань.

08 Аудиторія — три компанії орієнтовані на три різні гаманці

Список клієнтів Anthropic — очевидний: PayPal, Hex, Devin, Factory, Ramp, Notion, GitHub Copilot, Stripe, Block — все фінтех і SaaS. У цих компаній дві спільні риси: багато грошей, нуль терпимості до помилок. Ціни Opus 4.7 — 5/25 доларів, безпека, відповідність, багатоклаудна розгортка — усе для клієнтів, що підписують контракти на півроку і платять мільйони щороку. Вартість оцінки Anthropic у Forge Global — понад 1 трлн доларів, перевищуючи OpenAI — це історія про “щільність корпоративних клієнтів”.

OpenAI — це триколісна модель: споживачі + розробники + корпорації. ChatGPT — їхній головний актив (близько 1 мільярда активних користувачів на тиждень), GPT-5.5 у Plus/Pro/Business/Enterprise — це їхній канал API, ціна подвоєна — і це компенсується трафіком C-краю. Розробники Codex — зростання з сотень тисяч до мільйонів за півроку, великі компанії — NVIDIA, Stripe, Shopify — внутрішнє розгортання. Вони грають на масштабі — кожна одиниця витрат розподілена на величезний обсяг.

Аудиторія DeepSeek — зовсім інша. Китайські держпідприємства, банки, лікарні, урядові структури; суверенні фонди Близького Сходу, що не хочуть передавати дані американським хмарам; європейські фармацевтичні компанії, що суворо дотримуються GDPR; уряди країн, що прагнуть розвивати власний суверенний AI у Південно-Східній Азії та Латинській Америці. Також — хардкорні розробники і стартапи у Кремнієвій долині, які не хочуть платити за API і хочуть запускати моделі самостійно. Ця група — не масштаб у мільярди користувачів, але інша — геополітична і суверенна.

Три різні гаманці, три різні підходи до продажу.

09 Безпека і кібероборона — три компанії по-різному ставляться до “зброї” у моделях

Anthropic у квітні запустили Project Glasswing. Opus 4.7 — перша модель із вбудованим автоматичним виявленням і відмовою у високоризикових кіберзапитах. У технічному звіті чесно — під час тренування зменшили агресивність у кібернаступах. CyberGym — 73.1, майже так само, як Opus 4.6 (73.8), — це політика, а не межа можливостей. Mythos Preview — 83.1, але доступна лише 12 партнерам, і цей список — секрет. Нещодавно він злився у мережі (один Discord-канал вгадав URL), Anthropic опублікували інцидентний звіт.

OpenAI йде іншим шляхом. У системі GPT-5.5 чітко прописано: рівень “High” у Preparedness Framework — не до критичного. Їхній підхід — не знижувати можливості моделі, а додати суворі класифікатори, верифікацію особи, запровадити “cyber-permissive access program” — щоб використовувати агресивні можливості, потрібно пройти ідентифікацію. Мія Глейс у презентації сказала — “перша версія з підтвердженою ідентифікацією” — натяк на відповідальність.

У технічному звіті DeepSeek V4 — майже порожньо. Відкритий код — це “відкриваю, ти береш, ти відповідаєш”. Це — мрія регуляторів і рай для незалежних розробників. Але ризик у тому, що будь-хто може запустити на своїй GPU модель, близьку до Opus 4.7, без будь-яких фільтрів. Як регуляція буде реагувати — питання відкриті, 2026–2027 — ключовий період.

10 Стратегія виходу на ринок — три різні ставки, але одна стане найбільшою

DeepSeek прагне зробити AI-лінукс. Відкрите програмне забезпечення, мінімальні витрати, власні чіпи — демократизувати інфраструктуру AI у світі. Коли кожна країна, кожна компанія, кожен розробник працює на твоїй архітектурі — ти не заробляєш на ліцензіях, а отримуєш податки з екосистеми. Сьогодні — завантаження на Hugging Face, завтра — SDK кожного вітчизняного чіпмейкера, післязавтра — перша стрічка коду нових AI-розробників: from deepseek import… Це — стратегія, яку Лінус Торвальдс застосовував 20 років тому, сьогодні її повторює Лян Веньфенг. Відмінність — LLM у 10 000 разів дорожчі за ОС, у 1000 разів більше капіталу, у 100 разів — геополітична цінність.

Anthropic прагне стати AI-двигуном для провідних світових компаній.

Їхні клієнти — не мільярд споживачів, а перша тисяча компаній світу з великими ІТ-бюджетами і бюджетами на відповідність. Opus 4.7 — “ніжний, але глибокий” — три роки контракту, мільйони доларів. Mythos Preview — дефіцитний продукт, багатоклієнтність, багатоклаудна доставка через Bedrock/Vertex/Foundry, оцінка у трильйони — все це формує історію: юридичні і фінансові відділи, R&D, служби підтримки — все працює на їхніх моделях і не може зупинитися. Це — логіка юридичних фірм і інвестиційних банків, а не Facebook. Мало клієнтів — високі ціни, високий бар’єр входу.

OpenAI — це майбутній Windows + Office + Google у одній системі.

ChatGPT — їхній канал розповсюдження (близько 1 мільярда активних користувачів на тиждень), Codex — їхній інструмент для розробників, Operator — точка входу для керування комп’ютером, новий Mac App — їхній десктопний продукт. Фраза Брокмана “масштабне агентне обчислення” — не порожня балачка, а слоган майбутнього десятиліття. Вони прагнуть зробити не просто “розумного чатбота”, а спосіб, яким люди користуватимуться комп’ютерами у 2027–2030 роках. Подвоєння ціни GPT-5.5 — це гарантія цієї ставки.

Три шляхи ведуть до Риму. Але лише один стане найбільшим — і цей шлях визначить розподіл багатства у AI на наступне десятиліття.

Три компанії завершили роздачу карт у один тиждень.

Claude Opus 4.7 — стабільний — вузький, але глибокий, компанії готові підписати трирічний контракт і платити мільйони. Його перевага — у надійності: будь-яка середня або велика компанія, що хоче використовувати AI для підвищення продуктивності, не знайде кращого і надійнішого вибору.

GPT-5.5 — дорогий — з подвійною ціною, з амбіціями створити суперзастосунок, лідер агентських можливостей у командному рядку і керуванні комп’ютером. Його перевага — якщо у 2027 році “AI керуватиме всім комп’ютером” стане реальністю, OpenAI стане цим революційним гігантом, як Microsoft у 1995. Якщо ні — ціна 5/30 доларів стане дорогим застереженням.

V4 від DeepSeek — жорсткий — відкритий код, низька ціна, власні чіпи, — прориває захисні стіни двох інших. Його шанс — у тому, що якщо геополітична фрагментація продовжиться і AI-інфраструктура розділиться на дві екосистеми — китайську і американську, — DeepSeek стане Linux для китайської екосистеми. Ймовірність — не 50%, але вже значно вища, ніж рік тому.

У січні 2025 року, коли з’явився R1, ринок першим відреагував — “Китайський AI наздогнав”. А тепер — з’явилася нова фраза — “Китайський AI починає змінювати правила”.

Якщо правила змінюються — їх уже не повернути назад.

Після четвертої вечора, на Каліфорнійському проспекті починає дути прохолода. Склянка Zombie Café порожня. Аллан акуратно згортає три друковані документи і кладе їх у рюкзак. Вийшов за двері — собака підняв голову, але знову ліг.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити