OPENAI

คำนวณราคา OpenAI

price.closed
OPENAI
฿0
+฿0(0.00%)
No data

data.updated

v2.stock.overview v2.daily.trading v2.range.52w

key.stats

pe.ratio0.00
div.yield0.00%
shares.out0.00

เรียนรู้เพิ่มเติมเกี่ยวกับ OpenAI (OPENAI)

stock.faq

stock.price

x
current.stats

52w.range.q

x

pe.ratio.q

x

market.cap.q

x

eps.recent.q

x

buy.sell.q

x

price.factors

x

buy.how

x

risk.warn

risk.notice

disclaimer2

risk.disclosure

latest.news

2026-04-26 03:33

OpenAI รวม Codex เข้ากับโมเดลหลักตั้งแต่ GPT-5.4 และยุติไลน์การเขียนโค้ดแบบแยกเดี่ยว

ข่าว Gate ฉบับวันที่ 26 เมษายน — รอเมน ฮูเอต์ หัวหน้าฝ่ายประสบการณ์นักพัฒนาของ OpenAI เปิดเผยในแถลงการณ์ล่าสุดบน X ว่า Codex ซึ่งเป็นไลน์โมเดลสำหรับการเขียนโค้ดเฉพาะทางที่บริษัทดูแลรักษาอย่างอิสระ ได้ถูกรวมเข้ากับโมเดลหลักตั้งแต่ GPT-5.4 เป็นต้นไป และจะไม่รับการอัปเดตแยกต่างหากอีกต่อไป. GPT-5.5 ต่อขยายการรวมนี้ด้วยความสามารถที่โดดเด่น โดยมีการปรับปรุงด้านการเขียนโค้ดแบบใช้เอเจนต์ (agent-driven autonomous programming) และการใช้งานคอมพิวเตอร์ (executing computer tasks autonomously). การผสานกันดังกล่าวหมายความว่านักพัฒนาจะไม่จำเป็นต้องเลือกระหว่างโมเดลสำหรับการเขียนโค้ดแบบทั่วไปและแบบเฉพาะทางอีกต่อไป—โมเดลเดียวสามารถจัดการความสามารถด้านการสนทนา การให้เหตุผล และการเขียนโค้ดได้พร้อมกัน

2026-04-25 12:31

DeepSeek เปิดตัวโมเดล V4-Pro และ V4-Flash ในต้นทุนที่ต่ำกว่า GPT-5.5 Pro ของ OpenAI ถึง 98%

ข่าวประตูเมือง ประจำวันที่ 25 เมษายน — DeepSeek ปล่อยตัวอย่าง (preview) ของ V4-Pro และ V4-Flash เมื่อวันที่ 24 เมษายน ทั้งสองเป็นโมเดลน้ำหนักเปิด (open-weight) ที่มีหน้าต่างคอนเท็กซ์ 1 ล้านโทเค็น V4-Pro มีพารามิเตอร์ทั้งหมด 1.6 ล้านล้านตัว แต่จะเปิดใช้งานได้เพียง 49 พันล้านต่อรอบการอินเฟอเรนซ์ผ่านสถาปัตยกรรมแบบ Mixture-of-Experts V4-Flash มีพารามิเตอร์ทั้งหมด 284 พันล้านตัว โดยมีที่ใช้งานจริง 13 พันล้านตัว ราคาถูกกว่าคู่แข่งอย่างมีนัยสำคัญ: V4-Pro มีค่าใช้จ่าย $1.74 ต่อ 1 ล้านโทเค็นสำหรับอินพุต และ $3.48 ต่อ 1 ล้านโทเค็นสำหรับเอาต์พุต—ประมาณ 98% น้อยกว่าของ GPT-5.5 Pro ของ OpenAI ($30 input, $180 output) และมีค่าใช้จ่ายราวหนึ่งในยี่สิบของต้นทุน Claude Opus 4.7 V4-Flash มีราคาที่ $0.14 สำหรับอินพุต และ $0.28 สำหรับเอาต์พุต ต่อ 1 ล้านโทเค็น ทั้งสองโมเดลเป็นโอเพนซอร์สภายใต้ไลเซนส์ MIT และสามารถรันในเครื่องได้ฟรี DeepSeek ทำให้มีประสิทธิภาพดีขึ้นผ่านกลไกความสนใจ (attention) แบบใหม่สองแบบ: Compressed Sparse Attention และ Heavily Compressed Attention ซึ่งลดต้นทุนการคำนวณเหลือ 27% ของรุ่นก่อนหน้าของ V4-Pro (V3.2) และเหลือ 10% สำหรับ V4-Flash บริษัทฝึก V4 บางส่วนบนชิป Huawei Ascend โดยหลีกเลี่ยงข้อจำกัดการส่งออกของสหรัฐฯ ที่มีต่อโปรเซสเซอร์ Nvidia รุ่นที่ก้าวหน้า DeepSeek ระบุว่าเมื่อซูเปอร์โหนดใหม่ 950 เครื่องทยอยออนไลน์ในช่วงปลายปี 2026 ราคาจะลดลงอีก ด้านผลการทดสอบประสิทธิภาพ V4-Pro-Max อยู่อันดับหนึ่งบน Codeforces สำหรับการแข่งขันเขียนโปรแกรม (3,206 คะแนน โดยอยู่ราวอันดับที่ 23 ในกลุ่มผู้เข้าแข่งขันที่เป็นมนุษย์) และได้คะแนน 90.2% ในโจทย์คณิตศาสตร์ Apex Shortlist เทียบกับ Claude Opus 4.6 ที่ได้ 85.9% อย่างไรก็ตาม มันตามหลังในเกณฑ์การทดสอบด้านมัลติทาสกิ้ง: MMLU-Pro (87.5% เทียบกับ Gemini-3.1-Pro ที่ 91.0%) และ Humanity's Last Exam (37.7% เทียบกับ 44.4%) สำหรับงานที่ต้องใช้คอนเท็กซ์ยาว V4-Pro นำหน้าโมเดลโอเพนซอร์ส แต่แพ้ Claude Opus 4.6 ในการทดสอบการดึงข้อมูล MRCR V4-Pro เพิ่ม "interleaved thinking" ซึ่งทำให้เวิร์กโฟลว์ของเอเจนต์สามารถคงบริบทการให้เหตุผลไว้ได้ข้ามการเรียกใช้เครื่องมือหลายครั้ง โดยไม่ต้องล้างระหว่างขั้น ทั้งสองโมเดลรองรับการเชื่อมต่อการเขียนโค้ดกับ Claude Code และ OpenCode ตามแบบสำรวจสำหรับนักพัฒนาของ DeepSeek จากผู้ใช้ 85 คน 52% กล่าวว่า V4-Pro พร้อมใช้งานเป็นเอเจนต์โค้ดเริ่มต้นของพวกเขา โดย 39% เอนเอียงไปทางการนำไปใช้ เอนด์พอยต์ deepseek-chat และ deepseek-reasoner รุ่นเดิมจะยุติการให้บริการในวันที่ 24 กรกฎาคม 2026

2026-04-25 09:21

ผู้พิพากษายกฟ้องข้อกล่าวอ้างเรื่องการฉ้อโกงในคดีของ Elon Musk ต่อ OpenAI; คดีเดินหน้าสู่การพิจารณาคดีด้วยข้อกล่าวหาที่เหลืออยู่ 2 ประการ

ข่าวประตู ข่าวเมื่อวันที่ 24 เมษายน — ผู้พิพากษาศาลรัฐบาลกลางได้ยกฟ้องข้อกล่าวอ้างเรื่องการฉ้อโกงจากคดีความของ Elon Musk ที่ยื่นฟ้อง OpenAI, Sam Altman, Greg Brockman และ Microsoft ซึ่งทำให้คดีสามารถเดินหน้าสู่การพิจารณาคดีได้ โดยยังคงเหลือข้อกล่าวหาอีก 2 ประการ: การละเมิดความไว้วางใจทางการกุศล และการได้รับประโยชน์โดยไม่เป็นธรรม U.S. District Judge Yvonne Gonzalez Rogers ออกคำตัดสินในเมืองโอ๊คแลนด์ รัฐแคลิฟอร์เนีย เริ่มคัดเลือกคณะลูกขุนวันจันทร์ (April 28) โดยคาดว่าคำแถลงเปิดจะมีขึ้นวันอังคาร (April 29). คดีฟ้องของ Musk เดิมทีประกอบด้วย 26 ข้อกล่าวหา ยื่นฟ้องในเดือนพฤศจิกายน 2024; ก่อนคำตัดสินของวันศุกร์ เหลือเพียง 4 ข้อกล่าวหา ข้อกล่าวหาที่เหลืออยู่เน้นไปที่คำกล่าวของ Musk ว่า OpenAI ละเมิดภารกิจด้านองค์กรไม่แสวงหาผลกำไรเมื่อก่อตั้งบริษัทย่อยที่แสวงหาผลกำไรในปี 2019 หลังจากที่ Musk ออกจากบอร์ด Musk กำลังเรียกร้อง $150 billion ในค่าเสียหาย โดยเงินดังกล่าวมีไว้สำหรับส่วนงานที่ไม่แสวงหาผลกำไรของ OpenAI เขายังเรียกร้องให้ถอด Altman และ Brockman ออกจากบทบาทของตน และให้ยกเลิกการปรับโครงสร้างที่มุ่งผลกำไรของ OpenAI OpenAI ซึ่งปัจจุบันมีมูลค่ามากกว่า $850 billion ได้เรียกคดีนี้ว่า "ไร้สาระ" และอธิบายว่าเป็น "แคมเปญการคุกคาม" ความสำคัญอยู่ที่ช่วงเวลา: ขณะนี้ OpenAI กำลังพิจารณาการเข้าจดทะเบียนในตลาดสาธารณะที่เป็นไปได้ในไตรมาสที่ 4 ขณะที่ Musk กำลังเตรียม SpaceX สำหรับ IPO ครั้งประวัติศาสตร์ นอกจากนี้ xAI และ X ได้ยื่นฟ้องคดีต่อต้านการผูกขาดแยกต่างหากต่อ OpenAI และ Apple; กำหนดการพิจารณาในคดีนั้นจะมีขึ้นในเดือนพฤษภาคมที่เท็กซัส Musk ร่วมก่อตั้ง OpenAI ในปี 2015 ก่อนจะเปิดตัว xAI ในปี 2023 ในฐานะคู่แข่ง เมื่อไม่นานมานี้ xAI ได้ควบรวมกิจการกับ SpaceX ในดีลที่ประเมินมูลค่ารวมของกิจการที่ $1.25 trillion.

2026-04-25 06:12

IPO ของ SpaceX, OpenAI และ Anthropic อาจดึงดูดเงินมากกว่า $240 พันล้าน ซึ่งอาจส่งผลต่อสภาพคล่องของตลาดคริปโต

ข้อความข่าว Gate ประจำวันที่ 25 เมษายน — ตามรายงานของตลาด คาดว่า SpaceX จะเข้าจดทะเบียนในตลาดหลักทรัพย์ในเดือนมิถุนายน โดยมีเป้าระดมทุนมากกว่า IPO ครั้งทำสถิติของ Saudi Aramco ที่ $29 พันล้าน ขณะที่ OpenAI และ Anthropic วางแผนจะเข้าจดทะเบียนในช่วงครึ่งหลังของปี 2026 ทั้งสามบริษัทคาดว่าจะดึงดูดเงินทุนรวมมากกว่า $240 พันล้าน การเข้าจดทะเบียนของ SpaceX จะถือเป็นการเสนอขายหุ้นต่อสาธารณะครั้งแรกที่ใหญ่ที่สุด (IPO) ในประวัติศาสตร์ หากเกินสถิติสูงสุดปัจจุบันของ Saudi Aramco นักวิเคราะห์ตลาดคาดว่า mega-IPOs เหล่านี้อาจกลายเป็นจุดเปลี่ยนสำคัญสำหรับสภาพคล่องของตลาดคริปโต เนื่องจากทั้งสามบริษัทคาดว่าจะดึงดูดเงินทุนจากแหล่งลงทุนเดียวกับสินทรัพย์ดิจิทัล เนื่องจากในช่วงไม่กี่ปีที่ผ่านมา Bitcoin, Ethereum และคริปโตเคอร์เรนซีรายใหญ่ตัวอื่นๆ มีความสัมพันธ์กันมากขึ้นกับดัชนีหุ้นสหรัฐ Nasdaq ที่เน้นกลุ่มเทคโนโลยี (ดัชนีหุ้นเทคโนโลยีในสหรัฐฯ แบบเข้มข้น) และความต้องการรับความเสี่ยงด้านหุ้นสหรัฐในวงกว้าง หากมีการโยกย้ายเงินทุนครั้งใหญ่ไปสู่ ​​เทค IPO เหล่านี้ อาจทำให้แรงกดดันฝั่งการซื้อของ BTC, ETH และอัลท์คอยน์ลดลงได้

2026-04-25 03:11

Nvidia ปรับใช้เอเจนต์ AI Codex ของ OpenAI ทั่วทั้งองค์กรบนโครงสร้างพื้นฐาน Blackwell

ข่าวประจำ Gate วันที่ 25 เมษายน — Nvidia ได้เปิดตัว Codex ของ OpenAI ซึ่งเป็นเอเจนต์ AI ที่ขับเคลื่อนด้วย GPT-5.5 ให้กับพนักงานทั้งหมดทั่วทั้งองค์กร หลังจากการทดสอบที่ประสบความสำเร็จกับพนักงานราว 10,000 คน ตามรายงานการสื่อสารภายในจากซีอีโอ Jensen Huang และ CEO ของ OpenAI Sam Altman. Codex ออกแบบมาเพื่อช่วยงานด้านการเขียนโค้ด การวางแผน และเวิร์กโฟลว์ในหลายแผนก รวมถึงวิศวกรรม ผลิตภัณฑ์ กฎหมาย การตลาด การขาย และการปฏิบัติการ ระบบทำงานบนโครงสร้างพื้นฐาน Blackwell ของ Nvidia และทั้งสองบริษัทได้จัดตั้ง Codex Lab ที่ทุ่มเทเพื่อการฝึกอบรมและการพัฒนา OpenAI เปิดเผยว่า Codex มีผู้พัฒนาที่ใช้งานอยู่รายสัปดาห์เกิน 4 ล้านคนแล้ว. Nvidia รายงานผลประหยัดและประสิทธิภาพที่โดดเด่นจากการรัน Codex ที่ขับเคลื่อนด้วย GPT-5.5 บนระบบแบบแร็กสเกล GB200 NVL72: ต้นทุนต่อหนึ่งล้านโทเค็นลดลง 35 เท่าเมื่อเทียบกับระบบรุ่นก่อนหน้า ขณะที่ผลผลิตโทเค็นต่อวินาทีต่อเมกะวัตต์เพิ่มขึ้น 50 เท่า สำหรับด้านความปลอดภัย Nvidia ใช้นโยบายไม่เก็บข้อมูล (zero-data retention) และจัดเตรียมบุคลากรด้วยเครื่องเสมือนบนคลาวด์ (VMs). แอปพลิเคชัน Codex เชื่อมต่อผ่าน Secure Shell ระยะไกล (SSH) ไปยังเครื่องเสมือนบนคลาวด์ที่ได้รับอนุมัติ โดยเอเจนต์ได้รับสิทธิ์เข้าถึงแบบอ่านอย่างเดียวต่อระบบที่ใช้งานจริง โครงสร้างสถาปัตยกรรมนี้ทำให้ Codex สามารถจัดการงานที่ใช้เวลานานกว่า 24 ชั่วโมงได้ด้วยการใช้การบีบอัดบริบทเพื่อรักษาประสิทธิภาพด้านหน่วยความจำ. นอกเหนือจาก Nvidia แล้ว Codex กำลังขยายไปสู่การยอมรับซอฟต์แวร์ระดับองค์กรในวงกว้าง OpenAI กำลังเดินหน้าดำเนินการลักษณะเดียวกันกับบริษัทใหญ่อื่นๆ; บริษัทให้บริการด้านเทคโนโลยีของแคนาดา CGI รายงานว่า วิศวกร ผู้เชี่ยวชาญ และที่ปรึกษาของบริษัทจำนวนหลายหมื่นคนใช้งานเครื่องมือของ OpenAI รวมถึง Codex อยู่แล้ว Nvidia และ OpenAI ยังเร่งการร่วมมือในการออกแบบชิป โดย OpenAI ช่วยทดสอบและปรับแต่งสถาปัตยกรรมที่จะเกิดขึ้น ขณะเดียวกันก็ได้รับสิทธิ์เข้าถึงแบบเริ่มต้นสำหรับการออกแบบระบบใหม่ๆ ความร่วมมือนี้ยังต่อยอดไปถึงจดหมายแสดงเจตจำนงที่ไม่ผูกมัดสำหรับ OpenAI ในการติดตั้งระบบของ Nvidia อย่างน้อย 10 กิกะวัตต์สำหรับโครงสร้างพื้นฐาน AI รุ่นถัดไป.

กระทู้ร้อนแรงเกี่ยวกับ OpenAI (OPENAI)

Flyawei

Flyawei

15 นาทีที่ผ่านมา
【รายงานข่าวเด่น】เหตุการณ์ 10 อันดับสูงสุดในวงการ AI และคริปโตในช่วง 48 ชั่วโมงที่ผ่านมา: 1. 【การช่วยเหลือ DeFi】Aave นำทีมระดมทุนกว่า 100,000 ETH (ประมาณ 23.2 ล้านดอลลาร์สหรัฐ) สำหรับเหตุการณ์ rsETH โดย KelpDAO และ LayerZero เข้าร่วมดำเนินการ 2. 【ช่องโหว่ Litecoin】Litecoin เปิดเผยช่องโหว่ Zero-day ทำให้เหมืองขัดข้องจากการโจมตี DoS ผ่านการปรับโครงสร้าง 13 บล็อก เครือข่ายกลับมาใช้งานได้ตามปกติ 3. 【การใช้งานในองค์กร】สัญญาอนุพันธ์ ETF บิตคอยน์ของ BlackRock IBIT มีมูลค่าคงค้างกว่า 27.6 พันล้านดอลลาร์ เป็นครั้งแรกที่เกิน Deribit แสดงให้เห็นความเร่งของการนำผลิตภัณฑ์อนุพันธ์เข้ามาใช้ในเชิงกฎหมาย 4. 【แฮกเกอร์ Balancer】ผู้โจมตี Balancer ใน 3 วันที่ผ่านมา แลก ETH 21,000 เหรียญ เป็น BTC 617.43 (ประมาณ 487.2 ล้านดอลลาร์) ยังคงถือ ETH อีก 1,000 เหรียญ อาจมีการขายต่อ 5. 【ZetaChain AI】ZetaChain ผนวกโมเดล GPT-5.5 ของ OpenAI เข้ากับชั้น AI ชื่อ Anuma รองรับการเข้าถึงหลายโมเดลอย่างไร้รอยต่อและหน่วยความจำความเป็นส่วนตัว 6. 【การระดมทุน Fere AI】แพลตฟอร์มตัวกลางซื้อขายสินทรัพย์ดิจิทัล Fere AI ระดมทุน 1.3 ล้านดอลลาร์ โดย Ethereal Ventures เป็นผู้นำสนับสนุนการซื้อขายด้วยภาษาธรรมชาติบน ETH, SOL, BASE 7. 【Mythos ของ Anthropic】AI Mythos ของ Anthropic เปลี่ยนโฟกัสด้านความปลอดภัยของ DeFi ไปยังโครงสร้างพื้นฐาน (กุญแจ, สะพาน) Coinbase และ Aave เข้าร่วมทดสอบ 8. 【USDC ครองตลาด】USDC คิดเป็น 98% ของเศรษฐกิจ AI ตัวแทนชำระเงินแบบไมโคร จนกลายเป็นสกุลเงิน AI จริง แซงหน้าโทเคนธีมอย่าง FET, TAO, RENDER 9. 【การชำระเงิน AI บน Base】นักพัฒนา Coinbase Base คาดว่า AI ตัวแทนจะเป็นคลื่นลูกใหม่ของการชำระเงินคริปโต x402 protocol จัดการเงิน 48 ล้านดอลลาร์ โดย 95% อยู่บนเครือข่าย Base 10. 【การปลดล็อก Quack AI】โครงการโทเคน AI Quack AI (Q) จะปลดล็อกประมาณ 161 ล้านโทเคนในวันที่ 2 พฤษภาคม มูลค่าราว 1.71 ล้านดอลลาร์ แหล่งข้อมูล: Surf AI, ChainCatcher, TechFlow, Coindesk เป็นต้น
0
0
0
0
金色财经_

金色财经_

1 ชั่วโมงที่ผ่านมา
บ่ายสามครึ่ง ดวงอาทิตย์บนถนนแคลิฟอร์เนียเริ่มเอียงไปทางสแตนฟอร์ดอีกครั้ง สุนัขที่หน้าร้าน Zombie Café นอนอยู่ใต้เก้าอี้ขาวที่อยู่หน้าประตู โต๊ะวางเอกสารพิมพ์สามชุด: แถลงข่าวเปิดตัว Opus 4.7 ของ Anthropic เมื่อวันที่ 16 เมษายน บทสคริปต์คำพูดงานเปิดตัว GPT-5.5 ของ OpenAI เมื่อวันที่ 23 เมษายน รวมถึงรายงานเทคนิค DeepSeek V4 ที่เพิ่งออกเมื่อเช้านี้หมึกยังไม่แห้ง ภายในแปดวัน สามบริษัทเปิดเผยแผนทั้งหมดสำหรับไตรมาสสองปี 2026 ก่อนดื่มกาแฟเสร็จ Alan Walker แห่ง Silicon Valley เล่าเรื่องนี้ให้ชัดเจน ไม่พูดถึง benchmark ไม่พูดถึงโมเดลที่ "รู้สึกดีกว่า" ไม่เขียนข่าวประชาสัมพันธ์ เพียงแค่แยกตามหลักการพื้นฐาน—เทคโนโลยี ชิป ราคา กลุ่มเป้าหมาย กลยุทธ์ ระบบนิเวศ—สามบริษัทแต่ละแห่งยืนอยู่ตรงไหน นำหน้า ใกล้ชิด หรือกำลังเขย่าบรรทัด _**01**_ เปิดซอร์ส vs ปิดซอร์ส — ความขัดแย้งพื้นฐานของเส้นทางรบนี้ ----------------------------- DeepSeek ครั้งนี้เปิดโมเดล V4-Pro และ V4-Flash พร้อมกัน ภายใต้ใบอนุญาต MIT มาตรฐาน น้ำหนักโมเดลขึ้น Hugging Face โดยตรง ใครก็สามารถดาวน์โหลด ปรับแต่ง เชิงพาณิชย์ได้ Claude Opus 4.7 และ GPT-5.5 เป็นโมเดลปิดสนิท — ให้แค่ API แต่ไม่เปิดให้เข้าถึงน้ำหนักโมเดลตลอดชีวิต หลายคนเข้าใจว่านี่คือความขัดแย้งด้านโมเดลธุรกิจ ผิด นี่คือความขัดแย้งด้านโครงสร้างความเชื่อมั่น แนวป้องกันของปิดซอร์สคือ "คุณต้องมาหาเราเท่านั้น" — ล็อคผู้ใช้ให้อยู่ในบ้านเรา รอคิวเข้าใช้งาน แนวป้องกันของเปิดซอร์สคือ "คุณไม่สามารถแยกออกจากระบบนิเวศของเรา" — สร้างนักพัฒนา บริษัท และโครงสร้างพื้นฐาน AI ของประเทศทั้งหมดบนสถาปัตยกรรมของเรา หนึ่งคือทางเก็บเงิน อีกหนึ่งคือทางด่วน DeepSeek ใช้ V3 R1 V3.2 และ V4 เปิดซอร์สต่อเนื่องสี่รุ่น ทำให้เรื่องนี้เป็นจริงแล้ว วันนี้บริษัทใดในโลกที่อยากทำ deployment ในท้องถิ่น อยากรันโมเดลใหญ่ในด้านการเงิน การแพทย์ การบริหารราชการ หรืออุตสาหกรรมทหาร ก็จะนึกถึง DeepSeek เป็นอันดับแรก ช่วงเวลานี้ บริษัทรัฐวิสาหกิจในจีน กองทุนอธิปไตยในตะวันออกกลาง ธนาคารในยุโรปที่ไม่อยากให้ข้อมูลรั่วไหลไปคลาวด์อเมริกัน — พวกเขาจะไม่ใช้ API ปิดสนิทแน่นอน ไม่มีวัน Anthropic และ OpenAI เดิมพันตรงกันข้าม: ความต่างของปัญญาหน้ากระดานอยู่ที่ความล้ำหน้าเสมอ ลูกค้าที่ฉลาดที่สุดก็ยอมจ่ายแพงที่สุด แต่การเดิมพันนี้มีกรอบเวลา ตั้งแต่ R1 ออกจนถึงตอนนี้ ความสามารถของเปิดซอร์สและปิดซอร์สลดช่องว่างจากหนึ่งปีเหลือสามเดือน เมื่อสามเดือนกลายเป็นหนึ่งเดือน เส้นปิดซอร์สก็เริ่มแตกร้าว _**02**_ สถาปัตยกรรมโมเดล — สามบริษัทเดินเส้นทางไม่เหมือนกัน --------------------------- V4-Pro 1.6T พารามิเตอร์ / 49B การเปิดใช้งาน; V4-Flash 284B พารามิเตอร์ / 13B การเปิดใช้งาน Context 1M เป็นค่าเริ่มต้นจากโรงงาน โครงสร้างหลักคือ การผสมผสานความสนใจ (CSA + HCA สลับกัน) + Hyper-Connections ควบคุมด้วย Manifold + ตัวปรับ Muon + การฝึกด้วย FP4 ในบริบท 1M token การคาดการณ์ต่อ token ของ V4-Pro ใช้ FLOPs เพียง 27% ของ V3.2 และแคช KV ใช้เพียง 10% ส่วน V4-Flash ลด FLOPs ลงเหลือ 10% และแคช KV เหลือ 7% แกนหลักของสถาปัตยกรรมนี้คือ ความเชื่อมั่นในคำเดียว: การมีบริบทยาวไม่ใช่ปัญความสามารถ แต่เป็นเรื่องประสิทธิภาพ ในรุ่น V3 การลดต้นทุนการฝึกด้วย MoE ในรุ่น V4 ต้องใช้การผสมผสานความสนใจเพื่อ ลดต้นทุนการคาดการณ์ลง การตัดทีละขั้นตอนในจุดที่แพงที่สุด GPT-5.5 แตกต่าง OpenAI ยืนยันชัดเจน — นี่คือโมเดลพื้นฐานที่ฝึกใหม่ตั้งแต่ศูนย์เป็นครั้งแรก หลังจาก 4.5 รุ่นก่อนหน้านี้เป็นการปรับปรุงบนฐานเดียวกัน 5.1, 5.2, 5.3, 5.4 เป็นการปรับปรุงหลังการฝึกบนฐานเดียวกัน 5.5 ทำการเปลี่ยนแปลงโครงสร้างใหม่ ฝึกด้วยข้อมูลใหม่ และเป้าหมายการฝึกแบบ agent-based Pachocki ในงานเปิดตัวพูดว่า — "ความก้าวหน้าของโมเดลในสองปีที่ผ่านมา surprisingly slow" — จริงๆ แล้วหมายความว่าพื้นฐานเดิมไม่สามารถรองรับเส้นทาง scaling ใหม่ได้ ต้องเปลี่ยนเครื่องยนต์ Claude Opus 4.7 เป็นการปรับปรุงอย่างแม่นยำจาก 4.6 Anthropic ตั้งเป้าชัดเจน: การปรับปรุงที่น่าสนใจ ไม่ใช่ paradigm shift จาก SWE-bench Verified ยกระดับจาก 80.8 เป็น 87.6 ความละเอียดภาพจาก 1568px เป็น 2576px throughput รวม 3.3 เท่า เปลี่ยน tokenizer ครั้งหนึ่ง (ข้อความเดิมใช้ token เพิ่มขึ้น 1-1.35 เท่า) Mythos Preview คืออนาคตของพวกเขา แต่ตอนนี้ยังเก็บไว้ในเซฟเฮาส์ ให้ทดลองใช้กับพันธมิตร 12 รายเท่านั้น รอใช้ในเชิงพลเรือน _**03**_ ชิปพื้นฐาน — ข่าวที่ถูกประเมินค่าต่ำที่สุดในวันนี้ --------------------------- หัวข้อข่าวในสื่ออังกฤษหลักๆ มักพูดถึง benchmark ของ V4 ผิด วันนี้สิ่งที่เปลี่ยนเกมคือ — การฝึกโมเดล V4 บางส่วนทำบน Huawei Ascend วันเดียวกัน Huawei ประกาศสนับสนุนเต็มรูปแบบสำหรับซีรีส์ Ascend SuperPoD สำหรับ V4 Pro และ Flash Cambrian ก็ประกาศรองรับพร้อมกัน SMIC วันเดียวกันก็ราคาหุ้นพุ่งขึ้น 10% สิ่งนี้คือข่าว — เป็นครั้งแรกในวงการ AI ของจีนที่ฝึกและรัน inference ทั้งหมดบนฮาร์ดแวร์ในประเทศ ไม่มีชิป Nvidia เลยในเส้นทางสำคัญนี้ ความสำคัญของเรื่องนี้ยิ่งใหญ่กว่าทุก benchmark รวมกันเสียอีก ในสามปีที่ผ่านมา สหรัฐฯ ใช้กลยุทธ์คว่ำบาตรส่งออก GPU ขั้นสูงเป็นเครื่องมือเดียวในการกดดันจีน เพราะคุณไม่สามารถฝึกโมเดลที่ดีที่สุดได้ ถ้าหาซื้อ H100 หรือ B200 ไม่ได้ การเปิดตัว V4 เท่ากับตัดกลไกนี้ครึ่งหนึ่งออกไปแล้ว โมเดล open source ชั้นนำสามารถฝึกและ deploy บนฮาร์ดแวร์ในประเทศได้ ถ้าสิ่งนี้ได้รับการยอมรับในตลาดอย่างกว้างขวาง การคว่ำบาตรในวงการ AI ก็แทบไม่มีผลอีกต่อไป Claude และ GPT-5.5 รันบนสแต็ก NVIDIA H100/H200/B200 + Google TPU + Anthropic Trainium2 ไม่มีเส้นทางอื่น ไม่มีผู้ผลิตรายอื่น นี่คืออุปสรรคและจุดเดียว ถ้าราคานิกกี้ขึ้นหรือกำลังผลิตไม่พอ ก็จะกระทบทั้งสองบริษัทนี้ DeepSeek ตอนนี้มีเส้นทางซัพพลายเชนอิสระเพิ่มขึ้น — พวกเขามีไพ่ในมือมากขึ้น _**04**_ โครงสร้างต้นทุนการฝึก — Muon, FP4, 32T token รวมกันสร้างราคาที่เป็นอยู่วันนี้อย่างไร --------------------------------------------- ในรายงานเทคนิคของ V4 เขียนชัดเจนว่าใช้ Muon optimizer (เร็วขึ้นและเสถียรขึ้นในการ convergence) ใช้ความละเอียด FP4 (ลดการใช้หน่วยความจำลงครึ่งหนึ่ง) และฝึกแบบสองขั้นตอน post-training (ผู้เชี่ยวชาญแต่ละด้านฝึก SFT + RL แล้วใช้ on-policy distillation รวมเป็นโมเดลเดียว) รวมถึงข้อมูล pretraining 32 ล้านล้าน token สิ่งเหล่านี้ไม่ใช่แค่ของตกแต่ง แต่เป็นเครื่องมือที่แท้จริงในการลดต้นทุนการฝึก ผลลัพธ์คือ API ของ V4-Pro ราคาสามารถต่ำกว่า V3.2 ได้ และ V4-Flash ก็ลดลงไปอยู่ในช่วงโมเดล open source ขนาดเล็ก กลยุทธ์ของ GPT-5.5 คือ การปรับราคาขึ้นอย่างเปิดเผย โดยคิดค่าบริการ 5 ดอลลาร์ต่อ 1 ล้าน token สำหรับ input และ 30 ดอลลาร์สำหรับ output ซึ่งเป็นสองเท่าของ GPT-5.4 ทาง OpenAI อ้างว่า "ประสิทธิภาพ token เพิ่มขึ้น 40% รวมต้นทุนเพิ่มเพียง 20%" คำพูดสวยหรู แต่ถ้าลองรัน prompt จริงในสภาพแวดล้อมการผลิต จะรู้ว่า workflow ที่มี prompt ยาวและ output สั้น ค่าบริการจะเป็นสองเท่า OpenAI เชื่อว่า "ความหายากของปัญญาหน้ากระดานล้ำหน้า" ยังพอไปได้ในรอบนี้ จึงกล้าขึ้นราคา Claude Opus 4.7 เลือกขึ้นราคาแบบเงียบๆ ราคายังคงเท่าเดิม 5/25 ดอลลาร์ต่อ token แต่ในเอกสารของ Anthropic เขียนว่า — ข้อความเดียวกันกับ tokenizer ใหม่ ใช้ token เพิ่มขึ้นสูงสุด 1.35 เท่า กล่าวคือ ราคายังเท่าเดิม แต่บิลอาจเพิ่มสูงสุด 35% เป็นการขึ้นราคาที่ฉลาด แต่ทีมงานที่ใช้งานจำนวนมากจะเห็นได้ชัดในรายงานรายเดือน DeepSeek กลับทำตรงกันข้าม — ลดราคา ราคาของ V3.2 อยู่ในระดับต่ำอยู่แล้ว และ V4-Pro ก็ต่ำกว่านั้น อีกไม่กี่เดือนหลัง Huawei Ascend 950 ออกสู่ตลาด ก็จะลดอีกครั้ง นี่คือกลยุทธ์ดั้งเดิมของจีน: ใช้ขนาดและประสิทธิภาพลดราคาจนคู่แข่งเจ็บตัว แล้วใช้ระบบนิเวศดึงดูดลูกค้าไว้ _**05**_ การตั้งราคาของ API — หนึ่งดอลลาร์ซื้อปัญญาได้เท่าไหร่ ------------------------- เปิดตารางราคาออกมา การประเมินจาก Artificial Analysis ให้เทียบเคียงว่า ในระดับคะแนนเดียวกัน GPT-5.5 (medium) ≈ Claude Opus 4.7 (max) โดยรันเทสต์เต็มชุดประมาณ $1,200 เทียบกับ $4,800 สำหรับทั้งสองรุ่น V4-Pro ในระดับความฉลาดใกล้เคียงกัน อยู่ที่ประมาณหนึ่งในสามถึงหนึ่งในสิบของต้นทุนของทั้งสอง นี่ไม่ใช่ "ถูกลง" แต่เป็นการลดต้นทุนต่อหน่วยของปัญญาสูงสุดลงในระดับหนึ่ง สำหรับบริษัทที่ใช้งบ token ต่อเดือนเป็นล้านดอลลาร์ นั่นหมายความว่า เดิมทีสามารถรัน agent ได้ 10 สาย ตอนนี้เป็น 80 สาย การทดลองที่เคยแพงมากก็กลายเป็นราคาถูกลงมาก ถ้าสามบริษัทชั้นนำในตลาดยืนยันเรื่องนี้ (เช่นบริษัทหนึ่งลดต้นทุนจาก Opus 4.7 ถึง 70% โดยไม่ลดคุณภาพ) คนอื่นก็จะตามมา นี่เป็นกลไกสะท้อน — ยิ่งมีบริษัทย้ายมากขึ้น แต่ละรายก็จะย้ายง่ายขึ้น OpenAI และ Anthropic ตอบโต้ด้วยสองแนวทาง: หรือเราจะทำให้ช่องว่างปิดสนิทด้วยโมเดลปิดซอร์สชั้นนำ (เช่น Mythos ต้องปล่อยออกมาเร็วๆ นี้) หรือเพิ่มต้นทุนการเปลี่ยนผ่านในด้านความสัมพันธ์กับลูกค้า การปฏิบัติตามกฎระเบียบ และความน่าเชื่อถือ ซึ่งต้องใช้เวลาและเงิน หรือความอดทนจากลูกค้า _**06**_ เศรษฐศาสตร์ของบริบท 1M — จริงหรือไม่ -------------------- ทั้งสามบริษัทใช้บริบท 1M เป็นค่าเริ่มต้น ดูเหมือนเป็นตัวเลขเท่ากัน แต่ — ความสามารถในการทำและความคุ้มค่าทำไม่ได้เสมอกัน V4-Pro ทำคะแนน 83.5 ในการทดสอบ Long Document Retrieval เทียบกับ Gemini-3.1-Pro ที่ 76.3 และต่ำกว่า Claude Opus 4.6 ที่ 92.9 ในด้าน CorpusQA บน 1M token ทำได้ 62% สูงกว่า Gemini 3.1 Pro ที่ 53.8% ความแม่นยำในการ retrieval เมื่อใช้ 128K อยู่ที่ 94% เมื่อใช้ 512K อยู่ที่ 82% และ 1M อยู่ที่ 66% ตัวเลขนี้ไม่ใช่ที่หนึ่ง แต่เป็นอันดับหนึ่งใน open source และเป็นครั้งแรกที่เปิดซอร์สทำเป็นค่าเริ่มต้น Claude Opus 4.7 ไม่มีบวกค่าบริบทยาว — เป็นความสามารถเฉพาะของ Anthropic GPT-5.5 ก็เช่นกัน แต่ปัญหาคือ ค่าใช้จ่ายต่อหน่วย inference ของทั้งสามต่างกันเป็นสิบเท่า ในบริบทยาว ความแตกต่างนี้จะถูกขยายเป็นสิบเท่าเช่นกัน ลองคำนวณง่ายๆ เอกสารกฎหมาย 500K token ให้โมเดลวิเคราะห์: Opus 4.7 ใช้เงินประมาณ $2.5 สำหรับ input เท่านั้น รวมทั้ง output ก็ประมาณ $3-4; GPT-5.5 ก็ใกล้เคียงกัน; V4-Pro ประมาณ $1 ถ้าทำงานนี้ 10,000 ครั้งต่อวัน ต้นทุนต่อปีจะต่างกันหลายล้านถึงหลักสิบล้านดอลลาร์ งานวิเคราะห์ด้วย agent ในบริษัทขนาดกลางที่มีบริบทยาวเป็นอุปสรรคใหญ่ที่สุด ก็จะกลายเป็นเรื่องง่ายสำหรับ V4-Pro ไปเลย _**07**_ ความสามารถด้านการเข้ารหัสและ Agent — สามบริษัทต่างรักษาแนวทางของตน ----------------------------- _เปิดตาราง benchmark แล้วจะเห็นชัดเจน_ _ข้อมูลนี้บอกคุณไม่ใช่ว่าใครเก่งกว่า แต่เป็น _สามบริษัทเน้นพัฒนารูปแบบ agent ที่แตกต่างกัน_ Anthropic เน้น "แก้ปัญหาในโค้ดจริงในฐานข้อมูลจริง" ลูกค้าอย่าง Cursor Devin Factory Ramp ใช้ Opus ไม่ใช่ทำแค่ "สร้างแอป todo" แต่เป็น "ซ่อม race condition ที่ฝังไว้ในโค้ด 2 แสนบรรทัดที่เพิ่งเกิดขึ้นเมื่อสามสัปดาห์ก่อน" NVIDIA หลังปล่อย Codex ให้พนักงาน 1 หมื่นคน บอกว่าระยะ debug ลดลงจากหลายวันเป็นไม่กี่ชั่วโมง ตัวเลขนี้ Anthropic ก็สามารถหยิบมาใช้ได้เอง Opus 4.7 ทำคะแนน SWE-Bench Pro ได้ 64.3% — เป็นโมเดลที่ผ่านการใช้งานจริงในสายการผลิต OpenAI เน้น "Agent ควบคุมคอมพิวเตอร์ทั้งเครื่อง" เช่น Terminal-Bench 2.0 OSWorld Codex ที่รัน shell — สิ่งเหล่านี้ชี้ไปสู่อนาคต: AI ไม่ใช่แค่เขียนโค้ด แต่ AI จะเปิดเทอร์มินัล คำสั่ง และควบคุม Mac ของคุณ Brockman กล่าวในงานเปิดตัวว่า "agentic computing at scale" ไม่ใช่คำพูดลอยๆ แต่เป็นสโลแกนของ OpenAI สำหรับสิบปีข้างหน้า DeepSeek เน้น "ทรัพย์สินปัญญาสาธารณะของนักพัฒนาเปิด" มันอาจไม่ชนะ SWE-Bench Pro แต่สามารถยกระดับขีดจำกัดของ open source ไปถึง 3206 คะแนนใน Codeforces ซึ่งหมายความว่า — บริษัท startup ใดก็ได้ ไม่ต้องจ่ายเงินให้ Anthropic หรือ OpenAI ก็สามารถรันโมเดลโค้ดระดับแข่งขันได้บนเครื่องของตัวเอง _**08**_ กลุ่มเป้าหมาย — สามบริษัทมุ่งเป้าไปยังกลุ่มคนละกลุ่ม ------------------------------ รายชื่อลูกค้าของ Anthropic ชัดเจน: PayPal Hex Devin Factory Ramp Notion GitHub Copilot Stripe Block — เป็นกลุ่ม FinTech และ SaaS บริษัทเหล่านี้มีสองจุดร่วม: เงินเยอะ และไม่ยอมให้เกิดข้อผิดพลาด Opus 4.7 ราคา 5/25 ดอลลาร์ต่อ token พร้อมการตรวจสอบความปลอดภัย การปฏิบัติตามกฎระเบียบ Bedrock/Vertex AI/Foundry รองรับหลายคลาวด์ — เหล่านี้คือกลุ่มลูกค้าที่ใช้เวลาซื้อขายนานเป็นครึ่งปี เซ็นสัญญาสามปี จ่ายรายปีเป็นล้านดอลลาร์ บนแพลตฟอร์ม Forge Global Anthropic มีมูลค่ากว่า 1 ล้านล้านดอลลาร์ สูงกว่าของ OpenAI ที่ 880 พันล้าน ด้านทุนคือเรื่องราวของ "ความหนาแน่นของลูกค้าองค์กร" OpenAI ฐานหลักคือผู้บริโภค + นักพัฒนา + องค์กร ขับเคลื่อนด้วยสามกลุ่ม ChatGPT มีผู้ใช้งานรายสัปดาห์เกือบ 1 พันล้าน เป็นกำแพงเมืองของมัน GPT-5.5 เปิดตัวในแพลตฟอร์ม Plus/Pro/Business/Enterprise ราคาขึ้นสองเท่า ค่าบริการ API ก็ถูกกลบด้วยปริมาณผู้ใช้กลุ่ม C+ Codex กลุ่มนักพัฒนาก็เติบโตจากหลักหมื่นเป็นหลักล้านในครึ่งปี NVIDIA, Stripe, Shopify ใช้โมเดลภายในจำนวนมาก OpenAI เน้นขนาด — ต้นทุนต่อหน่วยถูกลดลงด้วยตัวหารจำนวนมาก กลุ่มเป้าหมายของ DeepSeek แตกต่างอย่างสิ้นเชิง: รัฐวิสาหกิจจีน ธนาคาร โรงพยาบาล หน่วยงานรัฐบาลในจีนกลาง กองทุนอธิปไตยในตะวันออกกลาง บริษัทในยุโรปที่เข้มงวดเรื่อง GDPR รัฐบาลในเอเชียตะวันออกเฉียงใต้และละตินอเมริกา รวมถึงกลุ่มนักพัฒนาระดับ hardcore ใน Silicon Valley ที่อยากรันโมเดลเองโดยไม่อยากจ่าย API กลุ่มนี้รวมกันไม่ถึงพันล้านผู้ใช้ แต่เป็นอีกระดับหนึ่ง — ระดับภูมิศาสตร์และอธิปไตย สามกลุ่มเป้าหมายที่แตกต่างกันอย่างสิ้นเชิง และกลยุทธ์การขายที่แตกต่างกัน _**09**_ ท่าทีด้านความปลอดภัยและการโจมตีทางไซเบอร์ — สามบริษัทมองโมเดลเป็นอาวุธต่างกัน -------------------------------------- Anthropic เปิด Project Glasswing เมื่อเดือนเมษายน เป็นโมเดลแรกที่ฝัง "การตรวจจับอัตโนมัติและปฏิเสธคำขอด้านความปลอดภัยทางไซเบอร์ที่มีความเสี่ยงสูง" เอกสารเทคนิคบอกตรงๆ — ฝึกด้วยความตั้งใจลดความสามารถด้านการโจมตีทางไซเบอร์ลง CyberGym ได้ 73.1 คะแนน ใกล้เคียงกับ Opus 4.6 ที่ 73.8 เป็นเรื่องของนโยบายมากกว่าความสามารถ Mythos Preview ทำได้ 83.1 แต่ให้ใช้กับพันธมิตร 12 รายเท่านั้น รายชื่อนี้เป็นความลับ — เคยรั่วเมื่อไม่นานนี้ (กลุ่ม Discord ทาย URL ถูก) Anthropic ก็ออกเอกสารรายงานอุบัติเหตุด้วย OpenAI เลือกเส้นทางต่างออกไป ระบบของ GPT-5.5 ระบุชัดว่า: ถึงระดับ "High" ในกรอบความพร้อมด้านความปลอดภัยทางไซเบอร์ ยังไม่ถึง Critical ระบบของ OpenAI ไม่ได้ลดความสามารถของโมเดล แต่เสริม classifier คัดกรอง input เข้มงวดขึ้น เพิ่มการยืนยันตัวตน และใช้ "cyber-permissive access program" — ถ้าจะใช้ความสามารถโจมตี ต้องแสดงบัตรประชาชนก่อน Glaese กล่าวในงานว่า — "การเปิดตัวที่ยืนยันตัวตนก่อนเป็นอันดับแรก" เป็นนัยว่า — ความสามารถให้ได้ แต่ความรับผิดชอบต้องรับเอง รายงานเทคนิคของ DeepSeek V4 ส่วนนี้แทบว่างเปล่า ชุมชน open source เชื่อว่า "โค้ดเปิดให้ใช้ แล้วคุณรับผิดชอบเอง" ซึ่งเป็นฝันร้ายสำหรับหน่วยงานกำกับดูแล แต่เป็นสวรรค์สำหรับนักพัฒนาอิสระ ความเสี่ยงคือ — ใครก็สามารถรันโมเดลใกล้เคียง Opus 4.7 บน GPU ของตัวเองได้ ไม่มีชั้นป้องกันใดๆ เรื่องนี้จะเป็นอย่างไรในกฎหมายและนโยบายในช่วงครึ่งหลังของปี 2026 ถึง 2027 เป็นช่วงเวลาสำคัญ _**10**_ กลยุทธ์ตลาด — สามแนวทางที่แตกต่างกัน แต่มีแนวเดียวที่จะเป็นใหญ่ที่สุด -------------------------------------- DeepSeek ตั้งเป้าทำให้ AI เป็น Linux ใช้ open source + ต้นทุนต่ำสุด + ชิปในประเทศ ทำให้โครงสร้างพื้นฐาน AI ทั่วโลกเป็นประชาธิปไตย เมื่อทุกประเทศ ทุกบริษัท ทุกนักพัฒนารันบนสถาปัตยกรรมของคุณ — คุณไม่หารายได้จากลิขสิทธิ์ แต่จากคุณค่าระบบนิเวศ เมื่อวันนี้ Hugging Face มีดาวน์โหลดจำนวนมาก วันพรุ่งนี้ SDK ของชิปในประเทศทุกยี่ห้อก็รองรับ DeepSeek แล้ว วันมาถึงเมื่อไหร่ นักพัฒนา AI รุ่นใหม่ก็เขียนโค้ดแรกว่า from deepseek import... กลยุทธ์นี้เคยใช้เมื่อ 20 ปีที่แล้วโดย Linus Torvalds วันนี้โดย Liang Wenfeng แตกต่างตรงที่ LLM มีราคาสูงกว่าระบบปฏิบัติการเป็นพันเท่า เงินทุนไหลเข้ามากเป็นพันเท่า และความสำคัญด้านภูมิศาสตร์ก็สูงเป็นร้อยเท่า Anthropic ตั้งเป้าทำเป็นเครื่องมือ AI สำหรับองค์กรชั้นนำระดับโลก เป้าหมายไม่ใช่ผู้บริโภคพันล้าน แต่เป็นบริษัทใน 10,000 อันดับแรกของโลก งบด้าน IT และความสอดคล้องตามกฎระเบียบ Opus 4.7 เน้น "เฉพาะกลุ่มแต่ลึก" Mythos Preview ให้ความหายากสูง Bedrock/Vertex/Foundry รองรับหลายคลาวด์ มูลค่าบน Forge เกิน 1 ล้านล้านดอลลาร์ — รวมเป็นเรื่องราว: ทีมกฎหมาย ทีมการเงิน ทีม R&D ทีมบริการลูกค้า ทุกงานสำคัญรันบนโมเดลของฉัน ไม่มีวันล่ม นี่คือแนวคิดของบริษัทกฎหมายและธนาคาร ไม่ใช่ Facebook ลูกค้าจำนวนไม่มาก แต่ราคาสูง และต้นทุนเปลี่ยนแปลงแทบไม่มีที่สิ้นสุด OpenAI ตั้งเป้าทำเป็นแอปพลิเคชันซูเปอร์ที่รวม Windows + Office + Google เข้าด้วยกัน ChatGPT คือสิทธิ์ในการแจกจ่าย (รายสัปดาห์เกือบ 1 พันล้าน) Codex คือกลุ่มนักพัฒนาที่ผูกมัดกับมัน Operator คือทางเข้าใช้งานคอมพิวเตอร์ของมัน Mac App ตัวใหม่คือที่ยึดครองเดสก์ท็อป Brockman กล่าวในงานว่า — "agentic computing at scale" — สิ่งที่ OpenAI ต้องการไม่ใช่แค่ "แชทบอทฉลาด" แต่เป็นวิธีที่มนุษย์ใช้คอมพิวเตอร์ในอนาคต คุณเปิดคอมพิวเตอร์แล้วเห็นมัน งานเสร็จผ่านมัน เอกสารสร้างในมัน อีเมลตอบกลับในมัน การประชุมสรุปก็อยู่ในมัน นี่คือสิ่งที่ Bill Gates คิดในปี 1990 Steve Jobs ก็อยากทำในปี 2007 แต่สิ่งที่อาจเกิดขึ้นจริงในปี 2027–2030 คือสิ่งนี้ การปรับราคาขึ้นสองเท่าของ GPT-5.5 เป็นค่ามัดจำของการเดิมพันนี้ ทั้งสามเส้นทางเชื่อมต่อกันได้ แต่มีเพียงเส้นเดียวที่จะเป็นใหญ่ที่สุด — และเส้นนั้นจะกำหนดการแจกจ่ายความมั่งคั่งในอุตสาหกรรม AI ในทศวรรษหน้า ทั้งสามเปิดไพ่ในสัปดาห์เดียวกัน Claude Opus 4.7 เป็นแบบมั่นคง — แน่นแต่ลึก บริษัทพร้อมเซ็นสัญญาสามปี จ่ายเป็นล้านดอลลาร์ เป็นเส้นทางที่ปลอดภัยที่สุด สำหรับบริษัทขนาดกลางขึ้นไปที่อยากใช้ AI เป็นเครื่องมือผลิต แต่กลัวความผิดพลาด ไม่มีตัวเลือกไหนน่าเชื่อถือเท่า Opus GPT-5.5 เป็นราคาสูง — ราคาขึ้นสองเท่า ความหวังในแอปพลิเคชันระดับสูง และความสามารถ agent ที่นำหน้าคำสั่งและการควบคุมคอมพิวเตอร์ ถ้าการ "ให้ AI ควบคุมคอมพิวเตอร์ทั้งเครื่อง" เกิดขึ้นในปี 2027 OpenAI ก็จะกลายเป็น Microsoft ของยุคนี้ ถ้าไม่สำเร็จ ราคาที่ตั้งไว้ 5/30 ดอลลาร์ ก็จะกลายเป็นคำอธิบายราคาแพง DeepSeek เป็นแนวรุกที่เด็ด — เปิดซอร์ส ราคาถูก ชิปในประเทศ ทำให้รอยร้าวในแนวป้องกันของคู่แข่งเปิดกว้างขึ้น ถ้าการแบ่งแยกทางภูมิศาสตร์และระบบนิเวศดำเนินต่อไป DeepSeek ก็จะกลายเป็น Linux ของอุตสาหกรรม AI จีน โอกาสนี้ไม่ใช่ 50% แต่สูงกว่าหนึ่งปีที่แล้วมาก > ในเดือนมกราคม 2025 เมื่อ R1 ออกมา ตลาดตอบรับว่า "จีน AI ตามทันแล้ว" ครั้งนี้ V4 คำศัพท์ใหม่ที่ตลาดต้องเรียนรู้คือ — "จีน AI เริ่มเปลี่ยนกฎแล้ว" เมื่อกฎถูกเปลี่ยนแล้ว ก็จะไม่มีวันถูกเปลี่ยนกลับอีก บ่ายสี่โมงครึ่ง ลมบนถนนแคลิฟอร์เนียเริ่มเย็นลง Zombie Café ว่างเปล่า แก้วในมือ Alan เก็บเอกสารทั้งสามใส่กระเป๋า เดินออกจากร้าน สุนัขตัวนั้นยกหัวขึ้นอีกครั้ง แล้วก็พลิกตัวลงนอนอีกครั้ง
0
0
0
0