มีคำพูดหนึ่งของ Sam Altman, CEO ของ OpenAI ที่ถูกพูดถึงอย่างหนาหู และกลายเป็นมีมในวงการเทคโนโลยีไปแล้ว ที่ว่า “ไม่ว่าเราจะเผาเงิน 500 ล้านเหรียญ, 5,000 ล้านเหรียญ หรือ 50,000 ล้านเหรียญต่อปี… ผมไม่แคร์” (Whether we burn $500 million, $5 billion, or $50 billion a year—I don’t care.) โดยบริบทคือการไล่ล่า AGI (Artificial General Intelligence)
ในตอนแรก หลายคนอาจมองว่านี่เป็นคำพูดที่ดูโอหัง หรือเป็นเพียงการสร้างภาพลักษณ์ของ “นักปฏิวัติ” ที่ยอมทุ่มสุดตัว
แต่วันนี้ คำพูดนั้นถูกพิสูจน์แล้วว่า “เขาเอาจริง”
เมื่อ Amazon Web Services (AWS) และ OpenAI ประกาศความร่วมมือเชิงกลยุทธ์แบบ “บิ๊กดีล” มูลค่ามหาศาลถึง 38,000 ล้านดอลลาร์สหรัฐ (ประมาณ 1.2 ล้านล้านบาท) ซึ่งนับเป็นหนึ่งในการลงทุนด้านโครงสร้างพื้นฐาน AI ที่ใหญ่ที่สุดครั้งหนึ่งในประวัติศาสตร์
ดีลนี้ไม่ใช่แค่การซื้อ-ขายบริการ Cloud ทั่วไป แต่มันคือ “การประกาศสงคราม” และ “การวางหมาก” ครั้งสำคัญของ OpenAI ที่ส่งผลสะเทือนไปทั่วทั้งอุตสาหกรรมเทคโนโลยี ตั้งแต่สมรภูมิ Cloud War, สงครามชิป ไปจนถึงอนาคตของ AI ที่เรากำลังจะได้เห็น

เจาะลึกดีล 38,000 ล้านเหรียญ: OpenAI ได้อะไรจาก AWS?
ตามแถลงการณ์ร่วม ดีลนี้เป็นสัญญาระยะยาวหลายปี (เว็บไซต์ SeekAlpha ระบุว่า 7 ปี) โดย AWS จะจัดหาโครงสร้างพื้นฐานระดับ World-Class ให้ OpenAI ใช้งาน “ทันที” เพื่อรองรับ Workload ด้าน AI ขั้นสูง
สิ่งที่ AWS จะส่งมอบให้ ไม่ใช่แค่ Server ธรรมดา แต่คือ
- Amazon EC2 UltraServers: นี่คือ Server สถาปัตยกรรมล่าสุดของ AWS ที่ออกแบบมาเพื่อการประมวลผล AI ประสิทธิภาพสูงโดยเฉพาะ
- NVIDIA GPUs “หลายแสนตัว”: หัวใจสำคัญคือชิปประมวลผลกราฟิก (GPU) รุ่นล่าสุดและทรงพลังที่สุด ทั้ง GB200s และ GB300s ซึ่งเป็นที่ต้องการของตลาดอย่างบ้าคลั่ง การที่ AWS สามารถจัดหาชิป “หลายแสนตัว” ให้ได้ทันที ถือเป็นข้อได้เปรียบมหาศาล
- การสเกล CPU “หลายสิบล้านตัว”: นี่คือคีย์เวิร์ดที่น่าสนใจที่สุดในข่าวนี้… “tens of millions of CPUs” ไม่ใช่แค่ GPU แต่รวมถึง CPU จำนวนมหาศาลด้วย
ทำไมต้องใช้ CPU เยอะขนาดนั้น? ข่าวระบุชัดว่าเพื่อรองรับ “Agentic Workloads”
Matt Garman CEO คนใหม่ของ AWS กล่าวว่า “โครงสร้างพื้นฐานที่ดีที่สุดของ AWS จะทำหน้าที่เป็นกระดูกสันหลังสำหรับความทะเยอทะยานด้าน AI ของ OpenAI” ขณะที่ Sam Altman ก็ย้ำว่า “การขยายขอบเขต AI ต้องการพลังการประมวลผลที่มหาศาลและเชื่อถือได้”
นี่คือการเดิมพันครั้งใหญ่ของ AWS ที่พิสูจน์ว่าพวกเขามีประสบการณ์ในการจัดการ Cluster ขนาดใหญ่ (ระดับ 500,000 ชิป) และพร้อมที่จะทุ่มทรัพยากรเพื่อกลับมาเป็นผู้นำในเกม GenAI หลังจากที่ปล่อยให้ Microsoft Azure ครองสปอตไลท์ไปนาน
ทำไมต้อง AWS? ในเมื่อมี Microsoft
คำถามที่ดังที่สุดในวงการตอนนี้คือ “แล้ว Microsoft ล่ะ?”
เราทุกคนต่างรับรู้ว่า OpenAI กับ Microsoft คือพันธมิตรที่แนบแน่นยิ่งกว่าปาท่องโก๋ Microsoft ลงทุนใน OpenAI ไปแล้วกว่า 13,000 ล้านดอลลาร์ และ Azure ก็เป็นแพลตฟอร์มหลักที่ใช้เทรนโมเดล GPT มาโดยตลอด
แต่ดีล 38,000 ล้านเหรียญกับ AWS ครั้งนี้ คือการส่งสัญญาณที่ชัดเจนที่สุดว่า OpenAI ไม่ได้มีเจ้าของ และจะไม่ผูกขาดตัวเองไว้กับใคร
ข้อมูลจาก SeekAlpha เผยประเด็นสำคัญว่า เมื่อเดือนที่แล้ว OpenAI ได้ “แก้ไข” ข้อตกลงกับ Microsoft โดย ยกเลิกสิทธิ์ “Right of First Refusal” ของ Microsoft ในการเป็นผู้ให้บริการ Cloud แต่เพียงผู้เดียว (แม้ว่า OpenAI จะยังคงมีสัญญาซื้อบริการ Azure อีกมหาศาลถึง 250,000 ล้านดอลลาร์ก็ตาม)
การขยับตัวครั้งนี้ของ OpenAI คือกลยุทธ์ “Multi-Cloud” ที่น่าสนใจ
- การกระจายความเสี่ยง (De-risking): การพึ่งพาโครงสร้างพื้นฐานจากผู้ให้บริการเพียงรายเดียว (Single Point of Failure) เป็นความเสี่ยงระดับหายนะสำหรับบริษัทที่แบกรับอนาคตของ AI ไว้ทั้งโลก หาก Azure มีปัญหา ChatGPT และบริการทั้งหมดจะล่มทันที การมี AWS เป็น “กระดูกสันหลัง” อีกเส้นจึงเป็นเรื่องจำเป็น
- การสร้างอำนาจต่อรอง (Bargaining Power): เมื่อ OpenAI กลายเป็นลูกค้ารายใหญ่ที่สุดของทั้ง Azure และ AWS (และยังมีดีลกับ Oracle อีก 10,000 ล้านเหรียญ) พวกเขาสามารถใช้ทั้งสองค่ายมาแข่งขันกันเอง ทั้งในแง่ของราคา, การบริการ และที่สำคัญที่สุดคือ “การเข้าถึงชิป” ที่ขาดแคลน
- การเข้าถึงเทคโนโลยีที่ดีที่สุด (Best-in-Class Tech): AWS อาจมีสถาปัตยกรรมบางอย่าง (เช่น UltraServers หรือการจัดการ Cluster) ที่ตอบโจทย์ Workload บางประเภทของ OpenAI ได้ดีกว่า Azure การเลือกใช้จุดแข็งของแต่ละค่ายคือหนทางสู่การสร้างโมเดลที่ดีที่สุด
“Agentic Workloads”: คำใบ้ถึงอนาคตที่ไกลกว่า ChatGPT
กลับมาที่คำว่า “tens of millions of CPUs” สำหรับ “Agentic Workloads”
นี่ไม่ใช่เรื่องเล็กน้อย…
- GPU (Graphics Processing Unit): เปรียบเหมือน “โรงเรียน” ใช้พลังมหาศาลในการ “เทรน” โมเดล AI ให้ฉลาด
- CPU (Central Processing Unit): เปรียบเหมือน “สมองสั่งการ” ใช้ในการ “รัน” โมเดล (Inference) และการประมวลผลเชิงตรรกะ
การที่ OpenAI ต้องการ CPU “หลายสิบล้านตัว” บ่งบอกว่าพวกเขากำลังสร้างสิ่งที่ไกลกว่า Chatbot ที่รอรับคำสั่ง แต่กำลังสร้าง “AI Agents” หรือ AI ที่สามารถ “ปฏิบัติการ” และ “ทำงานแทน” มนุษย์ได้จริง
ลองนึกภาพ AI Agent ที่สามารถวางแผนแคมเปญการตลาด, จองมีเดีย, วิเคราะห์ผลลัพธ์ และปรับ Budget ได้เองอัตโนมัติ Workload เหล่านี้ต้องการ CPU ในการประมวลผลคำสั่งย่อย ๆ (Agentic tasks) จำนวนมหาศาลพร้อมกัน นี่คือโครงสร้างพื้นฐานสำหรับอนาคตที่ AI จะไม่ใช่แค่ “ผู้ช่วย” แต่เป็น “ผู้ปฏิบัติงาน”
เมื่อ 38,000 ล้าน คือ “เศษเงิน”
ถ้าคุณคิดว่า 38,000 ล้านเหรียญมันเยอะแล้ว ลองดูภาพรวมที่ The Kobeissi Letter รวบรวมไว้ว่า OpenAI กำลังอยู่ใน “การช้อปปิ้งระดับล้านล้านเหรียญ”
- $500B: ดีล Stargate (คาดว่าร่วมกับ Microsoft)
- $100B: ดีลกับ Nvidia
- $100B: ดีลกับ AMD (กระจายความเสี่ยงชิป)
- $38B: ดีลกับ Amazon (AWS)
- $25B: ดีลกับ Intel
- $20B: ดีลกับ TSMC (ผู้ผลิตชิป)
- $10B: ดีลกับ Oracle (Cloud อีกเจ้า)
- “Multi-Billion”: ดีลกับ Broadcom
นี่ไม่ใช่ตัวเลขของบริษัทเอกชนอีกต่อไป นี่คือตัวเลขระดับ “งบประมาณแผ่นดิน” ของประเทศมหาอำนาจ OpenAI กำลังสร้าง “โครงสร้างพื้นฐานแห่งอารยธรรม” (Civilizational Infrastructure) ขึ้นมาใหม่ด้วยตัวเอง
Thumbsup มองว่า ดีล 38,000 ล้านเหรียญระหว่าง AWS และ OpenAI ไม่ใช่แค่ข่าวการจัดซื้อจัดจ้าง แต่มันคือ “จุดเปลี่ยน” ของสมรภูมิ AI
ในมุมของ Cloud War: นี่คือชัยชนะครั้งยิ่งใหญ่ของ AWS และ CEO คนใหม่อย่าง Matt Garman พวกเขาดึงลูกค้ารายสำคัญที่สุดในโลก AI กลับมาอยู่ในมือได้สำเร็จ และประกาศกร้าวว่า AWS ไม่ได้ตกขบวน GenAI นี่คือการตบหน้า Microsoft Azure และทิ้งห่าง Google Cloud ไปอีกขั้น
ในมุมของ Chip War: Nvidia ชนะอีกแล้ว ชิป GB200/300 ถูกจองหมดเกลี้ยงไปอีกหลายปี แต่ในขณะเดียวกัน การที่ OpenAI มีดีลกับทั้ง AMD, Intel และ TSMC แสดงให้เห็นว่าพวกเขาจะไม่ยอมให้ Nvidia เป็น “Single Source” เช่นกัน
ในมุมของ OpenAI: พวกเขาประกาศตัวเป็น “รัฐอิสระ” ทางเทคโนโลยีอย่างสมบูรณ์ ไม่ขึ้นตรงต่อใคร มีอำนาจต่อรองสูงสุด และกำลังเร่งเครื่องเต็มกำลังเพื่อสร้าง AGI โดยไม่สนว่าจะต้อง “เผาเงิน” (Burn Rate) มากแค่ไหน ตามที่ Sam Altman ว่าไว้
สำหรับคนทำงานอย่างเรา (Marketers, Tech Professionals): เรากำลังจะได้เห็น AI ที่ทรงพลังขึ้นแบบก้าวกระโดดในอีก 1-2 ปีข้างหน้า โมเดลที่เทรนบนโครงสร้างพื้นฐานระดับนี้ (ทั้งบน AWS และ Azure) จะฉลาดขึ้น, เร็วขึ้น และที่สำคัญคือ “ทำอะไรได้มากขึ้น” (Agentic)
การที่ OpenAI Models มีอยู่บน Amazon Bedrock อยู่แล้ว (ซึ่งมีลูกค้าระดับ Comscore, Peloton ใช้งาน) หมายความว่า องค์กรที่ใช้ AWS เป็นหลัก จะสามารถเข้าถึงพลังของ AI เหล่านี้ได้ง่ายและเร็วขึ้น
Sam Altman อาจจะไม่แคร์ว่าต้องเผาเงินปีละ 5 หมื่นล้าน แต่เราในฐานะคนในอุตสาหกรรม “ต้องแคร์”… เพราะเงินที่กำลังถูกเผาอยู่นี้ คือเชื้อเพลิงที่กำลังจะปฏิวัติวิธีการทำงาน, การตลาด และทุกสิ่งทุกอย่างในโลกของเรา เร็วกว่าที่เราเคยคิดไว้เยอะ
อ่านเพิ่มเติม



