OpenAI ปล่อย GPT-5.3-Codex-Spark โมเดลเขียนโค้ดสายซิ่ง ปั่นไว 1,000 Token/วิ

OpenAI เปิดตัวโมเดลรุ่นเล็กแต่จี๊ดจ๊าด GPT-5.3-Codex-Spark จับมือ Cerebras รีดความเร็วเขียนโค้ดทะลุ 1,000 Token ต่อวินาที เน้นงาน Real-time แก้ปั๊บเสร็จปุ๊บ เปิดให้ลูกค้า Pro ลองแล้ววันนี้
OpenAI สานต่อความแรงด้วยการเปิดตัว GPT-5.3-Codex-Spark โมเดลน้องเล็กที่ออกแบบมาเพื่อความเร็วโดยเฉพาะ จุดเด่นสำคัญคือการทำงานร่วมกับฮาร์ดแวร์จากพาร์ทเนอร์อย่าง Cerebras ทำให้สามารถสร้างข้อความได้เร็วกว่า 1,000 Token ต่อวินาที ซึ่งถือว่าเร็วในระดับที่มนุษย์อ่านตามแทบไม่ทัน เหมาะสำหรับนักพัฒนาที่ต้องการแก้ไขโค้ดแบบเร่งด่วนและต้องการเห็นผลลัพธ์ทันที
ความแตกต่างสำคัญคือรุ่น Spark ถูกปรับจูนมาเพื่องานที่เน้นการโต้ตอบแบบ Real-time (Low Latency) เช่น การแก้บั๊กเฉพาะจุด หรือปรับแต่ง Logic สั้นๆ ในขณะที่รุ่นพี่อย่าง GPT-5.3-Codex จะเก่งในเรื่องการทำงานซับซ้อนที่ต้องใช้เวลานานๆ (Long-running tasks) มากกว่า โดยเบื้องหลังความเร็วนี้ขับเคลื่อนด้วยชิป Wafer Scale Engine 3 ของ Cerebras ที่ช่วยลดความหน่วงในการส่งข้อมูลลงได้อย่างมหาศาล
นอกจากเรื่องชิปแล้ว ทีมวิศวกรยังได้ยกเครื่องระบบส่งข้อมูลใหม่ด้วยการใช้ WebSocket และปรับแต่ง API ทำให้ลดเวลาในการตอบสนองเริ่มแรก (Time-to-first-token) ลงถึง 50% โดยในระยะแรกโมเดลนี้จะเปิดให้ใช้งานเฉพาะกลุ่มผู้ใช้ ChatGPT Pro ในรูปแบบ Research Preview รองรับ Context Window ที่ 128k และยังรับข้อมูลได้เฉพาะข้อความ (Text-only) เท่านั้น
ความเห็น (0)
เข้าสู่ระบบเพื่อแสดงความเห็น
เข้าสู่ระบบยังไม่มีความเห็น
เป็นคนแรกที่แสดงความเห็นในบทความนี้