searchresults
2026-04-30
05:35

OpenAI ประกาศเปิดตัวโมเดลด้านความปลอดภัยไซเบอร์ GPT-5.5-Cyber ในอีกไม่กี่วันข้างหน้า

ตามรายงานของ Cointelegraph ซัม อัลท์แมนประกาศว่า OpenAI จะเปิดตัว GPT-5.5-Cyber ซึ่งเป็นโมเดลด้านความปลอดภัยทางไซเบอร์ในช่วงไม่กี่วันข้างหน้า โดยโมเดลดังกล่าวจะถูกทำให้พร้อมใช้งานสำหรับผู้พิทักษ์ด้านความปลอดภัยทางไซเบอร์ที่มีความสำคัญ ทั้งนี้ OpenAI วางแผนจะจัดตั้งกลไกการเข้าถึงที่ได้รับความเชื่อถือร่วมกับหน่วยงานภาครัฐเพื่อ
liveNews.More
04:29

อัลต์แมน: การกำหนดราคาตามโทเคนกำลังจะล้าสมัย ขณะที่ GPT-5.5 เปลี่ยนโฟกัสไปที่การทำงานให้เสร็จแทนจำนวนโทเคน

ข้อความจาก Gate News วันที่ 29 เมษายน — ซัม อัลต์แมน CEO ของ OpenAI กล่าวในการให้สัมภาษณ์กับเบ็น ทอมป์สันในรายการ Stratechery ว่าการกำหนดราคาตามโทเคนไม่ใช่โมเดลที่ใช้ได้ในระยะยาวสำหรับบริการด้าน AI จากตัวอย่าง GPT-5.5 อัลต์แมนระบุว่าแม้ราคาต่อโทเคนจะสูงกว่าของ GPT-5.4 อย่างมีนัยสำคัญ แต่โมเดลนี้ใช้โทเคนน้อยกว่ามากเพื่อทำงานเดียวกันให้สำเร็จ ซึ่งหมายความว่าลูกค้าไม่ได้สนใจจำนวนโทเคน—พวกเขาสนใจเพียงว่าทำงานเสร็จหรือไม่และต้นทุนรวมเท่าไร ก็เท่านั้น
liveNews.More
00:30

ZetaChain เปิดตัว Anuma แพลตฟอร์มรวมระบบ AI ที่เน้นความเป็นส่วนตัว

ข่าว Gate News 28 เมษายน — ทีมของ ZetaChain ได้เปิดตัว Anuma อย่างเป็นทางการแล้ว ซึ่งเป็นแพลตฟอร์มการรวมระบบ AI ที่เน้นความเป็นส่วนตัว โดยช่วยให้ผู้ใช้เข้าถึงโมเดล AI ได้หลายแบบ—รวมถึง GPT, Claude, Gemini, Grok, DeepSeek, Kimi และ Qwen—ผ่านอินเทอร์เฟซเดียว Anuma มีการจัดเก็บความเป็นส่วนตัวแบบในเครื่อง การทำงานร่วมกันหลายโมเดล และระบบความจำบริบทแบบครบวงจรข้ามโมเดลต่าง ๆ
liveNews.More
05:17

GPT-5.5 กลับมาล้ำหน้าในการเขียนโค้ด แต่ OpenAI เปลี่ยนเกณฑ์มาตรฐานหลังแพ้ Opus 4.7

ข่าวประจำเกต 27 เมษายน — SemiAnalysis บริษัทวิเคราะห์เซมิคอนดักเตอร์และ AI ได้เผยแพร่มาตรฐานเปรียบเทียบเชิงเปรียบเทียบของผู้ช่วยการเขียนโค้ด รวมถึง GPT-5.5, Claude Opus 4.7 และ DeepSeek V4 ผลค้นหาที่สำคัญ: GPT-5.5 แสดงถึงการกลับสู่ขอบล้ำในการพัฒนาโมเดลการเขียนโค้ดของ OpenAI เป็นครั้งแรกในรอบหกเดือน โดยวิศวกรของ SemiAnalysis ตอนนี้สลับไปมาระหว่าง Codex และ Claude Code หลังจากก่อนหน้านี้พึ่งพา Claude เกือบทั้งหมด GPT-5.5 อ้างอิงจากแนวทางการพรีเทรนแบบใหม่ที่มีชื่อรหัสว่า "Spud" และถือเป็นการขยายขนาดการพรีเทรนครั้งแรกของ OpenAI นับตั้งแต่ GPT-4.5. ในการทดสอบเชิงปฏิบัติที่ชัดเจน ได้แยกบทบาทออกมาอย่างชัดเจน Claude จัดการการวางแผนโครงการใหม่และการตั้งค่าเริ่มต้น ในขณะที่ Codex โดดเด่นสำหรับการแก้บั๊กที่ต้องใช้การให้เหตุผลหนักๆ Codex แสดงความเข้าใจโครงสร้างข้อมูลและการให้เหตุผลเชิงตรรกะที่แข็งแกร่งกว่า แต่กลับมีปัญหาในการคาดเดาความตั้งใจของผู้ใช้ที่ไม่ชัดเจน ในงานที่คล้ายกันบนแดชบอร์ดเดียว Claude คัดลอกเค้าโครงหน้าจากตัวอย่างได้โดยอัตโนมัติแต่ได้สร้างข้อมูลจำนวนมากขึ้นมา ในขณะที่ Codex ข้ามเรื่องเค้าโครงแต่ให้ข้อมูลที่แม่นยำกว่ามาก การวิเคราะห์เผยรายละเอียดเกี่ยวกับการปรับแต่งเกณฑ์มาตรฐาน: โพสต์บล็อกของ OpenAI ในเดือนกุมภาพันธ์ได้เรียกร้องให้วงการนำ SWE-bench Pro มาเป็นมาตรฐานใหม่สำหรับการประเมินเกณฑ์การเขียนโค้ด อย่างไรก็ตาม การประกาศของ GPT-5.5 ได้เปลี่ยนไปใช้เกณฑ์มาตรฐานใหม่ที่ชื่อ "Expert-SWE" เหตุผล—ซ่อนอยู่ในส่วนปลีกย่อย—คือ GPT-5.5 ถูก Opus 4.7 แซงบน SWE-bench Pro และทำผลงานได้ต่ำกว่ามากเมื่อเทียบกับ Mythos ที่ยังไม่เผยแพร่ของ Anthropic 77.8%. สำหรับ Opus 4.7 Anthropic เผยแพร่การวิเคราะห์สรุปหลังเหตุการณ์ (postmortem) หนึ่งสัปดาห์หลังการเปิดตัว โดยยอมรับบั๊กสามจุดใน Claude Code ที่ยังคงอยู่ต่อเนื่องเป็นเวลาหลายสัปดาห์ตั้งแต่เดือนมีนาคมถึงเมษายน ส่งผลกระทบต่อผู้ใช้งานเกือบทั้งหมด วิศวกรหลายคนเคยรายงานว่าประสิทธิภาพลดลงในเวอร์ชัน 4.6 มาก่อน แต่ถูกมองว่าเป็นข้อสังเกตเชิงอัตวิสัย นอกจากนี้ โทเคไนเซอร์ใหม่ของ Opus 4.7 เพิ่มการใช้งานโทเคนได้สูงถึง 35% ซึ่ง Anthropic ยอมรับอย่างตรงไปตรงมา—ซึ่งเท่ากับเป็นการขึ้นราคาที่ซ่อนอยู่โดยปริยาย DeepSeek V4 ถูกประเมินว่า "ตามทันความก้าวหน้าในระดับแนวหน้าแต่ไม่ได้เป็นผู้นำ" โดยวางตำแหน่งตัวเองเป็นทางเลือกที่มีต้นทุนต่ำที่สุดในบรรดาโมเดลที่ปิดซอร์ส การวิเคราะห์ยังระบุว่า "Claude ยังคงทำผลงานได้ดีกว่า DeepSeek V4 Pro ในงานเขียนภาษาจีนที่มีความยากสูง" โดยแสดงความคิดเห็นว่า "Claude ชนะโมเดลภาษาจีนในภาษาเดียวกับที่มันใช้" บทความนำเสนอแนวคิดสำคัญว่า ควรประเมินราคาของโมเดลด้วย "ต้นทุนต่อหนึ่งงาน" แทนที่จะเป็น "ต้นทุนต่อหนึ่งโทเคน" ราคาของ GPT-5.5 เป็นสองเท่าของ GPT-5.4 input $5, output per million tokens แต่ทำงานเดียวกันได้โดยใช้โทเคนน้อยกว่า ดังนั้นต้นทุนที่แท้จริงจึงไม่ได้จำเป็นต้องสูงขึ้น ข้อมูลเบื้องต้นจาก SemiAnalysis แสดงว่าอัตราส่วนอินพุตต่อเอาต์พุตของ Codex อยู่ที่ 80:1 ต่ำกว่าของ Claude Code ที่ 100:1.
liveNews.More
03:33

OpenAI รวม Codex เข้ากับโมเดลหลักตั้งแต่ GPT-5.4 และยุติไลน์การเขียนโค้ดแบบแยกเดี่ยว

ข่าว Gate ฉบับวันที่ 26 เมษายน — รอเมน ฮูเอต์ หัวหน้าฝ่ายประสบการณ์นักพัฒนาของ OpenAI เปิดเผยในแถลงการณ์ล่าสุดบน X ว่า Codex ซึ่งเป็นไลน์โมเดลสำหรับการเขียนโค้ดเฉพาะทางที่บริษัทดูแลรักษาอย่างอิสระ ได้ถูกรวมเข้ากับโมเดลหลักตั้งแต่ GPT-5.4 เป็นต้นไป และจะไม่รับการอัปเดตแยกต่างหากอีกต่อไป
liveNews.More
12:31

DeepSeek เปิดตัวโมเดล V4-Pro และ V4-Flash ในต้นทุนที่ต่ำกว่า GPT-5.5 Pro ของ OpenAI ถึง 98%

ข่าวประตูเมือง ประจำวันที่ 25 เมษายน — DeepSeek ปล่อยตัวอย่าง (preview) ของ V4-Pro และ V4-Flash เมื่อวันที่ 24 เมษายน ทั้งสองเป็นโมเดลน้ำหนักเปิด (open-weight) ที่มีหน้าต่างคอนเท็กซ์ 1 ล้านโทเค็น V4-Pro มีพารามิเตอร์ทั้งหมด 1.6 ล้านล้านตัว แต่จะเปิดใช้งานได้เพียง 49 พันล้านต่อรอบการอินเฟอเรนซ์ผ่านสถาปัตยกรรมแบบ Mixture-of-Experts
liveNews.More
03:11

Nvidia ปรับใช้เอเจนต์ AI Codex ของ OpenAI ทั่วทั้งองค์กรบนโครงสร้างพื้นฐาน Blackwell

ข่าวประจำ Gate วันที่ 25 เมษายน — Nvidia ได้เปิดตัว Codex ของ OpenAI ซึ่งเป็นเอเจนต์ AI ที่ขับเคลื่อนด้วย GPT-5.5 ให้กับพนักงานทั้งหมดทั่วทั้งองค์กร หลังจากการทดสอบที่ประสบความสำเร็จกับพนักงานราว 10,000 คน ตามรายงานการสื่อสารภายในจากซีอีโอ Jensen Huang และ CEO ของ OpenAI Sam Altman. Codex ถูกออกแบบมาเพื่อช่วยใน
liveNews.More
01:21

OpenClaw v2026.4.23 เพิ่มการรองรับ OAuth โดยตรงสำหรับ gpt-image-2 และแนะนำโหมดคอนเท็กซ์ที่แยกจากกันสำหรับซับเอเจนต์

ข่าว Gate,25 เมษายน — OpenClaw ซึ่งเป็นเฟรมเวิร์กเอเจนต์ AI แบบโอเพนซอร์ส เปิดตัว v2026.4.23 เมื่อวันที่ 23 เมษายน โดยนำเสนอการอัปเดตในด้านการสร้างภาพ กลไกซับเอเจนต์ และการเสริมความปลอดภัยอย่างเข้มงวด การปรับปรุงการสร้างภาพช่วยให้ gpt-image-2 สามารถเรียกใช้งานได้โดยตรงผ่าน Codex OAuth โดยไม่ต้อง
liveNews.More
01:46

OpenAI เปิดตัว GPT-5.5 ออกแบบมาสำหรับงานเอเจนต์และเวิร์กโฟลว์ที่ซับซ้อน

ข้อความจาก Gate News วันที่ 24 เมษายน — OpenAI ได้เปิดตัว GPT-5.5 อย่างเป็นทางการแล้ว ซึ่งเป็นโมเดล AI รุ่นถัดไปที่ออกแบบมาเพื่อจัดการวัตถุประสงค์ที่ซับซ้อน การรวมเครื่องมือ การตรวจสอบตนเอง และการทำงานหลายขั้นตอนให้เสร็จสมบูรณ์ โมเดลนี้เด่นด้านการเขียนโค้ดและการดีบัก การวิจัยออนไลน์ การวิเคราะห์ข้อมูล การสร้างเอกสาร
liveNews.More
04:54

Perplexity เปิดเผย Web 搜索代理的后训练方法;基于 Qwen3.5 的模型在准确性与成本上优于 GPT-5.4

Perplexity 使用先用 Qwen3.5 模型进行 SFT,随后再用 RL,并借助多跳 QA 数据集与评分细则校验来提升搜索准确性与效率,从而实现同类最佳的 FRAMES 表现。 摘要:Perplexity 的面向网络搜索代理的后训练流程,将监督微调 (SFT) 与通过 GRPO 算法进行在线强化学习 (RL) 结合。SFT 用于强化遵循指令与语言一致性;RL 则通过 GRPO 优化搜索准确性。RL 阶段使用专有的多跳可验证问答数据集以及基于评分细则的对话数据,以防止 SFT 漂移,并配合奖励门控与组内效率惩罚。评估显示,Qwen3.5-397B-SFT-RL 在 FRAMES 上取得顶级表现:单次工具调用准确率 57.3%,四次调用准确率 73.9%,成本为每次查询 $0.02,且在这些指标上优于 GPT-5.4 与 Claude Sonnet 4.6。定价基于 API,并且不包含缓存。
liveNews.More