News Update

News Update

OpenAI เปิดตัว GPT-5.4-Cyber เสริมความแข็งแกร่งให้กับการป้องกันไซเบอร์เชิงรุก

OpenAI เผยโฉม GPT-5.4-Cyber โมเดลที่เน้นด้านความปลอดภัยไซเบอร์โดยเฉพาะ เพื่อช่วยเหลือนักป้องกันในการวิเคราะห์มัลแวร์และแก้ไขบั๊กซอฟต์แวร์ พร้อมขยายโครงการ Trusted Access for Cyber (TAC) ไปยังผู้เชี่ยวชาญที่ผ่านการรับรองหลายพันคน

OpenAI ได้ปล่อย GPT-5.4-Cyber ซึ่งเป็นเวอร์ชันใหม่ของโมเดล AI เรือธง การเปิดตัวครั้งนี้เกิดขึ้นเพียงหนึ่งสัปดาห์หลังจากที่ Anthropic เปิดตัวโมเดลใหม่ที่มีชื่อว่า Mythos (Claude Mythos) โดยโมเดลใหม่ของ OpenAI นี้เป็นตัวแปรหนึ่งของระบบ GPT-5.4 หลัก ซึ่งได้รับการปรับแต่ง (Optimize) มาเพื่อใช้งานในกรณีศึกษาด้านการป้องกันภัยไซเบอร์โดยเฉพาะ

ตามประกาศของ OpenAI เป้าหมายคือการจัดหาเครื่องมือที่ดีกว่าให้แก่ผู้วางระบบป้องกันเครือข่ายและระบบ "ที่มีหน้าที่ดูแลความปลอดภัยของระบบ ข้อมูล และผู้ใช้งาน" เพื่อให้พวกเขาสามารถ "ค้นหาและแก้ไขปัญหาได้รวดเร็วยิ่งขึ้น"

การขยายโครงการด้านการป้องกัน

นอกจากการเปิดตัวโมเดลใหม่แล้ว OpenAI ยังได้ขยายโครงการ Trusted Access for Cyber (TAC) ที่เริ่มเปิดตัวครั้งแรกเมื่อเดือนกุมภาพันธ์ 2026 ปัจจุบันโครงการนี้เปิดให้ผู้เชี่ยวชาญด้านการป้องกันรายบุคคลที่ผ่านการยืนยันตัวตนแล้วหลายพันคน และทีมงานอีกหลายร้อยทีมที่ดูแลโครงสร้างพื้นฐานสำคัญเข้าใช้งานได้ การมอบขีดความสามารถที่ก้าวหน้าให้แก่บุคลากรเหล่านี้มีจุดประสงค์เพื่อให้พวกเขาสามารถนำหน้าผู้คุกคามที่กำลังทดลองใช้ AI เช่นกัน

ส่วนประกอบสำคัญของกลยุทธ์นี้คือเครื่องมือ Codex Security ซึ่งได้เปิดให้วิจัยในรูปแบบ Preview ไปเมื่อต้นปี 2026 โดย OpenAI อ้างว่าระบบนี้ช่วยระบุและแก้ไขช่องโหว่ระดับรุนแรงสูง (High-severity) และวิกฤต (Critical) ไปแล้วกว่า 3,000 รายการ ด้วยการเฝ้าสังเกตฐานรหัส (Codebase) และเสนอแนะวิธีแก้ไขก่อนที่จะถูกโจมตี

ขีดความสามารถทางเทคนิคใหม่และการเข้าถึง

โมเดล GPT-5.4-Cyber ได้แนะนำฟีเจอร์ใหม่ที่เป็นที่พูดถึงอย่างมากนั่นคือ การทำวิศวกรรมย้อนกลับรหัสฐานสอง (Binary Reverse Engineering) ซึ่งออกแบบมาเพื่อผู้เชี่ยวชาญด้านความปลอดภัยโดยเฉพาะ เพื่อช่วยในการวิเคราะห์ซอฟต์แวร์ที่ถูกคอมไพล์แล้ว (Compiled Software) สำหรับค้นหามัลแวร์และช่องโหว่ แม้จะไม่มีรหัสต้นฉบับ (Source Code) ก็ตาม ฟีเจอร์นี้ได้รับการพัฒนาต่อเนื่องมาตั้งแต่รุ่น GPT-5.2 ผ่าน GPT-5.3-Codex จนกระทั่งเปิดตัวอย่างเป็นทางการในรุ่นนี้

"ลูกค้าในระดับสูงสุดจะสามารถเข้าถึง GPT-5.4-Cyber ซึ่งเป็นโมเดลที่ได้รับการปรับแต่งมาเป็นพิเศษเพื่อเพิ่มขีดความสามารถด้านไซเบอร์และลดข้อจำกัดในการใช้งานบางส่วนลง นี่คือเวอร์ชันของ GPT-5.4 ที่ลดขีดจำกัดในการปฏิเสธคำสั่ง (Refusal Boundary) สำหรับงานด้านความปลอดภัยไซเบอร์ที่ถูกกฎหมาย และเปิดให้มีเวิร์กโฟลว์การป้องกันขั้นสูง รวมถึงความสามารถในการทำ Binary Reverse Engineering ที่ช่วยให้นักวิเคราะห์สามารถตรวจสอบมัลแวร์และความแข็งแกร่งของซอฟต์แวร์ได้โดยไม่ต้องเข้าถึง Source Code" OpenAI อธิบายรายละเอียดในประกาศ

เนื่องจาก GPT-5.4-Cyber มีความยืดหยุ่นสูงสำหรับงานด้านความปลอดภัย OpenAI จึงไม่อนุญาตให้เข้าถึงแบบไม่จำกัด ผู้ใช้ต้องผ่านการยืนยันตัวตนก่อนเพื่อใช้งานฟีเจอร์ขั้นสูง เพื่อให้มั่นใจว่าซอฟต์แวร์จะถูกใช้งานโดยผู้เชี่ยวชาญที่ถูกต้อง ไม่ใช่แฮกเกอร์หรือกลุ่มจารกรรมข้อมูล โดยสามารถลงทะเบียนได้ที่ chatgpt.com/cyber ส่วนองค์กรสามารถแจ้งความจำนงผ่านตัวแทนของ OpenAI
ปฏิกิริยาจากผู้เชี่ยวชาญในอุตสาหกรรม

ผู้เชี่ยวชาญหลายรายให้ความเห็นผ่าน Hackread.com โดยระบุถึงทั้งประโยชน์และอุปสรรคที่ยังคงอยู่:

Marcus Fowler CEO ของ Darktrace Federal มองว่านี่คือก้าวบวก แต่เตือนถึงความเป็นจริงในการแก้บั๊กว่า "องค์กรส่วนใหญ่ยังคงถูกจำกัดด้วยกระบวนการแก้ไข (Remediation) หลังจากตรวจพบปัญหา ไม่ว่าจะเป็นการพัฒนาแพตช์, การทดสอบ, การติดตั้ง ไปจนถึงข้อกำหนดเรื่องระยะเวลาการทำงานของระบบ (Uptime) การวิเคราะห์ที่เร็วหรือลึกขึ้นไม่ได้หมายถึงการลดความเสี่ยงที่มีประสิทธิภาพเสมอไป"

Ronald Lewis จาก Black Duck ให้ความเห็นเปรียบเทียบว่า "แนวทาง TAC ของ OpenAI สะท้อนถึงท่าทีที่ระมัดระวังและเน้นที่เครื่องมือ โดยมองว่าขีดความสามารถทางไซเบอร์ขั้นสูงเป็นเหมือนเครื่องมือที่ต้องมีการควบคุม (Regulated Instruments) ซึ่งต่างจากแนวทางของ Anthropic ที่เน้นพฤติกรรมของตัวโมเดลมากกว่าการจำกัดตัวบุคคลที่เข้าถึง"

Reference :  OpenAI Launches GPT-5.4-Cyber to Boost Defensive Cybersecurity

share :

This website Collects

To give you a better experience, by continuing to use our website, you are agreeing to the use of cookies and personal data as set out in our Privacy Policy | Terms and Conditions

Accept