DeepSeek สตาร์ทอัปปัญญาประดิษฐ์ (AI) จากจีนระบุว่า ใช้เงิน 294,000 ดอลลาร์สหรัฐ (ราว 9.3 ล้านบาท) ในการฝึกอบรมโมเดล R1 ซึ่งต่ำกว่าตัวเลขของคู่แข่งในสหรัฐฯ อย่างมาก โดยเฉพาะคู่แข่งสำคัญอย่าง ChatGPT ของ OpenAI ที่คาดว่าอาจใช้ต้นทุนสร้าง ‘มากกว่า 100 ล้านดอลลาร์สหรัฐ’ (ราว 3.1 พันล้านบาท) รายงานฉบับนี้น่าจะจุดชนวนให้เกิดการถกเถียงกันอีกครั้งเกี่ยวกับบทบาทของจีนในการแข่งขันพัฒนาปัญญาประดิษฐ์
รายงานดังกล่าวเป็นการประมาณการครั้งแรกเกี่ยวกับค่าใช้จ่ายในการฝึกอบรม R1 ซึ่งปรากฏในบทความที่ผ่านการตรวจสอบโดยผู้ทรงคุณวุฒิในวารสารวิชาการ ‘Nature’ ที่เผยแพร่เมื่อวันพุธ (17 ก.ย.)
การเปิดเผยสิ่งที่ DeepSeek ระบุว่าเป็นระบบ AI ต้นทุนต่ำเมื่อเดือนมกราคม ทำให้นักลงทุนทั่วโลกเทขายหุ้นเทคโนโลยีอย่างหนัก เนื่องจากกังวลว่าโมเดลใหม่นี้อาจเป็นภัยคุกคามต่อความเป็นผู้นำด้าน AI รวมถึง Nvidia
นับแต่นั้นมา บริษัทและผู้ก่อตั้ง เหลียง เหวินเฟิง มักหายตัวไปจากสายตาสาธารณชน ยกเว้นการเปิดตัวผลิตภัณฑ์อัปเดตใหม่เพียงไม่กี่รายการ
บทความในวารสาร Nature ซึ่งระบุว่า เหลียงเป็นหนึ่งในผู้เขียนร่วม ระบุว่า โมเดล R1 ที่เน้นการใช้เหตุผลของ DeepSeek มีค่าใช้จ่าย 294,000 ดอลลาร์สหรัฐ (ราว 9.3 ล้านบาท) ในการฝึกฝนและใช้ชิป Nvidia H800 จำนวน 512 ตัว ซึ่งบทความฉบับก่อนหน้าที่เผยแพร่ในเดือนมกราคมไม่มีข้อมูลนี้
ต้นทุนการฝึกอบรมสำหรับโมเดลภาษาขนาดใหญที่ขับเคลื่อนแชทบอต AI หมายถึงค่าใช้จ่ายที่เกิดจากการรันคลัสเตอร์ชิปที่มีประสิทธิภาพสูงเป็นเวลาหลายสัปดาห์ หรือหลายเดือน เพื่อประมวลผลข้อมูลข้อความและโค้ดจำนวนมหาศาล
“การฝึกฝนโมเดลพื้นฐานมีค่าใช้จ่าย ‘มากกว่า 100 ล้านดอลลาร์สหรัฐ’ (ราว 3.1 พันล้านบาท) แม้ว่าบริษัทของเขาจะไม่ได้เปิดเผยรายละเอียดตัวเลขสำหรับการเปิดตัวโมเดลใดๆ ก็ตาม
— แซม อัลท์แมน ซีอีโอของ OpenAI บริษัทยักษ์ใหญ่ด้าน AI ของสหรัฐฯ กล่าวเมื่อปี 2023
อย่างไรก็ดี คำกล่าวบางส่วนของ DeepSeek เกี่ยวกับต้นทุนการพัฒนาและเทคโนโลยีที่ใช้นั้นถูกบริษัทและเจ้าหน้าที่สหรัฐฯ ตั้งคำถาม
ชิป H800 ที่กล่าวถึงนั้นได้รับการออกแบบโดย Nvidia สำหรับตลาดจีน หลังจากที่สหรัฐฯ ได้ประกาศห้ามไม่ให้บริษัทส่งออกชิป AI ที่มีประสิทธิภาพสูงกว่าอย่าง H100 และ A100 ไปยังจีนเมื่อเดือนตุลาคม 2022
เจ้าหน้าที่สหรัฐฯ บอกกับ Reuters ในเดือนมิถุนายนว่า “DeepSeek สามารถเข้าถึงชิป H100 ‘ปริมาณมาก’ ซึ่งถูกจัดหาหลังจากมีการบังคับใช้มาตรการควบคุมการส่งออกของสหรัฐฯ” ขณะที่ Nvidia เองก็บอกกับ Reuters ในเวลานั้นว่า “DeepSeek ใช้ชิป H800 ที่ได้มาอย่างถูกกฎหมาย ไม่ใช่ H100”
ในเอกสารข้อมูลเพิ่มเติมที่แนบมากับบทความของวารสาร Nature บริษัทได้ยอมรับเป็นครั้งแรกว่ามีชิป A100 และระบุว่าได้ใช้ชิปเหล่านี้ในขั้นตอนเตรียมการพัฒนา
นักวิจัยระบุว่า “การวิจัย DeepSeek-R1 ของเรา เราใช้ GPU A100 เพื่อเตรียมความพร้อมสำหรับการทดลองกับโมเดลขนาดเล็กกว่า หลังจากระยะเริ่มต้นนี้ R1 ก็ได้รับการฝึกฝนเป็นเวลารวม 80 ชั่วโมงบนคลัสเตอร์ชิป H800 จำนวน 512 ชิป”
ก่อนหน้านี้ Reuters รายงานว่า เหตุผลหนึ่งที่ DeepSeek สามารถดึงดูดผู้เชี่ยวชาญที่มีความสามารถมากที่สุดในจีนได้ก็คือ การเป็นหนึ่งในบริษัทในประเทศไม่กี่แห่งที่ดำเนินการคลัสเตอร์ซูเปอร์คอมพิวเตอร์ A100
(Photo by Lionel BONAVENTURE / AFP)