OpenAI เผยแนวโน้ม ระบบ AI ใช้หน่วยประมวลผลเพิ่มขึ้น 2 เท่าทุกๆ 3.5 เดือน

OpenAI ได้เผยผลการวิเคราะห์ที่ทำการศึกษาข้อมูลสถิติมาตั้งแต่ปี 2012 ถึงปริมาณพลังประมวลผลที่ใช้กับระบบ AI ขนาดใหญ่ที่สุด ซึ่งเติบโตขึ้น 2 เท่าในทุกๆ 3.5 เดือน จนทุกวันนี้พลังการประมวลผลที่ใช้สูงขึ้นนั้นเกินกว่า 300,000 เท่าเป็นที่เรียบร้อยแล้ว

 

Credit: OpenAI

 

ทางทีมของ OpenAI ได้ทำการวิเคราะห์และแบ่งยุคสมัยของเทคโนโลยีทางด้าน AI ออกเป็น 4 ช่วงหลักๆ ด้วยกัน ดังนี้

  • ก่อนปี 2012 เป็นช่วงที่ยังไม่นิยมใช้งาน GPU เพื่อประมวลผลงานทางด้าน Machine Learning มากนัก ทำให้พลังประมวลผลยังถือว่าต่ำ
  • ช่วงปี 2012 – 2014 เป็นช่วงที่เริ่มมีการใช้งาน GPU ตั้งแต่ 1-8 ใบในการเทรนระบบ AI และทำให้มีประสิทธิภาพที่ระดับ 1-2 TFLOPS
  • ช่วงปี 2014 – 2016 เป็นช่วงที่มีการใช้งาน GPU ตั้งแต่ 10-100 ใบในการเทรนระบบ AI และมีประสิทธิภาพในระดับ 5-10 TFLOPS
  • ช่วงปี 2016 – 2017 เป็นช่วงที่เริ่มมีการพัฒนาฮาร์ดแวร์เฉพาะทางสำหรับการประมวลผลและระบบ TPU รวมถึงมีการเชื่อมต่อเครือข่ายความเร็วสูงเกิดมากขึ้น ทำให้สามารถรองรับการประมวลผลที่ซับซ้อนได้ดีขึ้นเป็นอย่างมาก

สำหรับโครงการทางด้านระบบ AI ที่โดดเด่นนั้นก็หนีไม่พ้นโครงการ AlphaGoZero/AlphaZero ซึ่งเป็นตัวอย่างของเหตุการณ์ Massive Algorithm Parallelism ได้เป็นอย่างดี และระบบ Application อื่นๆ ที่มีขนาดใหญ่ระดับนี้และมีความซับซ้อนระดับนี้ก็เริ่มที่จะใกล้ความจริงและก้าวสู่การใช้งานในระดับ Production แล้ว

ส่วนในอนาคต เทคโนโลยีที่น่าจับตามองนั้นก็คือฮาร์ดแวร์ประมวลผลรูปแบบใหม่ๆ จากเหล่าบริษัท Startup, นวัตกรรมใหม่ๆ ทางด้านอัลกอริธึม และการลงทุนทางด้านระบบ AI ที่ยังเติบโตได้อีกมาก

 

ที่มา: https://blog.openai.com/ai-and-compute/

from:https://www.techtalkthai.com/openai-says-ai-consumes-2x-of-computing-power-every-3-5-months/