OpenAI ได้เผยผลการวิเคราะห์ที่ทำการศึกษาข้อมูลสถิติมาตั้งแต่ปี 2012 ถึงปริมาณพลังประมวลผลที่ใช้กับระบบ AI ขนาดใหญ่ที่สุด ซึ่งเติบโตขึ้น 2 เท่าในทุกๆ 3.5 เดือน จนทุกวันนี้พลังการประมวลผลที่ใช้สูงขึ้นนั้นเกินกว่า 300,000 เท่าเป็นที่เรียบร้อยแล้ว
![](https://i0.wp.com/www.techtalkthai.com/wp-content/uploads/2016/04/openai_techtalkthai_banner.png?resize=600%2C300&ssl=1)
ทางทีมของ OpenAI ได้ทำการวิเคราะห์และแบ่งยุคสมัยของเทคโนโลยีทางด้าน AI ออกเป็น 4 ช่วงหลักๆ ด้วยกัน ดังนี้
-
ก่อนปี 2012 เป็นช่วงที่ยังไม่นิยมใช้งาน GPU เพื่อประมวลผลงานทางด้าน Machine Learning มากนัก ทำให้พลังประมวลผลยังถือว่าต่ำ
-
ช่วงปี 2012 – 2014 เป็นช่วงที่เริ่มมีการใช้งาน GPU ตั้งแต่ 1-8 ใบในการเทรนระบบ AI และทำให้มีประสิทธิภาพที่ระดับ 1-2 TFLOPS
-
ช่วงปี 2014 – 2016 เป็นช่วงที่มีการใช้งาน GPU ตั้งแต่ 10-100 ใบในการเทรนระบบ AI และมีประสิทธิภาพในระดับ 5-10 TFLOPS
-
ช่วงปี 2016 – 2017 เป็นช่วงที่เริ่มมีการพัฒนาฮาร์ดแวร์เฉพาะทางสำหรับการประมวลผลและระบบ TPU รวมถึงมีการเชื่อมต่อเครือข่ายความเร็วสูงเกิดมากขึ้น ทำให้สามารถรองรับการประมวลผลที่ซับซ้อนได้ดีขึ้นเป็นอย่างมาก
สำหรับโครงการทางด้านระบบ AI ที่โดดเด่นนั้นก็หนีไม่พ้นโครงการ AlphaGoZero/AlphaZero ซึ่งเป็นตัวอย่างของเหตุการณ์ Massive Algorithm Parallelism ได้เป็นอย่างดี และระบบ Application อื่นๆ ที่มีขนาดใหญ่ระดับนี้และมีความซับซ้อนระดับนี้ก็เริ่มที่จะใกล้ความจริงและก้าวสู่การใช้งานในระดับ Production แล้ว
ส่วนในอนาคต เทคโนโลยีที่น่าจับตามองนั้นก็คือฮาร์ดแวร์ประมวลผลรูปแบบใหม่ๆ จากเหล่าบริษัท Startup, นวัตกรรมใหม่ๆ ทางด้านอัลกอริธึม และการลงทุนทางด้านระบบ AI ที่ยังเติบโตได้อีกมาก
ที่มา: https://blog.openai.com/ai-and-compute/
from:https://www.techtalkthai.com/openai-says-ai-consumes-2x-of-computing-power-every-3-5-months/