คลังเก็บป้ายกำกับ: SUPERMICRO_GPU_SERVER

Supermicro ประกาศรองรับ NVIDIA H100 บน Server กว่า 20 รุ่น

Supermicro ประกาศรองรับ NVIDIA H100 บน Server กว่า 20 รุ่น ช่วยเร่งประสิทธิภาพงาน AI/ML, HPC และ Inferencing

Credit: Supermicro

Supermicro ผู้ผลิต Server รายใหญ่ ประกาศ Certified Server กว่า 20 รุ่นกับ NVIDIA H100 GPU รองรับการใช้งานทั้งแบบ H100 PCI-E และ H100 SXM โดยมี Server ให้เลือกใช้งานตามความเหมาะสมของงาน ได้แก่ 8U, 5U, 4U, 2U และ 1U ทั้งในตระกูล SuperBlades, Workstation และ Universal GPU System ภายในตัว Server จะรองรับเทคโนโลยีต่างๆที่จำเป็น เช่น PCI-E Gen5, 4th-Gen NVLink และ NVLink Network for scale-out นอกจากนี้ Server ยังรองรับ NVIDIA GPU รุ่นอื่นๆ อีก เช่น NVIDIA L40 Omnivese และ NVIDIA H100 CNX ซึ่งรองรับการทำ GPUDirect RDMA ผ่านทาง NVIDIA Magnum IO และ NVIDIA AI Enterprise

Supermicro ยังเผยว่า การใช้งาน NVIDIA H100-Certified GPU systems จะช่วยเร่งความเร็วในการทำ AI Inferencing ได้เร็วขึ้น 30 เท่า และทำ AI Training ได้เร็วขึ้น 9 เท่า เมื่อเทียบกับการใช้ GPU รุ่นก่อนของ NVIDIA

ผู้ที่สนใจสามารถอ่านรายละเอียดเพิ่มเติมได้ที่: https://www.supermicro.com/en/accelerators/nvidia

 

เกี่ยวกับ Throughwave Thailand

Throughwave Thailand เป็นตัวแทนจำหน่าย (Distributor) สำหรับผลิตภัณฑ์ Enterprise IT ครบวงจรทั้ง Server, Storage, Network และ Security พร้อมโซลูชัน VMware และ Microsoft ที่มีลูกค้าเป็นองค์กรชั้นนำระดับหลายหมื่นผู้ใช้งานมากมาย โดยทีมงาน Throughwave Thailand ได้รับความไว้วางใจจากลูกค้าจากทีมงาน Engineer มากประสบการณ์ ที่คอยสนับสนุนการใช้งานของลูกค้าตลอด 24×7 ร่วมกับ Partner ต่างๆ ทั่วประเทศไทย https://www.throughwave.co.th

ที่มา: https://www.supermicro.com/en/pressreleases/supermicro-expands-its-nvidia-certified-server-portfolio-new-nvidia-h100-optimized

from:https://www.techtalkthai.com/supermicro-announces-new-nvidia-h100-certified-gpu-systems/

ตอบโจทย์ระบบ AI ด้วย Supermicro GPU Server รองรับ 4x NVIDIA Tesla V100 แรง 500 TFLOPS ใน 1U

เมื่อ AI ได้เริ่มกลายมาเป็นหนึ่งในหัวใจสำคัญของหลาย Application และบริการในภาคธุรกิจ Server Hardware แรงๆ เพื่อประมวลผล AI ได้อย่างเต็มประสิทธิภาพและควบคุมค่าใช้จ่ายได้จึงกลายมาเป็นส่วนประกอบสำคัญของ Data Center และ Supermicro ก็ได้ทำการเปิดตัว Server รุ่นสำหรับ AI Application โดยเฉพาะ ที่รองรับการติดตั้ง NVIDIA Tesla V100 ได้มากถึง 4 ชุดในขนาดแค่ 1U และมีประสิทธิภาพสูงถึง 500 teraFLOPS (TFLOPS) เลยทีเดียว

 

 

ลงทุน Server สำหรับระบบ AI เอง: ควบคุมค่าใช้จ่ายได้, ไม่ต้องย้ายข้อมูลออกนอกองค์กร

ที่ผ่านมาถึงแม้กระแสของการพัฒนาบริการ AI บน Cloud นั้นจะได้รับความนิยมค่อนข้างสูงด้วยความยืดหยุ่นในการเริ่มต้นจากการทดสอบขนาดเล็กๆ ก่อนได้ ทำให้ไม่ต้องลงทุนเป็นเงินก้อนใหญ่เองตั้งแต่แรกในช่วงพัฒนาและทดสอบบริการ แต่เมื่อธุรกิจองค์กรเริ่มนำ AI ไปใช้จริงในธุรกิจด้วยการวิเคราะห์ข้อมูลขนาดใหญ่มากขึ้นเรื่อยๆ การเช่าใช้บริการ Cloud เองก็อาจกลายเป็นทางเลือกที่มีประเด็นต้องขบคิด ดังต่อไปนี้

  • การย้ายข้อมูลของธุรกิจขึ้นไปยังบริการ Cloud ให้มั่นคงปลอดภัย ข้อมูลไม่รั่วไหล
  • การย้ายข้อมูลปริมาณมหาศาลขึ้นไปยังบริการ Cloud เพื่อนำไปประมวลผล ต้องพิจารณาทั้งประเด็นด้านความปลอดภัย, ค่าใช้จ่ายในการรับส่งข้อมูล และค่าใช้จ่ายในการจัดเก็บข้อมูลในระยะยาว
  • ค่าใช้จ่ายในการเช่าใช้ GPU Server บน Cloud ซึ่งค่าเช่าเพียง 6-12 เดือนก็สามารถลงทุนซื้อ GPU Server ประสิทธิภาพระดับเดียวกันเพื่อใช้งานเองได้แล้ว ทำให้หากมีแผนการใช้งานยาว 2-3 ปีนั้น การเช่าใช้ GPU Server บน Cloud ก็เริ่มที่จะไม่คุ้มค่าต่อการลงทุน
  • การที่ไม่สามารถประเมินค่าใช้จ่ายในการลงทุนล่วงหน้าได้ของบริการ Cloud เนื่องจากค่าใช้จ่ายทั้งหมดเกิดขึ้นตามระยะเวลาในการเช่าใช้งาน และประสิทธิภาพที่ต้องการ ในโครงการใหม่ๆ อย่าง AI ที่มักไม่ค่อยมีองค์กรใดมีประสบการณ์มาก่อนนัก การประเมินค่าใช้จ่ายด้านการเช่าใช้ทรัพยากรล่วงหน้าจึงถือเป็นเรื่องยาก

ด้วยปัจจัยเหล่านี้ การลงทุนซื้อ GPU Server มาสำหรับประมวลผล AI ภายในองค์กรเองจึงกลายเป็นทางเลือกที่ได้รับความนิยมสูงขึ้นเรื่อยๆ ด้วยความยืดหยุ่นในแง่ที่องค์กรไม่ต้องมีปัญหากับการย้ายข้อมูลใดๆ ออกไปนอกองค์กรเลย ทำให้การลองผิดลองถูกกับข้อมูลต่างๆ เป็นไปได้ง่าย อีกทั้งยังสามารถแบ่งสถาปัตยกรรมการทำงานโดยการให้ GPU Server ภายในองค์กรรับหน้าที่ในการ Training เพียงอย่างเดียว จากนั้นจึงส่ง Model ที่ได้รับไปทำการ Execute บนบริการ Cloud แทน เพื่อลดค่าใช้จ่ายได้ในระยะาว และยังคงให้บริการ AI บน Cloud Application ต่อไปได้อย่างต่อเนื่องและคุ้มค่าสูงสุด

 

Supermicro SuperServer 1029GQ-TVRT: 1U Server ที่แรงระดับ 500 TFLOPS ด้วย NVIDIA Tesla V100

 

Supermicro SuperServer 1029GQ-TVRT Credit: Supermicro

 

โดยปกติ Supermicro นั้นเป็นผู้ผลิต Server ที่มีการออกแบบ Motherboard และ Server Chassis สำหรับตอบโจทย์เฉพาะทางหลากหลายอยู่แล้ว และเมื่อ NVIDIA ประกาศเปิดตัว NVIDIA Tesla V100 ออกมา ทาง Supermicro ก็ไม่รอช้าที่จะออกแบบ 1U Server ประสิทธิภาพสูงเพื่อรองรับการติดตั้ง NVIDIA รุ่นนี้เฉพาะ สำหรับเจาะตลาดการประมวลผลทางด้าน AI อย่าง Machine Learning หรือ Deep Learning สำหรับองค์กรและผู้ให้บริการ Cloud ที่ต้องการ Hardware ประสิทธิภาพสูงพร้อมใช้งานได้ทันที

Server รุ่นนี้มีชื่อรุ่นว่า Supermicro SuperServer 1029GQ-TVRT โดยเป็นระบบ Complete System สำเร็จรูปมาจากโรงงานของ Supermicro โดยประกอบตัว Motherboard, Chassis และ GPU เข้าด้วยกันพร้อมผ่านการทดสอบการทำงานมาเรียบร้อย โดยมีคุณสมบัติโดดเด่นที่น่าสนใจดังนี้

 

ออกแบบมาให้ระบายความร้อนอย่างเต็มที่ ใช้พลังงานอย่างคุ้มค่าระดับ 80 PLUS Titanium Level

Server รุ่นนี้ถูกออกแบบมาโดยถูกบังคับว่าต้องติดตั้งใช้งาน 4 GPU เท่านั้นเพื่อให้ระบบระบายความร้อนสามารถทำงานได้อย่างเต็มประสิทธิภาพ อีกทั้งยังติดตั้ง Redundant Power Supply ขนาด 2000W ที่ได้รับมาตรฐาน 80 PLUS Titanium Level ซึ่งมี Efficiency ในการใช้พลังงานไฟฟ้าสูงถึง 96.14% ที่การใช้งาน 50% Load

สำหรับส่วนประกอบอื่นๆ นั้น Server รุ่นนี้รองรับ Intel Xeon Scalable 2 ชุด รองรับ RAM สูงสุด 1.5TB DDR4-2666, ติดตั้ง 2.5″ SSD/HDD ได้ 4 ชุดพร้อม M.2 SATA/NVMe อีก 1 ชุด, เชื่อมต่อเครือข่ายด้วย 2x 10GbE และสามารถบริหารจัดการจากระยะไกลได้ผ่าน IPMI

 

ประสิทธิภาพ 500 TFLOPS ด้วย 2,560 Tensor Core และ 20,480 CUDA Core

ด้วยการติดตั้ง NVIDIA Tesla V100 SXM2 GPU จำนวน 4 ชุด ก็ทำให้ระบบนี้มีประสิทธิภาพสำหรับการประมวลผล Deep Learning สูงถึงระดับ 500 TFLOPS ด้วยการทำงานของ Tensor Core จำนวน 2,560 ชุดและ CUDA Core จำนวน 20,480 ชุด เหนือกว่าการติดตั้งการ์ดจอแบบเดียวกันในรุ่น PCIe อยู่ประมาณ 10% และรองรับการใาช้งาน API ของ CUDA, DirectCompute, OpenCL และ OpenACC ได้ในระบบหนึ่งเดียว

ในแง่ของการรองรับ Deep Learning Framework นั้น Server รุ่นนี้ก็รองรับได้หลากหลาย เช่น

  • Caffe2
  • Microsoft Cognitive Tookit
  • Mxnet
  • Pytorch
  • TensorFlow
  • Theano

ในขณะเดียวกัน การรองรับ Application ที่สามารถเพิ่มประสิทธิภาพด้วย GPU นั้นก็รองรับได้หลากหลายเช่นกัน ไม่ว่าจะเป็น

  • AMBER
  • ANSYS Fluent
  • GAUSSIAN
  • GROMACS
  • LS-DYNA
  • NAMD
  • OpenFOAM
  • Simulia Abaqus
  • VASP
  • WRF

โดยสรุปแล้ว Server รุ่นนี้สามารถรองรับ Application ได้หลากหลายเกินกว่า 550 Application เลยทีเดียว

 

Bandwidth ระหว่างการ์ดจอขนาด 300GB/s ด้วย NVIDIA NVLink

ด้วยความที่ Server รุ่นนี้ถูกออกแบบมาสำหรับการใช้งานกับ NVIDIA โดยเฉพาะ จึงสามารถรองรับการใช้งานเทคโนโลยี NVIDIA NVLink ล่าสุดที่จะช่วยให้การรับส่งข้อมูลระหว่าง GPU เกิดขึ้นได้ด้วยความเร็วระดับ 300GB/s สูงกว่าการใช้ PCIe ที่มีความเร็วเพียง 32GB/s เป็นอย่างมาก ในขณะที่ความเร็วในการเข้าถึงข้อมูลของหน่วยความจำแบบ HBM2 บน GPU ก็มีความเร็วสูงถึง 900GB/s ทำให้มั่นใจได้ว่าจะไม่เกิดคอขวดในการเข้าถึงข้อมูลในส่วนของ GPU อย่างแน่นอน

 

แรงไม่พอ? 8 GPU ใน 1 เครื่อง Supermicro ก็มีขาย

 

Supermicro SuperServer 4029GP-TVRT Credit: Supermicro

 

สำหรับคนที่แสวงหาความแรงในการประมวลผล AI มากยิ่งขึ้นไปอีก ทาง Supermicro ก็มีการออกแบบ Server รุ่น Supermicro SuperServer 4029GP-TVRT ที่มีขนาด 4U แต่รองรับ NVIDIA Tesla V100 จำนวนมากถึง 8 การ์ดในเครื่องเดียว และมีสเป็คอื่นๆ ที่เทียบเท่ากัน แต่เพิ่มการรองรับ SSD/HDD ในเครื่องมากขึ้น และเพิ่มขนาดของ Power Supply ให้สูงขึ้น โดยรวมแล้วก็จะรองรับประสิทธิภาพสูงถึง 1,000 TFLOPS สำหรับงาน AI เลยทีเดียว

ดังนั้นด้วย Server 2 รุ่นนี้ ก็ทำให้เหล่าองค์กรสามารถเลือกได้ว่าจะเริ่มต้นที่ 4 GPU หรือ 8GPU ในช่วงแรกเริ่ม และจะเพิ่มขยายแบบ Scale-Out ด้วยการเติมเครื่องรุ่นใดเข้าไปในระบบก็ได้ตามต้องการ

 

เกี่ยวกับ Throughwave Thailand

Throughwave Thailand เป็นตัวแทนจำหน่าย (Distributor) สำหรับผลิตภัณฑ์ Enterprise IT ครบวงจรทั้ง Server, Storage, Network และ Security พร้อมโซลูชัน VMware และ Microsoft ที่มีลูกค้าเป็นองค์กรชั้นนำระดับหลายหมื่นผู้ใช้งานมากมาย โดยทีมงาน Throughwave Thailand ได้รับความไว้วางใจจากลูกค้าจากทีมงาน Engineer มากประสบการณ์ ที่คอยสนับสนุนการใช้งานของลูกค้าตลอด 24×7 ร่วมกับ Partner ต่างๆ ทั่วประเทศไทยนั่นเอง https://www.throughwave.co.th

from:https://www.techtalkthai.com/supermicro-gpu-server-with-4x-nvidia-tesla-v100-for-ai-by-throughwave/

Supermicro เปิดตัว GPU Server รุ่นล่าสุด รองรับ NVIDIA Tesla V100 ได้สูงสุด 8 ใบ

Supermicro ผู้ผลิต Server ชื่อดัง ได้ออกมาประกาศเปิดตัว GPU Server รุ่นใหม่ล่าสุดที่รองรับ NVIDIA Tesla V100 PCI-E และ V100 SXM2 ได้ 4-8 ใบภายใน Server เดียว และยังสนับสนุน NVIDIA NVLink ที่ความเร็ว 300GB/s และ GPU Direct RDMA สำหรับงานประมวลผลประสิทธิภาพสูงอย่าง AI, Big Data, Deep Learning, Machine Learning และ Virtual Reality โดยเฉพาะ

 

 

Supermicro ได้เผยผลการทดสอบผลิตภัณฑ์ล่าสุดนี้สามารถทำการวิเคราะห์ภาพจำนวนมากถึง 5,188 ภาพได้ภายในเวลาเพียง 1 วินาทีด้วยการใช้ RestNet-50 และวิเคราะห์ภาพได้ 3,709 ภาพด้วยการใช้ InceptionV3 อีกทั้งการเพิ่มขยายระบบเองก็เป็นไปได้แบบ Scale Out ด้วยการเพิ่มประสิทธิภาพในเชิง Linear ด้วยการนำเทคโนโลยี DPU Direct RDMA เข้ามาใช้ ในขณะที่ Server แต่ละเครื่องเองก็สามารถทำงานได้ด้วยประสิทธิภาพสูงสุดจากการนำ NVIDIA V100 32GB PCI-E และ V100 32GB SXM2 เข้ามาใช้ร่วมกับ NVIDIA NVLink ที่มี Bandwidth ระหว่าง GPU สูงถึง 300GB/s ซึ่งนับว่าเร็วกว่า PCI-E 3.0 ถึง 5 เท่าเลยทีเดียว

สำหรับการเปิดตัวครั้งนี้มี Server รุ่นใหม่ดังต่อไปนี้

นอกจากนี้ Supermicro ก็ยังมี Server รุ่นอื่นๆ ที่เคยออกมาก่อนหน้าเพื่อตอบโจทย์ด้านการประมวลผลที่แตกต่างกัน เช่น Server ที่รองรับ GPU ทั่วๆ ไปมากถึง 10 ชุด หรือระบบ Single-root GPU System ที่ช่วยลด Latency ในการประมวลผลและรีดประสิทธิภาพของการสื่อสารระหว่าง GPU ให้สูงขึ้นได้ เป็นต้น

 

เกี่ยวกับ Throughwave Thailand

Throughwave Thailand เป็นตัวแทนจำหน่าย (Distributor) สำหรับผลิตภัณฑ์ Enterprise IT ครบวงจรทั้ง Server, Storage, Network และ Security พร้อมโซลูชัน VMware และ Microsoft ที่มีลูกค้าเป็นองค์กรชั้นนำระดับหลายหมื่นผู้ใช้งานมากมาย โดยทีมงาน Throughwave Thailand ได้รับความไว้วางใจจากลูกค้าจากทีมงาน Engineer มากประสบการณ์ ที่คอยสนับสนุนการใช้งานของลูกค้าตลอด 24×7 ร่วมกับ Partner ต่างๆ ทั่วประเทศไทยนั่นเอง https://www.throughwave.co.th

 

ที่มา: https://www.supermicro.com.tw/newsroom/pressreleases/2018/press180327_GTC_Tesla_V100_2018.cfm

from:https://www.techtalkthai.com/supermicro-latest-gpu-server-supports-upto-8-nvidia-tesla-v100/

Supermicro จับมือ Intel ทำลายสถิติโลกจากการประมวลผลทางด้านการเงินด้วย Intel Xeon Phi

supermicro_logo

Supermicro และ Intel ได้ออกมาประกาศผลการทดสอบทางด้านความเร็วการประมวลผลสำหรับ Application ทางด้านการเงิน ซึ่งผ่านการทดสอบและทำลายสถิติโลกของ STAC-A2 World Speed Record ไปเป็นที่เรียบร้อย ทำให้ Supermicro ที่ติดตั้ง Intel Xeon CPU และ Intel Xeon Phi กลายเป็นระบบที่เร็วที่สุดในโลกสำหรับการประมวลผลทางด้านการเงิน ด้วยส่วนประกอบในการทดสอบดังต่อไปนี้

supermicro_sys-1028gr-tr

  • STAC-A2 Pack for Intel Composer XE (Rev G)
  • Intel® C++ Compiler XE
  • Intel® Math Kernel Library
  • Intel® Threading Building Blocks
  • 2 x Intel Xeon Phi 7120P (Knights Corner) Co-Processor (Upto 3)
  • 2 x Intel Xeon E5-2697 v3 (Haswell EP) processors at 2.60 GHz 256GB of DRAM
  • Supermicro® Superserver SYS-1028GR-TR
  • Red Hat Enterprise Linux 7.1

สำหรับ Application ที่เหมาะสมกับระบบนี้ ได้แก่ ระบบประมวลผลทางด้านการเงินขนาดใหญ่ และ Algorithmic Trading โดย Supermicro® Superserver SYS-1028GR-TR นี้เป็น Server ที่สามารถติดตั้ง Intel Xeon E5 v3 ได้ 2 ชุด พร้อมกับติดตั้ง GPU / Intel Xeon Phi ได้สูงสุด 3 ชุด ภายในขนาดเพียงแค่ 1U เท่านั้น

สำหรับ Systems Integrator ที่สนใจรับราคา Reseller หรือองค์กรที่สนใจอุปกรณ์ Server สำหรับองค์กร สามารถติดต่อตัวแทนจำหน่าย (Distributor) ของ Supermicro บริษัททรูเวฟ ประเทศไทย จำกัด ได้ที่เบอร์ 02-210-0969 หรืออีเมลล์มาที่ info@throughwave.co.th ได้ทันที หรือสามารถเยี่ยมชมเว็บไซต์ของ Throughwave Thailand ได้ทันทีที่ www.throughwave.co.th

ที่มา: http://www.supermicro.com.tw/newsroom/pressreleases/2015/press151103_SYS-1028GR-TR_STAC-A2.cfm

from:https://www.techtalkthai.com/supermicro-with-intel-break-stac-a2-world-speed-record/

Supermicro เปิดตัว 1U Server ที่ติดตั้ง GPU ได้ถึง 4 ใบ รองรับ 20,000 Cores ใน 1U

supermicro_sys_1028gq_tr_trt_gpu_server

เป็นอีกครั้งกับการออกแบบ Server สไตล์ Supermicro ที่เน้นประสิทธิภาพเป็นหลัก โดยในครั้งนี้ Supermicro ได้เปิดตัว Server รุ่น SYS-1028GQ-TR/TRT ซึ่งเป็น Server ขนาด 1U ที่รองรับการติดตั้ง GPU จาก NVIDIA หรือ Co-processor อย่าง Intel Xeon Phi ได้มากถึง 4 การ์ดภายในเครื่องเดียว

supermicro_logo

ด้วยการที่สามารถติดตั้ง GPU ได้มากขนาดนี้ ทำให้เมื่อติดตั้ง NVIDIA Tesla K80 จำนวน 4 ใบลงไปบน Supermicro SYS-1028GQ-TR แล้ว ก็จะมีจำนวน CUDA Cores มากถึง 19,968 Cores เลยทีเดียว และเมื่อรวมกับ CPU Intel Xeon รุ่น 18 Cores จำนวน 2 ชุด ก็ทำให้อ้างได้ว่ามี Cores รวมถึง 20,004 Cores เลยนั่นเอง (ถึงจะเป็นคนละ Core กันก็ตาม)

ความน่าสนใจอีกอย่างของ Server รุ่นนี้คือการออกแบบ Airflow มาให้เหมาะสมกับการใช้งาน GPU เป็นจำนวนมาก โดยเมื่อดูจากผังการออกแบบแล้วจะพบว่า Server รุ่นนี้ได้ทำการแก้ปัญหา GPU Pre-heating หรือการนำลมร้อนจากการระบายความร้อนของส่วนอื่นๆ ใน Server มาใช้ระบายความร้อนให้แก่ GPU ทำให้ GPU ไม่สามารถระบายความร้อนได้อย่างเต็มที่ และทำงานเต็มประสิทธิภาพไม่ได้นั่นเอง

Server รุ่นนี้ถูกออกแบบมาสำหรับงานประมวลผล Real-time Analytics, Big Data Analytics, Machine Learning และการประมวลผลขนาดใหญ่ เพื่อตอบโจทย์ของธุรกิจ Oil & Gas, Engineering & Researching และ High Performance Computing โดยเฉพาะ โดยมีรุ่นที่มี NIC 1Gbps และ 10Gbps ให้เลือกใช้งานได้ตามความเหมาะสม

สำหรับ Systems Integrator ที่สนใจรับราคา Reseller หรือองค์กรที่สนใจอุปกรณ์ Server สำหรับองค์กร สามารถติดต่อตัวแทนจำหน่าย (Distributor) ของ Supermicro บริษัททรูเวฟ ประเทศไทย จำกัด ได้ที่เบอร์ 02-210-0969 หรืออีเมลล์มาที่ info@throughwave.co.th ได้ทันที หรือสามารถเยี่ยมชมเว็บไซต์ของ Throughwave Thailand ได้ทันทีที่ www.throughwave.co.th

ที่มา: http://www.supermicro.com/products/system/1u/1028/sys-1028gq-tr.cfm

from:https://www.techtalkthai.com/supermicro-1u-gpu-server-with-upto-20000-cores/