คลังเก็บป้ายกำกับ: NVIDIA

NVIDIA เปิดดีไซน์เซิร์ฟเวอร์ MGX ให้ผู้ผลิตเซิร์ฟเวอร์รายอื่นใช้งาน

NVIDIA เปิดสเปกของเครื่องเซิร์ฟเวอร์ชื่อ MGX ให้ผู้ผลิตเซิร์ฟเวอร์และศูนย์ข้อมูลขนาดใหญ่ใช้งาน

MGX เป็นชื่อเรียกดีไซน์ต้นแบบ (reference architecture) ของเครื่องเซิร์ฟเวอร์ที่ใช้เทคโนโลยีฝั่ง NVIDIA ได้แก่

  • จีพียู NVIDIA ฝั่งเซิร์ฟเวอร์ทั้งหมด เช่น H100, L40, L4
  • ซีพียู รองรับทั้ง x86 ทั่วไป และซีพียู Grace CPU Superchip กับ Grace Hopper Superchip
  • ชิปเครือข่าย BlueField-3 DPU, การ์ดเครือข่าย ConnectX-7

รูปแบบของเซิร์ฟเวอร์ MGX มีทั้งขนาดแร็ค 1U, 2U, 4U และระบายความร้อนได้ทั้งอากาศ-ของเหลว รวมๆ แล้วมีสเปกย่อยมากกว่า 100 แบบ โดย NVIDIA การันตีว่าสเปก MGX จะรองรับสินค้าของตัวเองที่จะออกขายในอนาคต และตัวสเปก MGX ก็เคารพสเปกกลางของ Open Compute Project (OCP) กับ Electronic Industries Alliance เพื่อใช้ร่วมกับเซิร์ฟเวอร์รุ่นอื่นๆ ได้ด้วย

No Description

ข้อดีของการออกดีไซน์กลาง MGX คือผู้ผลิตเซิร์ฟเวอร์ประหยัดต้นทุนในการออกแบบเครื่องใหม่ สามารถหยิบสเปกกลางมาปรับแต่งเล็กน้อย แล้วได้สินค้าพร้อมขายเลย (ลักษณะเดียวกับที่ผู้ผลิตซีพียูชอบทำโน้ตบุ๊กต้นแบบให้ด้วย) รายชื่อผู้ผลิตเซิร์ฟเวอร์ที่ประกาศใช้ดีไซน์กลุ่ม MGX แล้วได้แก่ ASRock Rack, ASUS, GIGABYTE, Pegatron, QCT, Supermicro โดยสินค้าของ QCT และ Supermicro จะออกขายในเดือนสิงหาคม

จริงๆ แล้ว NVIDIA มีดีไซน์เซิร์ฟเวอร์อีกตัวคือ HGX ที่จับตลาดสูงกว่า เน้นตลาด high performance computing (HPC) และงานด้าน AI ขนาดใหญ่ ใช้จีพียูหลายตัวและบัสแบบ NVLink แต่ไม่ได้เปิดออกมาให้ใช้ในวงกว้างเหมือนกับ MGX และยังจำกัดเฉพาะผู้ผลิตเซิร์ฟเวอร์บางราย

ที่มา – NVIDIA

from:https://www.blognone.com/node/134066

NVIDIA ประกาศเดินหน้าผลิต GH200 Grace Hopper Superchip แล้ว

NVIDIA ประกาศเดินหน้าผลิต GH200 Grace Hopper Superchip แล้ว

Credit: NVIDIA

ในงาน COMPUTEX ที่กำลังจัดขึ้น NVIDIA ได้ประกาศความคืบหน้าของชิปรุ่นใหม่อย่าง GH200 Grace Hopper Superchip เป็นชิปผสมระหว่าง CPU และ GPU ที่ออกแบบมาสำหรับงาน AI หรืองาน High-performance Computing (HPC) โดยเฉพาะ ซึ่งได้เข้าสู่สายการผลิตเรียบร้อยแล้ว โดยคาดว่าจะสามารถวางจำหน่ายได้ภายในเร็วๆนี้

ชิปตัวนี้มีหน่วยประมวลผล Grace Arm Neoverse V2 CPU และ NVIDIA H100 Tensor Core GPU เชื่อมต่อกันผ่าน NVIDIA NVLink Chip-2-Chip (C2C) interconnect มี Bandwidth การส่งข้อมูลสูงถึง 900 GB/s ซึ่งสูงกว่า PCIe Gen5 lane ถึง 7 เท่า และมี System memory bandwidth to GPU สูงกว่า NVIDIA DGX A100 ถึง 30 เท่าเลยทีเดียว ทำให้ GH200 สามารถตอบโจทย์งาน AI ขนาดใหญ่ได้เป็นอย่างดี นอกจากนี้ยังรองรับ Software Stack ของ NVIDIA หลายตัว เช่น NVIDIA HPC SDK, NVIDIA AI และ NVIDIA Omniverse

ที่มา: https://nvidianews.nvidia.com/news/nvidia-grace-hopper-superchips-designed-for-accelerated-generative-ai-enter-full-production

from:https://www.techtalkthai.com/nvidia-announces-gh200-grace-hopper-superchip-is-now-in-production/

NVIDIA เริ่มผลิตชิป Grace Hopper Superchip แล้ว สินค้าส่งมอบภายในปีนี้

NVIDIA ประกาศว่าเริ่มผลิตชิป GH200 Grace Hopper Superchip แล้ว หลังจากเปิดตัวมาตั้งแต่ 1 ปีก่อนหน้านี้ และเปิดตัวเฉพาะซีพียู Grace อย่างเดียวมาตั้งแต่ปี 2021

Grace Hopper เป็นการรวมร่างกันระหว่างซีพียู Grace ที่เป็นสถาปัตยกรรม Arm และจีพียู Hopper สำหรับงานฝั่งเซิร์ฟเวอร์ มันจะเป็นชิปฝั่งเซิร์ฟเวอร์ตัวแรกของ NVIDIA ที่ใช้ของตัวเองล้วนๆ ไม่ต้องยุ่งกับใคร เทียบกับยุคก่อนหน้านี้ที่ต้องไปเชื่อมกับซีพียูของ Intel/AMD

NVIDIA ยังมีชิปอีกตัวเรียกว่า Grace CPU Superchip ที่เป็นการนำซีพียู Grace สองตัวมาประกบกัน แบบไม่ต้องมีจีพียู สำหรับงานที่เน้นการประมวลผลด้วยซีพียูล้วนๆ

ลูกค้ากลุ่มแรกที่จะได้ใช้งาน Grace Hopper Superchip คือกลุ่มบริษัทคลาวด์ขนาดใหญ่ และศูนย์ซูเปอร์คอมพิวเตอร์ในยุโรปและสหรัฐอเมริกา เซิร์ฟเวอร์ที่ใช้ Grace Hopper จะเริ่มวางขายภายในปีนี้ ตัวอย่างเซิร์ฟเวอร์ที่เปิดตัวพร้อมกันคือ DGX GH200

ที่มา – NVIDIA

No Description

Topics: 

from:https://www.blognone.com/node/134061

MediaTek เซ็นสัญญานำจีพียู NVIDIA ไปใช้ในชิปสำหรับรถยนต์ Dimensity Auto

จากข่าวลือว่า MediaTek จะใช้จีพียูจาก NVIDIA วันนี้ข่าวนี้เป็นจริงแล้ว โดย MediaTek จะใช้จีพียู NVIDIA ในชิป SoC สำหรับรถยนต์ (ยังไม่มีประกาศเรื่อง SoC ประเภทอื่นๆ)

ตอนนี้ยังมีรายละเอียดของชิปตัวใหม่น้อยมาก บอกเพียงว่า MediaTek จะนำจีพียูแบบ chiplet ของ NVIDIA ไปใช้งานในรถยนต์และงานด้านหุ่นยนต์ แต่ยังไม่ระบุกำหนดเวลาว่าเราจะเห็นชิปตัวนี้เมื่อไร

ก่อนหน้านี้ไม่นาน MediaTek เพิ่งเปิดตัวแพลตฟอร์ม Dimensity Auto จับตลาดรถยนต์หลายด้าน โดยมีด้านหนึ่งคือ Dimensity Auto Cockpit ที่ใช้หน้าจอความละเอียดสูง 8K 120Hz HDR จึงไม่น่าแปลกนักหากใช้พลังจีพียู NVIDIA

SoC ตัวใหม่นี้จะรองรับเทคโนโลยีซอฟต์แวร์ฝั่ง NVIDIA มากมาย เช่น DRIVE OS, DRIVE IX, CUDA, TensorRT ด้วย

No Description

ที่มา – NVIDIA

from:https://www.blognone.com/node/134060

พอทีธนูปักเข่า NVIDIA เปิดบริการ AI สำหรับเกม สร้าง NPC คุยได้สมจริง

NVIDIA เปิดบริการ NVIDIA Avatar Cloud Engine (ACE) for Games ชุดปัญญาประดิษฐ์สำหรับการพัฒนาตัวละครในเกม non-playable characters (NPCs) ให้สามารถตอบสนองได้สมจริง

ACE for Games เป็นชุดบริการเดิมที่เคยเปิดตัวมาก่อนหน้านี้แล้ว โดยเน้น 3 ด้านคือ เสียงพูด, บทสนทนา, และท่าทางหน้าตาของตัวละคร ผ่านเทคโนโลยี 3 ตัว ได้แก่

  • NVIDIA NeMo ชุดพัฒนาโมเดลปัญญาประดิษฐ์ภาษาขนาดใหญ่ เพื่อให้สร้างบทสนทนาได้ตามเนื้อเรื่องในเกม โดยสามารถกำหนดหัวข้อไม่ให้พูดนอกเรื่องได้
  • NVIDIA Riva สำหรับแปลงเสียงเป็นข้อความและข้อความเป็นเสียง ทำให้อนาคตผู้เล่นสามารรถพูดกับตัวละคร NPC ได้โดยตรง
  • NVIDIA Omniverse Audio2Face แปลงเสียงออกมาเป็นใบหน้าตัวละคร สามารถเชื่อมต่อกับ Unreal Engine 5 ได้ในตัว

บริษัทเกมสามารถเลือกใช้บริการ ACE for Games นี้ผ่านคลาวด์ของ NVIDIA หรือจะติดตั้งบนเซิร์ฟเวอร์ของตัวเองก็ได้ ในการเปิดตัวครั้งนี้มีค่ายเกมเริ่มนำเทคโนโลยีบางส่วนไปใช้งานแล้ว แต่มักจะจำกัดอยู่กับ Audio2Face เป็นหลัก

ที่มา – NVIDIA

No Description

from:https://www.blognone.com/node/134056

NVIDIA เปิดตัว DGX GH200 เซิร์ฟเวอร์ AI เฉพาะทาง อัดแรมได้ 144TB

NVIDIA เปิดตัวเซิร์ฟเวอร์รุ่นใหม่ NVIDIA DGX GH200 ชูจุดเด่นที่รองรับแรมสูงถึง 144TB เป็นก้าวกระโดดจาก DGX H100 ที่เคยรองรับแรม 640GB ต่อเครื่อง

ภายในตัวเครื่อง ใช้ชิป NVIDIA Grace Hopper Superchip พร้อมแรมแบบ LPDDR5 480GB เซิร์ฟเวอร์แต่ละเครื่องมีซีพียู 8 ชุด และสามารถต่อข้ามเครื่องผ่าน NVLink Switches อีกถึง 256 ซีพียูในแต่ละคลัสเตอร์ ตัวชิปกราฟิกบนแต่ละโมดูลสามารถข้ามไปใช้แรมฝั่งซีพียูด้วยแบนวิดท์ 900GB/s

ทาง NVIDIA โชว์ความสามารถที่ DGX GH200 ทำได้ดีเหนือกว่า DGX H100 เป็นงานที่ใช้ข้อมูลขนาดใหญ่มากๆ เช่น การเทรน GPT-3 หรือปัญญาประดิษฐ์แบบอื่นที่ต้องการหน่วยความจำขนาดใหญ่มากๆ ซึ่งก็สามารถเทรนโมเดลเหล่านี้ได้เร็วขึ้นหลายเท่าตัว

ที่มา – NVIDIA

No Description

from:https://www.blognone.com/node/134053

NVIDIA รายงานผลประกอบการ กลุ่ม Data Center เติบโตทำสถิติใหม่ ราคาหุ้นบวก 26%

NVIDIA รายงานผลประกอบการประจำไตรมาสแรก ตามปีการเงินบริษัท 2024 สิ้นสุดเดือนเมษายน 2023 รายได้รวม 7,192 ล้านดอลลาร์ ลดลง 13% เมื่อเทียบกับไตรมาสเดียวกันในปีก่อน มีกำไรสุทธิอยู่ที่ 2,043 ล้านดอลลาร์

รายได้แยกตามกลุ่มธุรกิจเป็นดังนี้ กลุ่ม Data Center เพิ่มขึ้น 14% เป็นสถิติสูงสุดที่ 4,284 ล้านดอลลาร์ กลุ่มเกมมิ่ง 2,240 ล้านดอลลาร์ ลดลง 38% กลุ่ม Professional Visualization 295 ล้านดอลลาร์ ลดลง 53% และกลุ่มยานยนต์ 296 ล้านดอลลาร์ เพิ่มขึ้น 114%

Jensen Huang ซีอีโอ NVIDIA กล่าวว่าอุตสาหกรรมคอมพิวเตอร์ตอนนี้อยู่ในช่วงเปลี่ยนผ่าน 2 อย่างไปพร้อมกัน คือ มุ่งสู่การประมวลผลที่เร็วขึ้น และ Generative AI ทำให้เม็ดเงินระดับล้านล้านดอลลาร์ที่ลงทุนในโครงสร้างของ Data Center ทั่วโลก เปลี่ยนหน้าที่จากการรองรับการทำงานทั่วไป สู่การเป็นเครื่องมือช่วยประมวลผล ตอบสนองความต้องการด้าน Generative AI ที่องค์กรต่าง ๆ ต้องการมากขึ้น ซึ่งสินค้าของ NVIDIA ไม่ว่าจะเป็น H100, Grace CPU, Grace Hopper Superchip, NVLink หรือ Quantum 400 InfiniBand ก็กำลังเร่งการผลิตเพื่อให้รองรับความต้องการเหล่านี้

NVIDIA ประเมินยอดขายในไตรมาสถัดไปที่ระดับ 11,000 ล้านดอลลาร์ ซึ่งจะเพิ่มขึ้นมากกว่า 60% จากความต้องการสินค้ากลุ่ม Data Center ที่เพิ่มสูงมาก ทำให้ราคาหุ้น NVIDIA ปรับเพิ่มขึ้น 26% หลังรายงานผลประกอบการ

ที่มา: NVIDIA และ CNBC

alt="NVIDIA HQ"

No Description

from:https://www.blognone.com/node/134000

Dell และ NVIDIA ประกาศความร่วมมือ Project Helix โซลูชัน Generative AI สำหรับลูกค้าองค์กร

Dell Technologies และ NVIDIA ประกาศความร่วมมือในโครงการชื่อว่า Project Helix เพื่อให้องค์กรสามารถรันซอฟต์แวร์ AI สร้างเนื้อหาหรือ Generative AI ใช้งานเองได้ภายในองค์กรแบบออนพรีมิส ซึ่งช่วยปกป้องข้อมูลขององค์กร ที่เป็นข้อกังวลสำคัญของการนำ AI มาใช้งาน

ชุดเครื่องมือของ Project Helix ประกอบด้วยเซิร์ฟเวอร์ของ Dell พร้อมซอฟต์แวร์บริหารจัดการ เช่นตระกูล PowerEdge XE9680 หรือ PowerEdge R760xa ติดตั้งชิป NVIDIA H100 Tensor Core GPUและซอฟต์แวร์ของ NVIDIA มาพร้อมรองรับการเทรน AI และสร้างยูสเคส

Bob O’Donnell นักวิเคราะห์จาก TECHnalysis Research ให้ความเห็นว่าองค์กรต่างมองหาโอกาสที่จะนำเครื่อง Generative AI มาใช้ในองค์กร แต่หลายแห่งก็ไม่แน่ใจว่าควรเริ่มต้นอย่างไร โซลูชันของ Dell และ NVIDIA จึงเป็นตัวเลือกที่เหมาะสมขององค์กร และสามารถปรับแต่งได้ตามความต้องการ

โซลูชันของ Project Helix จะเริ่มมีให้เลือกใช้งานตั้งแต่กรกฎาคม 2023 เป็นต้นไป

ที่มา: Dell Technologies

No Description

from:https://www.blognone.com/node/133978

Nvidia ผนึก HPE เปิดตัวซุปเปอร์คอมพิวเตอร์ “Isambard 3” ที่ใช้ “ซุปเปอร์ชิป”

Nvidia กำลังเร่งพัฒนา Superchip ซึ่งเป็นชิปเชื่อมกันระหว่างซีพียูสองตัว (เรียก Grace CPU Superchip) หรือเชื่อมซีพียูกับจีพียู (เรียก Grace Hopper Superchip) โดยในงานประชุม ISC 2023 ที่กรุงฮัมเบิร์กวันแรก ได้ประกาศการพัฒนาซุปเปอร์คอมพิวเตอร์ครั้งยิ่งใหญ่

โดยเป็นเครื่องที่สร้างขึ้นร่วมกับ HPE โดยใช้ Grace CPU Superchip ตัวใหม่ล่าสุดถึง 384 ใช้ชื่อว่า Isambard 3 ซึ่งจะตั้งประจำการอยู่ที่อังกฤษ Nvidia ระบุประสิทธิภาพเครื่องนี้อยู่ที่ประมาณ 2.7 เพต้าฟล็อปในช่วงพีค FP64 แต่ใช้ไฟน้อยกว่า 270 กิโลวัตต์

ทำให้เครื่องซุปเปอร์คอมพิวเตอร์นี้เข้าทำเนียบหนึ่งในสามเครื่องแบบ Non-Accelerated ที่รักษาสิ่งแวดล้อมมากที่สุดของโลก ซึ่งในรายชื่อ Top500 และ Green500 ล่าสุดนั้น เครื่อง Fugaku ที่เปิดตัวตั้งแต่ปี 2020 รั้งอันดับแรกสุดด้วยประสิทธิภาพ 15.42 กิกะฟล็อปต่อวัตต์

ขณะที่ Henri ที่ใช้จีพียู Nvidia H100 ขึ้นเป็นอันดับหนึ่งในลิสต์ Green500 ที่ 65.40 กิกะฟล็อปต่อวัตต์ สูงกว่าของ Isambard 3 กว่า 4 เท่า แต่คาดว่าซุปเปอร์คอมพิวเตอร์ที่ยังใช้ซีพียูจะยังมีการพัฒนาให้มีประสิทธิภาพการทำงานต่อการใช้พลังงานดีมากขึ้นเรื่อยๆ ในอนาคต

อ่านเพิ่มเติมที่นี่ – HPCWire

from:https://www.enterpriseitpro.net/nvidia-hpe-announce-superchip-powered-isambard-3-supercomputer/

อังกฤษสร้างซูเปอร์คอมพิวเตอร์ Isambard 3 ใช้ Grace CPU Superchip ล้วน ประหยัดพลังงาน

NVIDIA เปิดตัวซูเปอร์คอมพิวเตอร์ Isambard 3 ที่มหาวิทยาลัย Bristol เป็นผู้สั่งซื้อ โดยความพิเศษคือมันเป็นซูเปอร์คอมพิวเตอร์ที่ใช้ชิป Grace CPU Superchip ล้วน ไม่มีชิปกราฟิกในระบบ

ระบบรวมของ Isambard 3 ใช้ Grace CPU Superchip จำนวน 384 ชุด พลังประมวลผลรวม 2.7 petaflops ที่ FP64 จุดเด่นคือกินพลังงานเพียง 270kW เท่านั้นทำให้เป็นซูเปอร์คอมพิวเตอร์ที่ไม่มีชิปเร่งความเร็วที่ประสิทธิภาพพลังงานดีที่สุดหนึ่งในสามอันดับแรกของโลก

Isambard 3 จะรันงานด้านการจำลองโมเลกุลเพื่อทำความเข้าใจกลไกของโรคต่างๆ หาทางรักษาไวรัส เช่น COVID-19 โดยการใช้ซีพียูล้วนทำให้ได้เปรียบในการรันซอฟต์แวร์จำลองที่หลายตัวไม่ได้ออปติไมซ์สำหรับการรันบนชิปกราฟิก งานที่ต้องการพลังประมวลผลสูงขึ้นแต่ไม่ได้ต้องการตัวเลขประสิทธิภาพสูงสุดจากชิปเร่งความเร็วจึงยังมีตลาดอยู่

คาดว่าเครื่อง Isambard 3 จะรันงานได้จริงกลางปี 2024 และผู้ใช้น่าจะเพิ่มขึ้นมาก จากตอนนี้มีประมาณ 800 ราย

ที่มา – NVIDIA

No Description

from:https://www.blognone.com/node/133945