คลังเก็บป้ายกำกับ: STORAGE_CLASS_MEMORY

เปิดตัว HPE Primera อุปกรณ์ Storage ล่าสุด ชูจุดเด่น 100% Available Guarantee และอัปเกรดได้เรื่อยๆ ไม่ตกรุ่น

HPE ได้ออกมาประกาศเปิดตัวผลิตภัณฑ์ตระกูลใหม่ล่าสุด HPE Primera ซึ่งเป็น All Flash Storage รุ่นใหม่ที่รองรับ NVMe และ Storage-Class Memory (SCM) เป็นหลัก พร้อมสนับสนุนการใช้งานและเพิ่มความทนทานด้วย AI อีกทั้งยังมาพร้อมกับ 100% Available Guarantee และความสามารถในการอัปเกรดระบบได้เรื่อยๆ โดยไม่มีวันตกรุ่น

Credit: HPE

HPE Primera นี้ทำงานด้วยสถาปัตยกรรมแบบ Multi-Mode, All-Active และออกแบบมาให้รองรับการใช้งาน NVMe และ SCM ได้อย่างเต็มประสิทธิภาพ เพื่อรองรับงาน Mission Critical ภายในระบบ IT ของธุรกิจองค์กรโดยเฉพาะ และสามารถรองรับการใช้งานในอนาคตได้อย่างต่อเนื่องยาวนาน

จุดเด่นหนึ่งที่น่าสนใจคือการที่ HPE Primera นี้ออกแบบมาให้ทำงานโดยมี AI สนับสนุนโดยเฉพาะ ซึ่งก็มีทั้ง HPE InfoSight ที่สามารถช่วยตรวจสอบการใช้งาน Application ต่างๆ ภายในระบบ Storage และทำนายโอกาสที่จะเกิดความผิดปกติขึ้นในระบบล่วงหน้า ทำให้สามารถป้องกันปัญหาล่วงหน้าได้ พร้อมทั้งมี Embedded AI Engine ภายในช่วยตรวจสอบและประมวลผลความผิดปกติหรือทำนายปัญหาได้แบบ Real-time และยังมีเทคโนโลยีในการปกป้องข้อมูลที่หลากหลายอย่างเช่น Automatic Site Failover หรือ Data Protection บน Cloud และนี่เองที่ทำให้ HPE Primera กล้าที่จะใช้คำว่า 100% Availability Guarantee

อีกจุดหนึ่งก็คือการชูความเป็น Timeless Storage ที่ถ้าหากธุรกิจองค์กรเลือกที่จะ Subscribe บริการของ HPE ก็จะทำให้ HPE Primera สามารถอัปเกรดอย่างต่อเนื่องได้โดยไม่ตกรุ่นอีกต่อไป ไม่ว่าจะเป็น License ของความสามารถต่างๆ บนระบบ, การอัปเกรด Controller ให้ฟรีๆ ไปจนถึงการรับประกันให้กับทั้งการทำ Data Reduction และ Data Availability

ปัจจุบันนี้ข้อมูลเชิงเทคนิคอย่างเป็นทางการของ HPE Primera ยังไม่ออกมา โดยผู้ที่สนใจข้อมูลเบื้องต้นก็สามารถเข้าไปศึกษาก่อนได้ที่ https://www.hpe.com/us/en/storage/hpe-primera.html หรือดูคลิปแนะนำด้านล่างนี้ก่อนได้เลยครับ

ที่มา: https://community.hpe.com/t5/Around-the-Storage-Block/Introducing-HPE-Primera-the-first-storage-unicorn-with-mythical/ba-p/7051129#.XQpi94gzaUk

from:https://www.techtalkthai.com/hpe-primera-is-announced/

เปิดตัว NetApp AFF A320 NVMe All Flash Storage รุ่นล่าสุดสำหรับองค์กร

NVMe-over-Fabric หรือ NVMe-oF นั้นได้เริ่มกลายเป็นเทคโนโลยีหลักสำหรับใช้ในการเชื่อมต่อ All Flash Storage กันแล้ว และ NetApp ก็ได้ประกาศเปิดตัว NetApp AFF A320 ระบบ NVMe All Flash Storage รุ่นล่าสุด เพื่อตอบโจทย์ธุรกิจขนาดเล็กและขนาดกลางที่ต้องการใช้งานเทคโนโลยีล่าสุดนี้แล้ว

Credit: NetApp

NetApp AFF A320 นี้รองรับการ Scale-Out ได้สูงสุด 24 Node, สามารถรองรับ SSD ได้สูงสุด 576 ชุด, มีพื้นที่ใช้งานสูงสุดอยู่ที่ประมาณ 35PB โดยมีขนาดเริ่มต้นเพียงแค่ 2U เท่านั้น

จุดเด่นของ NetApp AFF A320 นี้ นอกจากการรองรับความสามารถทั้งหมดของ NetApp ONTAP แล้ว ตัวอุปกรณ์นี้ก็ยังถูกออกแบบมาให้รองรับ NVMe ทั้งหมด โดยรองรับการใช้ NVMe/FC ในการเชื่อมต่อไปยัง Host และใช้ NVMe/RoCE เพื่อเชื่อมต่อไปยัง NVMe Drive Shelf ได้ด้วย ทำให้ประสิทธิภาพในการเข้าถึงข้อมูลทั้งหมดนั้นจะสูงมากกว่าการใช้ Protocol แบบเดิมๆ

ในขณะเดียวกัน NetApp ก็ได้เล่าถึงวิสัยทัศน์ของตนเองสำหรับ SAN สมัยใหม่ ที่จะต้องมีการใช้ Persistent Memory เพื่อเสริมความเร็วบน Host และมีการใช้ Storage Class Memory (SCM) ในฐานะ Cache เพื่อเสริมความเร็วให้กับ Storage ด้วย โดยการเชื่อมต่อทั้งหมดนั้นจะใช้ NVMe เป็น Protocol หลัก

Credit: NetApp

ผู้ที่สนใจรายละเอียดเพิ่มเติมเกี่ยวกับ NetApp AFF A320 สามารถศึกษาข้อมูลเพิ่มเติมได้ที่ https://www.netapp.com/us/products/storage-systems/all-flash-array/aff-a-series.aspx

ที่มา: http://blog.netapp.com/aff-a320-nvme-for-the-masses/

from:https://www.techtalkthai.com/netapp-aff-a320-nvme-all-flash-storage-is-announced/

HPE ประกาศรองรับ Memory-Driven Flash ใช้ SCM และ NVMe ใน Storage พร้อมเปิดตัว AI รุ่นใหม่

HPE ได้ออกมาอัปเดตหลายประเด็นทางด้านเทคโนโลยี Storage ของตนเองในงาน HPE Discover 2018 ทั้งในแง่ของ AI, Cloud และการรองรับ SCM และ NVMe ดังนี้

 

Credit: HPE

 

HPE InfoSight ระบบ AI สำหรับช่วยดูแลรักษาและทำนายปัญหาของระบบ Storage นั้นได้ถูกเพิ่มความสามารถให้ครอบคลุมไปถึง Virtualization Layer ได้แล้ว และยังช่วยแนะนำได้ด้วยว่าควรนำ Workload ใดไปทำงานอยู่บนระบบไหนเพื่อให้ใช้ทรัพยากรได้อย่างเหมาะสมยิ่งขึ้น ในขณะที่ยังเพิ่มการนำ Machine Learning ไปใช้ตรวจสอบและแก้ไขปัญหาด้านประสิทธิภาพบน HPE 3PAR ได้ด้วย

ส่วนบริการ Cloud อย่าง HPE Cloud Volumes สำหรับใช้งานร่วมกับ HPE Nimble Storage นั้นก็ได้ประกาศรองรับการใช้งานในสหราชอาณาจักรและไอร์แลนด์เพิ่มเติมในปี 2019, ประกาศรองรับการทำงานร่วมกับ Docker และ Kubernetes เพื่อรองรับ DevOps และ Cloud-Native Application รวมถึงผ่านการรับรอง SoC 2 Type 1 Certification แล้ว

นอกจากนี้ HPE 3PAR และ HPE Nimble Storage ก็ประกาศรองรับ HPE Memory-Driven Flash โดยใช้ Storage Class Memory (SCM) และ NVMe ในการจัดเก็บข้อมูล ช่วยลด Latency ลงได้ 2 เท่า และทำงานได้เร็วขึ้น 50% รองรับการประมวลผลแบบ Real-time ได้ดีขึ้นกว่าเดิม ผู้ที่สนใจสามารถศึกษาข้อมูลเพิ่มเติมได้ที่ http://hpe.com/storage/memorydrivenflash/

สำหรับประกาศอื่นๆ ที่น่าสนใจมีดังนี้

  • HPE Nimble Storage รองรับการทำ Peer Persistence สามารถทำ Multi-site Synchronous Replication พร้อม Automatic Failover ได้แล้วโดยไม่มีค่าใช้จ่ายเพิ่มเติม
  • รองรับการทำงานร่วมกันระหว่าง HPE Apollo, HPE DL380 Server และ Cohesity เป็นอีกทางเลือกในการ Backup ข้อมูล
  • เปิดตัว HPE Apollo 4200 Gen10 ระบบ Server สำหรับรองรับงาน Big Data Analytics และ Scale-Out Software Defined Storage
  • HPE GreenLake Flex Capacity มีลูกค้าใช้งานพื้นที่จัดเก็บข้อมูลแบบ On-Premises กว่า 500PB ด้วยค่าใช้จ่ายแบบ Pay-per-Use แล้ว
  • เปิดตัว HPE GreenLake for Backup โดยรองรับ Veeam สำหรับการสำรองข้อมูลโดยคิดค่าใช้จ่ายแบบ Consumption-based ได้แล้ว

 

ที่มา: https://news.hpe.com/hewlett-packard-enterprise-introduces-industry-leading-storage-intelligence-to-portfolio/

from:https://www.techtalkthai.com/hpe-supports-memory-driven-flash-and-new-ai-for-its-storages/

[สัมภาษณ์พิเศษ] อนาคตของเทคโนโลยี Flash และ Storage ระดับองค์กร ในมุมมองของ IBM

ในงาน IBM ASEAN Connect 2017 ทางทีมงาน TechTalkThai มีโอกาสได้สัมภาษณ์กับทางคุณ Craig McKenna ผู้ดำรงตำแหน่ง Director ของ Cloud & Cognitive Data Solutions แห่ง IBM Systems ในประเด็นเกี่ยวกับ IT Infrastructure เป็นหลัก ซึ่งครอบคลุมถึงอนาคตของเทคโนโลยี Flash และ Storage สำหรับองค์กร ซึ่งครอบคลุมถึงทั้งสถาปัตยกรรมที่จะมาในอนาคตสำหรับ Flash, อนาคตของ Tape, การรองรับ Big Data Analytics ไปจนถึงการออกแบบระบบ Storage สำหรับ Blockchain ในกรณีที่ต้องการทำ On-premises จึงขอนำมาสรุปเอาไว้ให้ได้อ่านกันดังนี้

คุณ Craig McKenna ผู้ดำรงตำแหน่ง Director ของ Cloud & Cognitive Data Solutions แห่ง IBM Systems

 

ทำไม IBM ถึงเลือกที่จะพัฒนาผลิตภัณฑ์หลาย Line ในกลุ่มของ Storage?

ปัจจุบัน IBM นี้มี Product Portfolio ที่หลากหลายมากสำหรับระบบ Storage เนื่องจาก IBM นั้นมีความเชื่อว่าเทคโนโลยีของ Storage นั้นไม่สามารถออกแบบให้ระบบเดียวสามารถรองรับ Workload ได้ครบทุกแบบอย่างมีประสิทธิภาพ และเทคโนโลยีเดียวกันบน Hardware ที่ต่างกันก็รองรับ Workload ได้ต่างกันแล้ว ทำให้ IBM มีการแบ่งผลิตภัณฑ์ทางด้านระบบ Storage ที่หลากหลายมาก ทั้งการแบ่งตาม Software ของระบบ Storage ที่ใช้ และการแบ่งตาม Hardware Platform รวมถึงแบ่งตามการขายแบบ Software Only หรือ Cloud ด้วย

ระบบ Storage ของ IBM นี้ออกแบบมาเป็น Software-defined Storage (SDS) แทบทั้งหมด เพื่อให้เกิดความยืดหยุ่นในการเลือกใช้ IT Infrastructure ได้ตามความต้องการขององค์กรที่แตกต่างกันไป และด้วยการออกแบบระบบให้เป็น SDS เป็นหลักนี้ก็ทำให้แทบทุกผลิตภัณฑ์ของ IBM สามารถถูกนำเสนอได้ทั้งในฐานะของ Software หรือ Bundle ชุดรวมเป็น Hardware Appliance หรือผูกเข้ากับบริการ Cloud ก็ได้ทั้งนั้น ในขณะที่การเลือก Media ที่ใช้บันทึกข้อมูลก็จะทำให้ IBM สามารถแบ่งผลิตภัณฑ์ออกเป็น All Flash, Hybrid หรือ Disk ได้อีก

 

อนาคตของ All Flash Array จะเป็นอย่างไร? อะไรจะมาถัดจาก Flash?

IBM เชื่อว่าสุดท้ายแล้ว Flash จะสามารถรองรับ Workload ได้ทุกรูปแบบ แต่เพื่อไปให้ถึงเป้าหมายนั้นสุดท้ายแล้ว Flash เองก็จะถูกแบ่งออกเป็นหลายๆ ประเภท และแต่ละประเภทก็จะมี Workload ในรูปแบบที่เหมาะสมแตกต่างกันไป ซึ่งเมื่อนำ Flash ทุกๆ แบบมารวมกันภายในระบบแล้ว โลกเราก็จะไปถึงปลายทางของ Flash for Any Workload ได้จริง

เมื่อถึงจุดนั้นแล้ว โลกของเราจะมีทั้ง Flash ที่มี Characteristic หรือคุณลักษณะเฉพาะตัวที่แตกต่างกัน เช่น ประสิทธิภาพสูง/ต่ำ, Flash ที่มีความจุสูง/ต่ำ, Flash ที่มีราคาแพง/ถูก รวมถึงเทคโนโลยีที่นำ Flash เหล่านั้นไปใช้ซึ่งจะมีความแตกต่างกัน และเราก็จะกลับไปสู่จุดของการทำ Storage Tiering ระหว่าง All Flash Array ที่มีความแตกต่างหลากหลายเหล่านี้

ส่วนเทคโนโลยีที่จะมาถัดจาก Flash นี้จะถูกเรียกว่า Storage Class Memory ซึ่งจะช่วยลด Latency จากการเข้าถึงข้อมูลภายใน Flash ที่หลัก Microsecond ให้เหลือเพียงหลัก Nanosecond บน Storage Class Memory แทน

 

Tape ยังเป็นเทคโนโลยีที่มีอนาคตอีกหรือไม่? ในเมื่อ Flash นั้นมีขนาดที่ใหญ้ขึ้นและราคาถูกลงทุกวัน?

ทาง IBM ยืนยันว่า Tape นั้นจะยังคงอยู่คู่กับตลาดองค์กรไปอีกระยะหนึ่งแน่นอน เพราะเทคโนโลยีของ Tape นั้นก็มีการพัฒนาก้าวหน้าไปทุกวัน และคุณลักษณะเฉพาะตัวของ Tape นั้นก็ยังไม่อาจหาอุปกรณ์รูปแบบอื่นๆ มาทดแทนได้ง่ายนัก แต่แน่นอนว่าด้วยความเปลี่ยนแปลงของเทคโนโลยีที่เกิดขึ้นนี้ ก็จะทำให้อุปกรณ์จัดเก็บข้อมูลแต่ละแบบนั้นต้องเปลี่ยนบทบาทกันไป รวมถึง Tape เองด้วยเช่นกัน

Tape นั้นกลายเป็นทางเลือกที่มีความเหมาะสมสำหรับการจัดเก็บข้อมูลแบบ Long Term Archive เช่น การจัดเก็บประวัติผู้ป่วยและข้อมูลทางการแพทย์, การจัดเก็บข้อมูลการดำเนินธุรกิจย้อนหลัง และการจัดเก็บข้อมูลอื่นๆ ที่กฎหมายบังคับเอาไว้ว่าจะต้องเก็บย้อนหลังเป็นระยะเวลานานหลายปี

ในเชิงสถาปัตยกรรมก็เปลี่ยนไปเช่นกัน เดิมที Tape นั้นมักจะถูกออกแบบเป็น Tier สุดท้ายในการเชื่อมต่อ ที่แยกขาดจากระบบ Storage อื่นๆ ค่อนข้างชัดเจน แต่ในอนาคตอันใกล้นี้ แนวคิดของการทำ Storage Pooling ระหว่างระบบ Storage หลากหลายเทคโนโลยีเข้าด้วยกันกำลังจะมาถึง และการเขียนอ่านข้อมูลทั้งหมดจะถูกควบคุมด้วย Policy ว่าข้อมูลประเภทไหน, ขนาดเท่าใด, อายุเท่าไหร่ และนำไปใช้งานอะไรจะถูกบันทึกลงไปที่อุปกรณ์ Storage แบบไหนบ้าง ซึ่ง Tape เองก็จะอยู่ภายใน Pool นี้และถูกเขียนข้อมูลด้วย Policy ของการทำ Archive เป็นหลัก

 

องค์กรมีทางเลือกอย่างไรในการออกแบบ Storage สำหรับระบบ Big Data บ้าง? และการสำรองข้อมูล Big Data จะทำได้อย่างไร?

โดยทั่วไปสำหรับองค์กรในปัจจุบันที่กำลังจะทำโครงการ Big Data Analytics นั้น มักจะแบ่งเหตุผลทางธุรกิจออกเป็น 2 แนวทาง ได้แก่

  1. โครงการในกลุ่มของการทำ Optimization ภายในองค์กร ซึ่งสามารถประเมิน ROI หรือความคุ้มค่าได้ง่าย จากการตั้งเป้าหมายเชิงตัวเลขที่อยากไปให้ถึง และคำนวนกลับมาเป็นค่าใช้จ่าย ก็จะทำให้องค์กรรู้แล้วว่าด้วยความคุ้มค่าระดับเท่านี้ องค์กรควรจะใช้งบประมาณในการลงทุนเท่าใดถึงจะยังคุ้มค่าอยู่
  2. โครงการในกลุ่มของการสร้างนวัตกรรมใหม่ๆ ที่ยังไม่รู้ว่าจะประสบความสำเร็จหรือไม่ ทำให้การประเมิน ROI นั้นทำได้ค่อนข้างยาก การกำหนดงบประมาณในการลงทุนนั้นก็จึงต้องอาศัยจากตัวเลขอื่นๆ แทน เช่น สภาพคล่องของธุรกิจ เป็นต้น

จากข้อมูลตรงส่วนนี้จะนำไปสู่ประเด็นที่ว่า องค์กรนั้นมีทางเลือกในการออกแบบและการลงทุน Storage ด้วยกัน 2 ทาง ได้แก่

  1. การพัฒนาระบบเสริมต่อยอดขึ้นมาจากระบบเดิม โดยสร้างระบบย่อยสำหรับทำการรวบรวมข้อมูลจากระบบอื่นๆ และนำมาทำการวิเคราะห์โดยเฉพาะแยกต่างหาก ก็จะทำให้องค์กรสามารถเสริมการลงทุนเพิ่มขึ้นได้โดยไม่ต้องเปลี่ยนระบบใหม่ทั้งระบบ
  2. การพัฒนาระบบใหม่ด้วยการใช้เทคโนโลยีที่รองรับการทำ Big Data Analytics เลย เช่น Apache Hadoop, Apache Spark, MongoDB และอื่นๆ เพื่อลดขั้นตอนของการทำ ETL ลงไป และทำให้ทุกๆ โครงการของการวิเคราะห์ข้อมูลนั้นสามารถเข้าถึงข้อมูลในรูปแบบต่างๆ ได้อย่างยืดหยุ่นและรวดเร็ว

ซึ่งการเก็บข้อมูลในรูปแบบ On-premises หรือ Cloud นั้นก็สามารถทำได้ทั้งคู่ในกรณีนี้ (IBM มี Cleversafe บริการ Cloud Object Storage สำหรับองค์กรพร้อมความปลอดภัยในระดับสูง) ส่วนการสำรองข้อมูลของระบบ Big Data นั้นถือเป็นทั้งงานที่สำคัญและงานที่ท้าทายมากในเวลาเดียวกัน เพราะการสำรองข้อมูลขนาดใหญ่มาก นอกจากจะมีประเด็นทางด้านค่าใช้จ่ายแล้ว ประเด็นทางด้านประสิทธิภาพก็ถือเป็นโจทย์ที่ยากไม่แพ้กัน ซึ่งระบบ Big Data Analytics ส่วนใหญ่นั้นก็มักจะต้องมีการจัดเก็บข้อมูลด้วยเทคโนโลยี Distributed File System หรือ Distributed Database เป็นหลัก และมีการจัดเก็บข้อมูลหลาย Copy อยู่แล้ว จึงควรนำข้อดีตรงนี้มาใช้ให้เป็นประโยชน์ด้วย

จากมุมมองนี้ จะเห็นได้ว่าการทำ Full Backup กับข้อมูลขนาดใหญ่นี้เป็นเรื่องที่แทบจะเป็นจริงไม่ได้เลย ดังนั้นการทำ Incremental Backup อย่างต่อเนื่องนั้นจึงเป็นทางเลือกที่เหมาะสมกว่ามากในระยะยาว แต่โจทย์ของการทำ Full Backup ในครั้งแรกก็ยังคงมีอยู่ ซึ่งแต่ละเทคโนโลยีของระบบจัดเก็บข้อมูลก็จะมีวิธีการที่แตกต่างกันไป รวมถึง IBM GPFS เองก็เช่นกัน และการเลือก Integrate ระบบเข้ากับระบบสำรองข้อมูลรูปแบบต่างๆ นั้นก็ถือเป็นทางเลือกที่ต้องทำการศึกษาและทดสอบให้ดี

แน่นอนว่าการ Archive Cold Data ที่ไม่ได้มีการเข้าถึงบ่อยในสื่อที่มีความจุสูง, มีความทนทานสูง, มีราคาต่ำ และทำการลดขนาดข้อมูลให้เล็กลงด้วยการทำ Compression หรือ Deduplication นั้นก็ถือเป็นเรื่องสำคัญที่ควรทำด้วยเช่นกัน

 

อนาคตของ IBM Power เป็นอย่างไร?

ในยุคที่พลังประมวลผลมีความสำคัญมากกับทุก Application สมัยใหม่ ไม่ว่าจะเป็น AI, Big Data หรือ Cognitive Computing ก็ตาม ทำให้ IBM Power ที่ออกแบบมาโดยเน้นประสิทธิภาพการประมวลผลเป็นพิเศษนี้มีแนวโน้มที่ดีมาก จากการออกแบบ Memory Bus ขนาดใหญ่ และมี Interconnect ที่หลากหลาย ส่งผลให้ในภาพรวมแล้ว IBM Power นั้นมี Price/Performance ที่ดี อีกทั้งยังมี OpenPower สถาปัตยกรรมแบบ Open Source สำหรับให้ธุรกิจขนาดใหญ่นำไปพัฒนาต่อยอดตอบโจทย์ของ Hyperscale Data Center ด้วย

 

Data Privacy เป็นประเด็นกับ IBM Cloud หรือไม่? หากมีหน่วยงานรัฐมาขอให้เปิดเผยข้อมูลองค์กรที่เป็นลูกค้าอยู่ IBM จะทำอย่างไร?

IBM นั้นได้เตรียมรับมือกับประเด็นที่มีความละเอียดอ่อนเหล่านี้แล้ว โดยการใช้เทคโนโลยี Encryption เข้ามาช่วย ซึ่งผู้ที่ถือครองกุญแจในการเข้าและถอดรหัสนั้นก็คือองค์กรของลูกค้าเอง ดังนั้นถึงแม้ IBM จะเป็นคนดูแล IT Infrastructure ที่อยู่บน Cloud ของแต่ละองค์กร แต่พนักงานของ IBM เองก็ไม่สามารถเข้าถึงข้อมูลเหล่านั้นหรือถอดรหัสออกมาได้เลย ดังนั้นหากมีการร้องขอข้อมูลเกิดขึ้น ก็ต้องไปร้องขอกับทางองค์กรซึ่งเป็นเจ้าของข้อมูลตัวจริงเองเท่านั้น

 

สำหรับองค์กรที่สนใจเทคโนโลยี Blockchain จะออกแบบระบบ Storage เพื่อรองรับ Blockchain ได้อย่างไร?

ประเด็นนี้ถือเป็นประเด็นที่น่าสนใจที่คนไม่ค่อยได้พูดถึงกัน เพราะสถาปัตยกรรมการทำงานของ Blockchain เองนั้นมุ่งเน้นไปที่ความถูกต้องของข้อมูลและความปลอดภัยเป็นหลัก ทำให้ต้องมีการออกแบบการกระจายข้อมูลแบบ Distributed และการสอบเทียบข้อมูลระหว่างกัน ซึ่งกระบวนการเหล่านี้เองก็กินเวลาค่อนข้างมาก ทำให้คอขวดส่วนใหญ่ของระบบนั้นไม่ได้อยู่ที่ CPU, RAM, Network หรือ Storage แต่อยู่ในชั้น Software ของระบบ Blockchain เอง ความเร็วของ Storage จึงไม่จำเป็นนัก

และด้วยความที่ระบบเป็นแบบกระจายตัว ดังนั้นการเลือกใช้ Server, Storage Server หรือบริการ Cloud ไปเลยก็จะเป็นหนทางที่เหมาะสมกว่าสำหรับ Blockchain แทนที่จะมาใช้ระบบ Storage เต็มตัว และการเสริมความปลอดภัยด้วยการเข้ารหัสเพิ่มเติมในระดับของ Hardware หรืออื่นๆ ก็เป็นทางเลือกที่อาจพิจารณาเพิ่มเติมได้เช่นกัน

from:https://www.techtalkthai.com/interview-with-craig-mckenna-director-of-cloud-and-cognitive-data-solutions-ibm-systems-on-the-future-of-storage/

รู้จัก Gen-Z: สถาปัตยกรรม Memory Bus ใหม่ที่จะเร็วกว่าเดิมหลายร้อยเท่า

ปัจจุบันนี้เทคโนโลยี CPU, Memory และ Storage ก็ก้าวหน้าขึ้นไปทุกวัน ความเร็วของแต่ละระบบนั้นสูงขึ้นเรื่อยๆ จน Bus นั้นเริ่มกลายเป็นคอขวดของระบบ ทำให้เหล่าผู้ผลิตชั้นนำทั่วโลกต้องมาร่วมมือกันภายใต้กลุ่ม Gen-Z Consortium เพื่อร่วมกันออกแบบสถาปัตยกรรม Memory Bus ใหม่ด้วยกัน โดยมุ่งเน้นที่ความสามารถดังต่อไปนี้

gen-z_banner

  • เพิ่ม Bandwidth และลด Latency ลง โดยจะมี Bandwidth สูงตั้งแต่หลายสิบ GB/s ไปจนถึงหลายร้อย GB/s และมี Latency ต่ำกว่า 100ns
  • รองรับการเพิ่ม Memory ในระบบได้แบบ Real-time เพื่อตอบโจทย์การเพิ่มขยายทรัพยากรในระบบได้โดยไม่มี Downtime
  • สามารถทำการกับระบบปฏิบัติการที่มีอยู่เดิมได้โดยไม่ต้องปรับแต่งและแก้ไขอะไร และรองรับการขยายได้ตั้งแต่ระดับเครื่องไปจนถึงระดับ Rack
  • เป็นมาตรฐานกลางแบบเปิด สำหรับให้ทุกคนในอุตสาหกรรมนำไปใช้ได้

ในโครงการนี้ยังได้มีการนำเสนอแนวคิด Memory Semantic Fabric ที่จะทำให้ CPU สามารถเข้าถึงข้อมูลต่างๆ ได้ด้วย Memory Operation อย่าง Load/Store, Put/Get และ Atomic Operation ต่างๆ ได้โดยตรง ซึ่งจะทำให้การเข้าถึงข้อมูลต่างๆ มีความง่ายกว่าเดิมเป็นอย่างมาก เพราะเดิมการเข้าถึงข้อมูลในระบบ Storage นั้นจะเป็นแบบ Block-based ที่ต้องมีชั้นของ Software มาจัดการโดยเฉพาะ แนวคิดนี้จะช่วยให้การเข้าถึงข้อมูลกลุ่ม Storage Class Memory (SCM) หรือการเข้าถึงข้อมูลจาก Pool ต่างๆ ในระดับ Rack Scale และการเข้าถึงข้อมูลภายในระบบแบบ Multi-node มีความซับซ้อนน้อยลง แต่มีความเร็วสูงขึ้น

gen-z_memory_semantic_fabric

ปัจจุบัน Gen-Z Consortium มีสมาชิกได้แก่ AMD, ARM, Cavium Inc., Cray, Dell EMC, Hewlett Packard Enterprise (HPE), Huawei, IBM, IDT, Lenovo, Mellanox Technologies, Micron, Microsemi, Red Hat, Samsung, Seagate, SK hynix, Western Digital Corporation และ Xilinx

ผู้ที่สนใจสามารถศึกษาข้อมูลเพิ่มเติมได้ที่ http://genzconsortium.org/ และ http://genzconsortium.org/wp-content/uploads/2016/05/Gen-Z-Consortium-Briefing-Deck_Final.pdf ได้ทันทีเลยนะครับ

ที่มา: http://genzconsortium.org/?news=industry-leaders-join-forces-to-promote-new-high-performance-interconnect

from:https://www.techtalkthai.com/introduce-gen-z-new-memory-bus-architecture/