คลังเก็บป้ายกำกับ: CISCO_APIC

Cisco แพตช์ช่องโหว่ร้ายแรงให้ APIC

Cisco ได้ออกแพตช์ให้ช่องโหว่ร้ายแรงใน APIC หรือ Application Policy Infrastructure Controller รวมถึง Cloud APIC

ในชุดแพตช์จำนวนหลายรายการครั้งนี้ ช่องโหว่ CVE-2021-1577 บน APIC มีความร้ายแรงสูงสุดที่ 9.1/10 ที่เกิดขึ้นเพราะควบคุมการเข้าถึงไม่ดีเพียงพอ ทำให้ผู้โจมตีสามารถอัปโหลดไฟล์และเข้าไปอ่านหรือเขียนไฟล์ได้ โดย Cisco เตือนให้ผู้ใช้งาน APIC และ Cloud APIC รีบอัปเดตแพตช์เวอร์ชัน 3.2, 4.2 และ 5.1 สำหรับแพตช์ของส่วนประกอบหลักใน ACI (SDN) ครั้งนี้ยังมีการแพตช์ช่องโหว่ร้ายแรงสูงอีก 2 รายการ และปานกลาง 3 รายการ ติดตามเพิ่มเติมได้ที่ https://tools.cisco.com/security/center/publicationListing.x

นอกจากนี้ Cisco ยังได้ประกาศผลสืบสวนช่องโหว่ร้ายแรงจาก BlackBerry QNX (https://www.techtalkthai.com/cisa-warns-badalloac-on-blackberry-qnx-rtos-effects-critical-infrastructure/) ซึ่งไม่มีอุปกรณ์ Cisco ใดๆที่ได้รับผลกระทบ

ที่มา : https://www.securityweek.com/cisco-patches-serious-vulnerabilities-data-center-products

from:https://www.techtalkthai.com/cisco-apic-was-patched-cve-2021-1577/

Cisco เปิดสอนออนไลน์ฟรี เรื่อง Network Programmability

หลังจากที่ Cisco ได้พยายามผลักดันให้เหล่า Network Engineer หันมาเขียนโปรแกรมกันให้ได้ผ่านโครงการ DevNet มาเป็นเวลานาน วันนี้ Cisco ได้จัดทำคอร์สออนไลน์ให้เราเรียนกันฟรีๆ ได้แล้วในหัวข้อ Network Programmability

Credit: Cisco

 

เนื้อหาในบทเรียนครั้งนี้จะยังเป็นขั้นพื้นฐานอยู่ โดยมีด้วยกัน 28 วิดีโอ แบ่งเป็น 6 บทใหญ่ๆ ที่ครอบคลุมหัวข้อดังต่อไปนี้

  • Introduction
  • Programming Fundamentals
  • Network Device APIs
  • Network Controllers
  • Application Hosting and the Network
  • NetDevOps

โดยเนื้อหาเชิงลึกนั้นจะประกอบไปด้วยการเรียนรู้ Python Module สำหรับงานทางด้าน Network, รู้จักกับ API เบื้องต้น, การเชื่อมต่อกับ JSON/XML/YAML, รู้จักกับ NETCONF/RESTCONF และ YANG, วิธีการใช้ NX-API เพื่อควบคุมอุปกรณ์ Open NX-OS, การใช้ API เพื่อเชื่อมต่อกับ APIC และ APIC-M, การเรียกใช้งาน Python Application บน Router และ Switch ไปจนถึงการบริหารจัดการระบบเครือข่ายด้วยแนวคิด Network as Code โดยใช้ Ansible

คอร์สนี้เปิดให้เข้าไปเรียนกันได้แล้วฟรีๆ ที่ https://developer.cisco.com/video/net-prog-basics/ โดยสามารถทำแล็บได้ที่ https://developer.cisco.com/site/sandbox และมีตัวอย่างโค้ดให้นำไปใช้ในบทเรียนได้ที่ https://github.com/CiscoDevNet/netprog_basics ครับ

 

ที่มา: https://blogs.cisco.com/developer/netprog-video-course

from:https://www.techtalkthai.com/cisco-free-network-programmability-course/

Cisco เตรียมสนับสนุน Cisco ACI ใน AWS, Microsoft Azure และ Google Cloud Platform

หลังจากที่ Cisco Application Centric Infrastructure (ACI) ได้กลายเป็นเทคโนโลยี Software-defined Networking (SDN) ที่มีลูกค้าองค์กรกว่า 4,000 แห่งเลือกใช้งาน ทาง Cisco ก็ได้ออกมาประกาศเตรียมสนับสนุน Cisco ACI ใน 3 บริการ Cloud ยักษ์ใหญ่ ได้แก่ Amazon Web Services (AWS), Microsoft Azure และ Google Cloud Platform (GCP)

Credit: Cisco

 

การประกาศครั้งนี้จะทำให้ในอนาคต Cisco ACI จะมีบทบาทสำคัญเป็นอย่างมากในการตอบโจทย์ด้านระบบเครือข่ายให้กับสถาปัตยกรรม Hybrid Cloud และ Multi-Cloud เพื่อให้การกำหนดค่าด้านระบบเครือข่ายและความมั่นคงปลอดภัยในระบบเครือข่ายยังคงติดตามไปกับเหล่า Virtual Machine (VM) หรือ Application ที่ทำการโยกย้ายไปมาระหว่าง Cloud ได้อย่างอิสระ และในทางกลับกันเหล่าผู้ให้บริการ Cloud ทั้ง 3 นี้ก็จะสามารถตอบรับต่อตลาดขององค์กรได้อย่างดียิ่งขึ้นไปด้วยพร้อมๆ กัน

Cisco ACI ในอนาคตจะรองรับการบริหารจัดการ ACI Policy และ Workflow บน Public Cloud ได้ผ่าน Cisco APIC ซึ่งเป็น SDN Controller ของ Cisco โดยตรง และทำงานร่วมกับ Public Cloud Software ได้หลากหลายยิ่งขึ้น รวมถึง Cisco จะยังทำงานร่วมกับเหล่า Cloud Provider เพื่อสนับสนุนเครื่องมือบริหารจัดการระบบ Cloud ให้มากขึ้นด้วย โดยมีตัวอย่างคือการสนับสนุน Kubernetes ให้สามารถทำงานร่วมกับ Cisco ACI 3.0 ได้นั่นเอง

 

ที่มา: https://blogs.cisco.com/news/aci-anywhere

from:https://www.techtalkthai.com/cisco-will-support-cisco-aci-in-aws-microsoft-azure-and-google-cloud-platform/

Cisco เปิดตัว Cisco ACI Plug-in บน VMware vSphere ริเริ่มโดยเด็กฝึกงาน

ใน Release Note ล่าสุดของ Cisco Application Policy Infrastructure Controller นั้นได้มีการระบุถึง Cisco ACI Plugin for VMware vSphere Web Client เป็นที่เรียบร้อยแล้ว ทำให้ถัดจากนี้ไปผู้ที่ใช้งานทั้ง Cisco ACI และ VMware vSphere สามารถบริหารจัดการระบบเครือข่ายและ Data Center ทั้งหมดแบบ Software Defined ได้ผ่านทาง VMware vSphere Web Client เพียงหน้าจอเดียวแล้ว

cisco_aci_integration_with_vmware

 

การพัฒนาโครงการนี้เริ่มต้นโดยฝีมือของเด็กฝึกงานคนหนึ่งใน Cisco ที่ทำ Side Project โดยใช้ Open API และทาง Cisco ก็นำมาพัฒนาต่อยอดจนกลายเป็น Official Release และรับเด็กฝึกงานคนนั้นเข้าทำงานประจำด้วยแล้วในตอนนี้

นอกจากนี้ Cisco ACI ยังได้ Integrate ร่วมกับ VMware vRealize แล้วอีกด้วย ดังนั้นการใช้งานในระดับของ vCloud เองนั้นก็สามารถได้ประโยชน์จากการใช้งาน Cisco ACI ได้อย่างเต็มที่ด้วยเช่นกัน

เรียกได้ว่าเป็นก้าวที่หลายๆ คนเฝ้ารอมานาน เพราะที่ผ่านมา Cisco กับ VMware นั้นก็ถือเป็นคู่แข่งหลักกันในวงการของ Software Defined Networking เลยทีเดียวเพราะต่างคนต่างก็มีเทคโนโลยีที่มีแนวคิดเฉพาะเป็นของตัวเองอย่าง Cisco ACI และ VMware NSX

ที่มา: http://www.theregister.co.uk/2016/07/20/vmwarecisco_softwaredefined_spat_thaws_as_aci_comes_to_vsphere/

from:https://www.techtalkthai.com/cisco-aci-plug-in-for-vmware-vsphere-is-now-available/

TechTalk Webinar: ชมวิดีโอย้อนหลังเรื่อง SDN และ Live Demo จาก Cisco ประเทศไทย

ttt_t_webinar_logo_small

สำหรับผู้ที่ไม่ได้เข้าฟังบรรยาย TechTalk Webinar เรื่อง “รู้จักกับ Software-defined Networking พร้อมชม Live Demo จาก Cisco ประเทศไทย” ที่ทางทีม Cisco ประเทศไทยร่วมกับ TechTalkThai จัดไปเมื่อต้นเดือนมีนาคมที่ผ่านมา หรือผู้ที่ต้องการรับชมการบรรยายซ้ำอีกครั้ง สามารถดูวิดีโอบันทึกย้อนหลังได้ที่บทความนี้

techtalk_webinar_cisco_aci_1

ผู้บรรยาย: คุณอานนท์ ก้องเกรียงไกร วิศวกรระบบจาก Cisco ประเทศไทย

ใน TechTalk Webinar นี้ ผู้ฟังจะได้ทำความรู้จักและทราบถึงแนวคิดเรื่อง Software-defined Networking (SDN) ซึ่งเป็นประเด็นสำคัญของการออกแบบและวางระบบในปัจจุบัน พร้อมทั้งชมสาธิตการใช้งาน Cisco Application Centric Infrastructure (ACI) และ Application Policy Infrastructure Controller (APIC) สดๆ จากทีมงาน Cisco ประเทศไทย เพื่อให้เห็นภาพของระบบ SDN มากยิ่งขึ้น

Agenda

  • Beyond the SDN by Cisco ACI: ภาพรวมของ SDN และประโยชน์ของการใช้ Cisco ACI เทียบกับระบบ SDN อื่นๆ ในปัจจุบัน
  • ACI Demo: สาธิตการใช้งาน ACI Fabric, APIC Controller และการทำงานร่วมกับ Hypervisor สำหรับ Environment แบบ Virtualization

หมายเหตุ บางส่วนของวิดีโอบน Youtube อาจมีเสียงติดขัดไปบ้าง สามารถเข้าดูวิดีโอต้นฉบับผ่านทาง WebEx ได้ที่ https://meetings.webex.com/collabs/url/GKaw8JBoZVsxs3_9pXK7Fmj_uKa_fnr7-FsM8zv193K00000

from:https://www.techtalkthai.com/techtalk-webinar-cisco-aci-video/

TechTalk Webinar: รู้จักกับ Software-defined Networking พร้อมชม Live Demo จาก Cisco ประเทศไทย

TechTalkThai ขอเรียนเชิญผู้ที่สนใจทางด้าน Software-defined Networking เข้าร่วมฟัง TechTalk Webinar ในหัวข้อเรื่อง “รู้จักกับ Software-defined Networking พร้อมชม Live Demo จาก Cisco ประเทศไทย” โดยคุณอานนท์ คงเกรียงไกร วิศวกรระบบจาก Cisco ประเทศไทย ในวันพฤหัสบดีที่ 10 มีนาคม 2016 ผ่านทาง Web Conference ฟรี ไม่มีค่าใช้จ่าย

ttt_webinar_3

รายละเอียดการบรรยาย

หัวข้อ: รู้จักกับ Software-defined Networking พร้อมชม Live Demo จาก Cisco ประเทศไทย
ผู้บรรยาย: คุณอานนท์ คงเกรียงไกร วิศวกรระบบจาก Cisco ประเทศไทย
วันเวลา: วันพฤหัสบดีที่ 10 มีนาคม 2016 เวลา 14.00 – 15.00 น.
ช่องทางการบรรยาย: Cisco WebEx Meeting
จำนวนผู้เข้าร่วมสูงสุด: 100 คน
ภาษา: ไทย

Agenda

ใน TechTalk Webinar นี้ ผู้ฟังจะได้ทำความรู้จักและทราบถึงแนวคิดเรื่อง Software-defined Networking (SDN) ซึ่งเป็นประเด็นสำคัญของการออกแบบและวางระบบในปัจจุบัน พร้อมทั้งชมสาธิตการใช้งาน Cisco Application Centric Infrastructure (ACI) และ Application Policy Infrastructure Controller (APIC) สดๆ จากทีมงาน Cisco ประเทศไทย เพื่อให้เห็นภาพของระบบ SDN มากยิ่งขึ้น

  • 14.00 – 14.20 – Beyond the SDN by Cisco ACI: ภาพรวมของ SDN และประโยชน์ของการใช้ Cisco ACI เทียบกับระบบ SDN อื่นๆ ในปัจจุบัน
  • 14.20 – 15.00 – ACI Demo: สาธิตการใช้งาน ACI Fabric, APIC Controller และการทำงานร่วมกับ Hypervisor สำหรับ Environment แบบ Virtualization
  • 15.00 – 15.15 – ถามตอบคำถาม

1 ชั่วโมงเต็มกับ TechTalk Webinar ผ่าน Cisco WebEx Meeting

หลายท่านอาจประสบปัญหาเรื่องเวลา หรือการเดินทางมายังงานสัมมนาที่ต่างๆ ทำให้พลาดโอกาสในการอัพเดทเทรนด์และเทคโนโลยีอันเป็นที่น่าสนใจในปัจจุบัน TechTalkThai จึงได้ริเริ่มโปรเจ็คท์ TechTalk Webinar สำหรับกระจายความรู้ และอัพเดทข่าวสารทางด้าน Enterprise IT ผ่านทางระบบ Web Conferencing (Cisco WebEx) เพื่อให้ทุกท่านสามารถรับชมและฟังการบรรยายจากผู้เชี่ยวชาญและ Vendor ต่างๆ จากที่ไหนก็ได้ ที่สำคัญคือ ทุกท่านสามารถเข้าร่วม TechTalk Webinar ได้ฟรี โดยไม่จำเป็นต้องเสียค่าใช้จ่ายแต่อย่างใด

ลงทะเบียนเข้าร่วม TechTalk Webinar ได้ฟรี

ผู้ที่สนใจสามารถกรอกแบบฟอร์มเพื่อเข้าร่วม TechTalk Webinar: รู้จักกับ Software-defined Networking พร้อมชม Live Demo จาก Cisco ประเทศไทย ได้ฟรี โดยทีมงาน TechTalkThai ขอสงวนสิทธิ์ในการคัดเลือกผู้เข้าฟังบรรยาย 100 ท่านแรกที่ทำการลงทะเบียน โดยจะแจ้งผลการตอบรับผ่านและรายละเอียดการเข้า Cisco WebEx Meeting ผ่านทางอีเมลภายในวันอังคารที่ 8 มีนาคมนี้

from:https://www.techtalkthai.com/techtalk-webinar-software-defined-networking-by-cisco-thailand/

Cisco ออก Patch สำหรับ Nexus 9000, APIC, Cisco ASA-CX และ Cisco Prime แก้ปัญหา DoS และ Privilege Escalation ควร Patch ทันที

Cisco ได้ออก Patch มาแก้ปัญหาให้กับ Nexus 9000 Switch, Application Policy Infrastructure Controller (APIC) และ Security Manager โดยมีช่องโหว่สำคัญที่ได้ถูกแก้ไขไปแล้วดังนี้

cisco_nexus_9000_series

ปัญหาแรกคือปัญหาการทำ Denial-of-Service (DoS) บน Nexus 9000 ACI Mode Switch ด้วย ICMP ได้จากการส่ง ICMP แบบ IPv4 Type 7 ออพชั่น Record Route ที่สามารถทำให้ Nexus 9000 ทำการ Restart ตัวเองได้ ปัญหานี้ค่อนข้างร้ายแรงจึงมีการแนะนำให้อัพ Patch ทันที

ปัญหาถัดมาคือการทำ Privilege Escalation บน APIC ด้วยการส่งคำสั่งผ่านทาง REST ที่ทำให้ผู้โจมตีสามารถแก้ไขการตั้งค่าของระบบได้

อีกสองปัญหาคือการทำ Privilege Escalation บน Cisco ASA-CX และ Cisco Prime Security Manager ที่ทำให้ผู้โจมตีสามารถเปลี่ยนสรหัสผ่านของผู้ใช้งานแต่ละคนรวมถึง Administrator ได้

Patch ทั้งหมดและรายละเอียดเพิ่มเติมสามารถดูได้จากที่ http://tools.cisco.com/security/center/publicationListing.x เลยนะครับ

ที่มา: http://www.theregister.co.uk/2016/02/04/cisco_nexus_apic_security_mgr_bugs/ 

from:https://www.techtalkthai.com/cisco-released-patches-for-nexus-9000-apic-cisco-asa-cx-and-cisco-prime/

Cisco ออกอัพเดต ACI รองรับ Docker, เพิ่มความปลอดภัย, รองรับหลายไซต์ ใช้งานได้ยืดหยุ่นขึ้น

cisco_aci_banner

Cisco Application Centric Infrastructure (ACI) ซึ่งเป็นหัวใจสำคัญสำหรับระบบ Software Defined Networking (SDN) ของ Cisco นั้น ได้ออกอัพเดตรุ่นใหม่ล่าสุดมาเพื่อให้ลูกค้าที่ใช้ระบบเครือข่ายแบบ SDN จาก Cisco บน Switch รุ่น Nexus 9000 ACI-ready ที่มีกว่า 9,000 องค์กรทั่วโลก สามารถอัพเกรดและเพิ่มความสามารถใหม่ๆ พร้อมรองรับเทคโนโลยีใหม่ๆ ได้มากขึ้น ดังต่อไปนี้

  • รองรับ Docker Container ได้ผ่านทางการ Integrate ร่วมกับ Cisco Application Policy Infrastructure Controller (APIC) และ Project Contiv ซึ่งเป็น Open Source Project สำหรับการควบคุม Infrastructure สำหรับ Container ให้เชื่อมต่อ Storage และระบบเครือข่ายอย่างปลอดภัยได้ตามที่กำหนด และการกำหนด Endpoint Group (EPG) ก็สามารถครอบคลุมไปถึงระดับของ Container ได้แล้ว
  • เพิ่ม Security โดยรองรับการทำ Micro-segmentation สำหรับ VMware VDS, Microsoft Hyper-V Virtual Switch และ Bare-metal Application ทำให้สามารถควบคุม Security Policy เชิงลึกเป็นราย Endpoint ได้โดยอ้างอิงจาก Virtual Machine Attributes เช่น ชื่อ, Guest OS, VM Identifier หรือจะใช้ Network Attributes อย่าง IP Address ก็ได้เช่นกัน รวมถึงยังสามารถทำ Isolation สำหรับเครื่องภายใน Policy Group เดียวกันได้อีกด้วย
  • รองรับการควบคุมหลาย Data Center พร้อมๆ กัน ดังนั้นการย้าย Application ข้าม Data Center และการทำ Disaster Recovery จึงทำได้แล้วผ่าน ACI Toolkit
  • รองรับการทำ Service Insertion และ Service Chaining สำหรับ Service Device ทั้งหมดแล้วโดยไม่ต้องมี Device Package มาก่อน ทำให้สามารถนำอุปกรณ์ที่เคยใช้งานอยู่จากระบบเครือข่ายเดิมมาเชื่อมต่อใช้งานกับเครือข่าย SDN และทำการกำหนดค่าแบบ Manual ใช้งานไปก่อนได้เลย
  • สามารถใช้ CLI แบบ NX-OS บน APIC ได้, มี GUI ให้ใช้ทั้งแบบ Basic และ Advanced, รองรับ SNMP สำหรับ APIC, เสริมระบบ Heat Map เข้ามาให้ช่วยแก้ปัญหาได้ง่ายขึ้น
  • รองรับ Cloud Automation Tool หลากหลายขึ้น โดยปัจจุบันนี้รองรับ Microsoft Azure Pack for Private Cloud, VMware vRealize Automation, OpenStack และยังรองรับการส่ง ACI Policy ไปยัง Hypervisor ด้วย Opflex on Open vSwitch อีกด้วย

 

ที่มา: http://newsroom.cisco.com/press-release-content?type=webcontent&articleId=1732204

from:https://www.techtalkthai.com/cisco-new-aci-supported-docker-with-enhanced-security/

สรุปแนวคิดการทำ Software Defined Network ด้วย Cisco ACI จากงาน Cisco Night Academy #8: Data Center: Application Centric Data Center

cisco_logo_2

เป็นหัวข้อสุดท้ายของงาน Cisco Night Academy ที่ให้ความรู้กันอย่างเข้มข้นต่อเนื่องมาเป็นสัปดาห์ที่ 8 ครับ ซึ่งในสัปดาห์สุดท้ายนี้หัวข้อก็ถือว่าเป็นประเด็นที่น่าสนใจที่สุดประเด็นหนึ่ง ก็คือเรื่องของเทคโนโลยี Software Defined Network หรือ SDN ที่ยังถือว่าแต่ละค่ายมีความแตกต่างกันอยู่พอสมควร ซึ่งในครั้งนี้ทางทีมงาน TechTalkThai ก็ได้มีโอกาสมาฟังเทคโนโลยี SDN ของ Cisco ในชื่อว่า Cisco ACI และก็ขอสรุปมาให้ผู้อ่านทุกท่านได้อ่านกันดังนี้ครับ

cisco_nexus_9000_series

วิธีคิดของผู้ดูแลระบบเครือข่าย จะเปลี่ยนไปจากหน้ามือเป็นหลังมือ

จากระบบเครือข่ายเดิมที่เมื่อผู้ดูแลระบบเครือข่ายได้รับ Requirement มาว่าระบบงานอื่นๆ จะทำงานและเชื่อมต่อกันอย่างไรบ้าง แล้วผู้ดูแลระบบจึงต้องมาคิดต่อว่าจะทำการกำหนดค่า Configuration ต่างๆ อย่างไรเพื่อให้ตรงกับความต้องการนั้นๆ จะถูกพลิกผันไปด้วยการมาของเทคโนโลยี SDN ไปโดยสิ้นเชิง

ระบบเครือข่ายแบบ SDN นั้นจะทำหน้าที่ในส่วนของการ Configure ระบบให้เองทั้งหมด จนผู้ดูแลระบบไม่ต้องมายุ่งเกี่ยวกับการกำหนดค่าแต่อย่างใด ทำให้สิ่งที่ผู้ดูแลระบบต้องไปทำแทนก็คือการมองอุปกรณ์หรือระบบ Application ต่างๆ ในเครือข่ายนั้นให้กลายเป็น Object แทน และทำการจัดกลุ่มของ Object เหล่านั้น แล้วทำการกำหนด Policy สำหรับ Object แต่ละกลุ่มว่าจะมีสิทธิ์ในการเชื่อมต่อกับระบบใดที่อยู่ในเครือข่ายด้วยวิธีการใดบ้าง แล้วระบบ SDN จะทำการกำหนดค่าให้ตามนั้นเองโดยอัตโนมัติ

ความเปลี่ยนแปลงนี้จะทำให้ผู้ดูแลระบบต้องใส่ใจกับเรื่องของสิทธิ์ในการเชื่อมต่อ, การจัดกลุ่ม Object และการวางนโยบายในระบบเครือข่ายให้มากขึ้นแทน โดยไม่ต้องสนใจกับเรื่องทางเทคนิคเชิงลึกอีก หรือกล่าวได้ว่าผู้ดูแลระบบจะต้องเน้นสนใจผลลัพธ์มากกว่าวิธีการ

SDN นี้มาตอบโจทย์ของระบบเครือข่ายที่มีอุปกรณ์เครือข่ายใน Data Center เป็นจำนวนมากได้อย่างง่ายดาย สมมติว่าถ้าหากระบบเครือข่ายของคุณมี Port จำนวนซัก 10,000 Port การ Configure ระบบเครือข่ายแบบเดิมๆ นั้นคงเป็นไปได้ยากมาก และเกิดความผิดพลาดได้ง่ายมากอย่างแน่นอน ซึ่งเมื่อ SDN ได้ถูกพัฒนาขึ้นมาจนอยู่ตัวแล้ว ก็ทำให้ SDN ได้กลายเป็นเทคโนโลยีสำหรับใช้งานในระดับองค์กรได้ขึ้นมานั่นเอง

cisco_aci_vision

Cisco ACI เป็นแนวคิดของระบบเครือข่ายแบบ SDN โดยเป็น Framework ที่ทำงานบน Cisco Switch รุ่น Nexus 9000 เท่านั้น โดยปกติแล้ว Nexus 9000 จะทำงานบน NX OS Mode ซึ่งมี API สำหรับเขียน Script เพื่อไปควบคุม Switch ทีละตัวได้ แต่เมื่อปรับมาใช้ Nexus 9000 ในแบบ Fabric ด้วย ACI ก็จะเป็นการใช้งานในแบบ SDN เต็มตัว ทำให้สามารถควบคุมการใช้งานระบบเครือข่ายด้วยการกำหนด Policy แทนการตั้งค่า Configuration เองแบบเดิม และผู้ดูแลระบบไม่จำเป็นต้องสนใจรายละเอียดปลีกย่อยอีกต่อไป เพราะเมื่อผู้ดูแลระบบทำการกำหนด Policy ให้กับ Object ซึ่งแบ่งเป็นแต่ละ Application หรือแต่ละ Server แล้ว อุปกรณ์เครือข่ายทั้งหมดก็จะทำการปรับเปลี่ยน Configuration ให้ตรงตาม Policy ที่ต้องการโดยอัตโนมัติ ต่างจากที่ผ่านมาที่ผู้ดูแลระบบจำเป็นต้องเข้าใจการกำหนดค่าในระบบเครือข่ายทั้งหมด และทำการกำหนดค่าในระบบเครือข่ายเพื่อให้ได้ผลลัพธ์ตามที่ต้องการด้วยตัวเอง

VxLAN เป็นอีกหนึ่งเทคโนโลยีที่ถูกนำมาใช้ในการสร้าง Cisco ACI โดยการใช้ VxLAN จะทำให้การแบ่ง Segment ของระบบเครือข่ายสามารถทำได้แบบ Microsegment สำหรับแต่ละกลุ่มของบริการได้ทันที และ Protocol อย่าง Spanning Tree ก็จะไม่จำเป็นอีกต่อไปเพราะระบบเครือข่ายจะทำงานเป็นแบบ Object-Fabric ที่ Utilize ทุกเส้นทางการเชื่อมต่อให้คุ้มค่าสูงสุดได้ด้วยตัวเองโดยไม่เกิด Loop และยังคงมี Redundancy อยู่ได้

นอกจากนี้ Cisco ACI ยังเป็นการรื้อแนวคิดของการสร้าง VLAN ออกไป และสร้างแนวคิดของระบบเครือข่ายใหม่ จากเดิมที่การใช้ VLAN คือการใช้ตัวเลข Tag เพื่อทำการเชื่อมต่อระบบเครือข่ายในแต่ละ Segment เข้าด้วยกัน แต่ในปัจจุบันนี้แนวคิดของ ACI คือการมองทุกอย่างในระบบเครือข่ายเป็น Object โดยการแบ่งกลุ่มของ Object เหล่านี้ออกเป็น Endpoint Group (EPG) และสนใจแค่ว่า EPG ใดจะสามารถเชื่อมต่อเข้าถึงกันได้บ้างด้วย Policy แบบไหนแทน และท้ายที่สุดแล้วระบบเครือข่ายทั้งโลกก็จะต้องมาใช้ SDN ทั้งหมดซักวันหนึ่งอย่างแน่นอน ทำให้ผู้ดูแลระบบเครือข่ายนั้นไม่สามารถหลีกเลี่ยงที่จะเรียนรู้เทคโนโลยีตรงนี้ได้เลย

cisco_aci_epg

ส่วนมุมมองในการกำหนด Policy ของ Ciso ACI นั้น ก็คือการกำหนดความสัมพันธ์ระหว่างแต่ละ EPG ขึ้นมา ซึ่งความสัมพันธ์ตรงนี้จะเรียกว่า Contract โดยในแต่ละ Contract จะประกอบไปด้วยการ Filter L4 Port Ranges และ TCP Options กับ Action ต่างๆ เช่น การ Permit, QoS, Log และ Redirect to Service เป็นต้น ทำให้ทุกๆ การเชื่อมต่อของแต่ละ EPG ถูกบังคับด้วย Contract นั่นเอง

การใช้ Cisco ACI นั้นจะทำการการ Monitor ประสิทธิภาพของระบบเครือข่ายสามารถทำได้อย่างละเอียด และมองเห็นการทำงานแยกเป็นราย EPG ได้ ซึ่งเมื่อนำมาดูต่อในเชิงลึกแล้ว ก็คือการตรวจสอบประสิทธิภาพของระบบเครือข่ายแยกเป็นราย Application, IP, Server ได้นั่นเอง โดยประสิทธิภาพในการทำงานของระบบเครือข่ายจะไม่ช้าลงจากการ Monitor แต่อย่างใด เนื่องจากข้อมูลทางด้านประสิทธิภาพนั้นจะถูกจัดเก็บโดยอัตโนมัติในระหว่างการทำ Forwarding ทำให้ไม่ต้องมีการคำนวนใดๆ เพิ่มขึ้น

cisco_aci_group_id

แต่อีกสิ่งหนึ่งที่ผู้ดูแลระบบควรจะต้องรับรู้เอาไว้ก่อนก็คือ ระบบเครือข่ายแบบ SDN นั้นแตกต่างจากระบบเครือข่ายเดิมตั้งแต่ระดับของการเริ่มต้น Setup ระบบเครือข่ายจากการติดตั้งอุปกรณ์ตัวแรกเลย เรียกได้ว่าเป็นการล้างภาพของความรู้ด้านระบบเครือข่ายแบบเดิมๆ ที่มีอยู่ไปพอสมควร และวิธีการเดียวที่จะช่วยให้เข้าใจเทคโนโลยีตรงส่วนนี้ได้ดีขึ้นก็คือการทดสอบจริงนั่นเอง ดังนั้นถ้าหากองค์กรไหนพอจะมีเวลาบ้าง ก็ควรจะเรียกผู้ผลิตเข้ามาทำการทดสอบระบบ SDN ให้ได้ทดลองกันเป็นแนวทางกันได้แล้ว

 

ขั้นตอนในการเริ่มต้นใช้งาน Cisco ACI

เพื่อให้เห็นภาพการทำงานของ SDN ได้ง่ายที่สุด ทางทีมงาน TechTalkThai จึงได้สรุปลำดับขั้นตอนในการสร้างระบบเครือข่ายที่เป็น SDN ด้วยเทคโนโลยีของ Cisco ACI ให้อ่านกันเป็นตัวอย่าง โดยผู้ที่จะศึกษาแนวคิดของ Cisco ACI นั้น ควรจะมีความเข้าใจพื้นฐานเกี่ยวกับแนวคิดของระบบเครือข่ายแบบ Spine-Leaf ก่อน

[อธิบายสั้นๆ สำหรับผู้ที่ไม่รู้จัก Spine-Leaf แนวคิดนี้คิอการแบ่ง Switch ออกเป็น 2 กลุ่ม คือ Leaf Switch ที่จะทำหน้าที่ในการเชื่อมต่อกับ Endpoint และจะเชื่อมต่อกับ Spine Switch ทั้งหมดที่มีในแบบ Mesh ส่วน Spine Switch นั้นจะไม่เชื่อมต่อกันเอง แต่จะเชื่อมต่อกับ Leaf Switch ทั้งหมดแบบ Mesh เช่นกัน เพื่อให้ระบบเครือข่ายมีประสิทธิภาพและความทนทานสูงสุด พร้อมทั้งเพิ่มขยายได้ง่าย

 

การเริ่มต้นใช้งาน Cisco ACI เบื้องต้น มีดังนี้

1. สร้าง Cisco APIC Controller ซึ่งเป็น SDN Controller ของ Cisco ขึ้นมา
2. เชื่อมต่อ APIC Controller เข้ากับ Leaf Switch และให้ทั้งสองระบบทำการเรียนรู้กันด้วย Protocol LLDP
3. LLDP เริ่มสร้าง Topology ของระบบเครือข่าย และแสดงการเชื่อมต่อไปยัง Spine Switch เพิ่มเติม
4. ระบบเครือข่ายทั้งหมดทำการเรียนรู้กันและกัน และถูกเชื่อมต่อเข้ากันเป็น Topology ที่ครบถ้วน และ Cisco APIC Controller ก็จะสามารถบริหารจัดการระบบเครือข่ายทั้งหมดได้
5. APIC Controller ทั้งหมดในระบบจะทำการแชร์ข้อมูลระหว่างกัน เพื่อให้สามารถทำงานร่วมกันได้แบบ Redundant
6. การบริหารจัดการทั้งหมดหลังจากนี้จะต้องทำผ่าน APIC Controller เสมอ โดยผู้ดูแลระบบต้องทำหน้าที่กำหนด EPG ให้กับแต่ละ Object และกำหนด Policy เพื่อใช้ในการบังคับว่า EPG ใดจะเชื่อมต่อกันได้อย่างไรบ้าง
7. เมื่อมีการเพิ่มอุปกรณ์เครือข่ายใดๆ ก็ตาม ขั้นตอนต่างๆ ในการติดตั้งจะจบลงหลังจากที่ทำการเชื่อมต่อ Physical Layer เข้าไปยังระบบเครือข่าย SDN ที่ใช้งานอยู่เสร็จสิ้นแล้ว และผู้ดูแลระบบก็จะมีหน้าที่ในการกำหนด EPG ให้กับ Object ที่มาเชื่อมต่อเข้ากับอุปกรณ์เครือข่ายใหม่ๆ นั้น เพื่อบังคับใช้ Policy ที่ต้องการนั่นเอง

 

อธิบายแบบนี้อาจจะยังมีผู้ที่ไม่เข้าใจว่า EPG จะเป็นอะไรได้บ้าง ยกตัวอย่างเช่น เราอาจกำหนด Router ตัวที่เชื่อมต่อกับ Internet ให้เป็น EPG 1, กำหนด Server เป็น EPG 2, กำหนด Client Desktop เป็น EPG 3 แล้วเราจึงค่อยบอกว่า EPG 3 สามารถเชื่อมต่อกับ EPG 1 และ EPG 2 ได้เพื่อให้ผู้ใช้งานสามารถเล่นอินเตอร์เน็ตได้ และทำงานกับ Server ได้ ในขณะที่เราอาจไม่อนุญาตให้ EPG 2 เชื่อมต่อกับ EPG 1 เพราะไม่ต้องการให้ Server ที่ติด Malware ทำการส่งข้อมูลออกไปยังภายนอกโดยตรง เป็นต้น

cisco_aci_integration_with_vmware

สำหรับกรณีที่มีระบบ Virtualization ภายในองค์กร ผู้ผลิตอย่าง VMware ก็จะมี Virtual Distributed Switch (VDS) ในแต่ละ Virtualization Host Server โดยมีขั้นตอนการเริ่มต้นใช้งาน Cisco ACI ร่วมกับ VMware VDS ดังนี้

1. ติดตั้ง APIC ให้เชื่อมต่อกับ VMware vCenter Server
2. vCenter สั่งสร้าง VDS ใน Host
3. vCenter ทำการผูก VDS เข้ากับ Hypervisor
4. VDS จะเชื่อมต่อกับ Leaf Switch และแลกเปลี่ยนข้อมูลพร้อมสร้าง Topology ทั้งหมด
5. APIC จะสามารถทำการบริหารจัดการระบบเครือข่ายทั้งหมดได้แบบ Policy สำหรับแต่ละ EPG โดยอาจจะกำหนด EPG ให้ทดแทน Server แต่ละกลุ่ม หรือการเชื่อมต่อไปยัง Gateway ของระบบเครือข่ายเดิมที่ใช้งานอยู่ หรือการเชื่อมต่อไปยัง WAN หรือ Internet Gateway ภายนอกก็ตามแต่
6. สำหรับการเชื่อมต่อ Load Balancer หรืออุปกรณ์อื่นๆ แบบ Physical นั้น จะต้องนำมาเชื่อมต่อกับ Leaf ใดๆ ภายในระบบก็ได้ ไม่ต้องวางขวางแบบแต่ก่อน แต่ถ้าเป็นแบบ Virtual ก็สามารถติดตั้งใน Host ได้เลย โดยอุปกรณ์เหล่านี้จะมี API เพื่อเชื่อมต่อกับ APIC และทำให้กลายไปเป็นส่วนหนึ่งของ Policy ได้ เช่น บังคับว่า Traffic ต้องผ่าน Firewall ก่อนเสมอก่อนที่จะออกไปยังส่วนอื่นของระบบเครือข่าย เป็นต้น

 

จะเห็นได้ว่าแม้แต่การเชื่อมต่อระบบเครือข่าย SDN เข้ากับระบบ Virtualization ก็ยังจะมีขั้นตอนที่เปลี่ยนไปด้วย ดังนั้นแล้วการทำความเข้าใจในธรรมชาติการทำงานพื้นฐานของ Cisco ACI จึงเป็นสิ่งที่สำคัญมาก และเป็นอีกสิ่งที่เรียกได้ว่าเปลี่ยนลำดับการคิดของผู้ดูแลระบบเครือข่ายไปมากทีเดียว

 

ACI Forwarding Model

อีกประเด็นใหญ่ที่มีการเปลี่ยนแปลงไปใน SDN ก็คือวิธีการในการ Forward Traffic นั่นเอง ซึ่งจากเดิมที่เรามีการเชื่อมต่อกันในแบบ Physical ให้เข้าใจกันได้ง่ายในระดับหนึ่ง คราวนี้ SDN จะมาเปลี่ยนให้การ Forward Traffic มีความเป็น Logical ที่สูงขึ้น โดยมีสิ่งที่เปลี่ยนแปลงไปดังนี้

1. ทำการแบ่ง Tenant ของเครือข่ายออกเป็นหลายๆ Tenant โดยการใช้ Context/VRF
2. Context/VRF จะสามารถมีได้ตั้งแต่ 1 Bridge Domain (BD) ขึ้นไป สำหรับใช้ระบุการทำ Forwarding, Subnet, ARP Handling, Multicast และอื่นๆ
3. End-point ที่ทำการเชื่อมต่ออยู่ในระบบเครือข่าย จะถูกจัดเข้ากับ End-point Group (EPG) และทุกๆ EPG ก็จะถูกผูกเข้ากับ BD เพื่อให้รู้ว่าแต่ละ EPG จะสามารถเชื่อมต่อไปยัง EPG อื่นๆ โดยผ่าน BD ใดบ้าง
4. เมื่อต้องทำการเชื่อมต่อ EPG เข้ากับ VLAN เพื่อเชื่อมระบบเครือข่าย SDN เข้ากับระบบเครือข่ายแบบเดิม ระบบจะทำการ Map EPG กับ VLAN เข้าด้วยกันเอง แต่ก็ยังสามารถ Map แบบอื่นๆ ได้อีกเช่นกัน

 

ข้อดีของการทำ SDN

1. ลดงานของทีม Network Operation ลง เพราะรายละเอียดในการทำงานที่ระดับ Layer 2-4 จะลดน้อยลงมาก โดยการ Config ทั้งหมดจะกลายเป็นแบบ Automation
2. ลดความผิดพลาดในการ Configure ลง เนื่องจากระบบท้้งหมดจะถูกกำหนดค่าอย่างอัตโนมัติเพื่อให้ได้ผลลัพธ์ตามที่ผู้ดูแลระบบต้องการเท่านั้น
3. สามารถตรวจสอบการทำงานที่ผิดปกติในระบบเครือข่าย และผลกระทบที่จะเกิดขึ้นกับ Application ต่างๆ ได้อย่างครอบคลุม
4. การบริหารจัดการระบบเครือข่ายสำหรับ Cloud ที่มีอุปกรณ์ Switch จำนวนนับพันหรือนับหมื่นตัว จะสามารถทำได้อย่างมีประสิทธิภาพมากขึ้น
5. รองรับการแบ่งหลายๆ Department หรือบริษัทลูกภายในระบบเครือข่ายเดียวกันได้เป็นหลายๆ Tenant โดยใช้ Virtual Routing and Forwarding (VRF)

 

ข้อแนะนำต่อผู้ดูแลระบบเครือข่าย

1. ควรศึกษาแนวคิดของการทำ SDN ค่ายต่างๆ เพื่อเปรียบเทียบกัน
2. ควรหาโอกาสทดสอบอุปกรณ์และทดลองใช้งาน เพื่อให้เข้าใจความแตกต่างของระบบเครือข่ายแบบ Fabric และระบบเครือข่ายแบบเดิม
3. สำหรับระบบเครือข่ายของ Data Center ขนาดใหญ่ที่มีความซับซ้อนสูง แนะนำให้เริ่มเปลี่ยนมาใช้ SDN หรือ Fabric ให้เร็วที่สุด

from:https://www.techtalkthai.com/software-defined-network-with-cisco-aci-summary-from-cisco-night-academy-8/

สรุปความรู้เรื่องการออกแบบระบบเครือข่าย Data Center แบบ 2-Tier และ Single-Layer จากงาน Cisco Night Academy 4: Data Center: Unified Data Center Fabric

cisco_logo_2

จากเดิมที่ในโลกนี้มีการออกแบบระบบเครือข่ายเพียงแค่แนวคิดแบบ 3-tier เป็นหลัก โดยแบ่งระบบเครือข่ายออกเป็น Core, Distributed และ Edge Switch นั้น ปัจจุบันการเปลี่ยนแปลงไปของสถาปัตยกรรมการทำงานของ Application ต่างๆ เพื่อรองรับผู้ใช้งานจำนวนมากได้ และจัดเก็บข้อมูลขนาดใหญ่ได้ ในขณะที่ต้องมีพลังในการประมวลผลสูง, เพิ่มขยายได้ง่าย, ประหยัดพลังงาน และลดค่าใช้จ่ายในองค์กรหรือของธุรกิจได้นั้น ได้กลายเป็นแรงผลักดันหลักให้การออกแบบระบบเครือข่ายมีการเปลี่ยนแปลงไปเพื่อตอบโจทย์เหล่านี้ให้ได้อย่างเหมาะสม และใน Cisco Night Academy ครั้งที่ 4 นี้ก็ได้ตอบโจทย์การออกแบบเหล่านี้เอาไว้ได้อย่างน่าสนใจ ดังนี้

cisco_nexus_family_01_nexus_7000

ทำไม Core, Distributed, Edge ถึงไม่เพียงพออีกต่อไป?

คำถามนี้ไม่ได้จะนำไปสู่ข้อสรุปที่ว่าระบบเครือข่ายไม่ควรออกแบบแบบ 3-tier อีกต่อไป เพราะการแยกระบบเครือข่ายออกเป็น Core, Distributed และ Edge นั้นก็ยังคงมีบทบาทที่สำคัญสำหรับระบบเครือข่าย Campus ภายในองค์กร และ Data Center สำหรับองค์กรที่มีขนาดเล็กและปานกลางอยู่ดี เพราะการตอบโจทย์ของ Application และการเชื่อมต่อในลักษณะของ Client-Server นั้น 3-tier Design นี้ก็ยังสามารถรองรับได้อย่างมีประสิทธิภาพ

แต่เมื่อพูดถึงระบบเครือข่ายขนาดใหญ่ที่ต้องรองรับ Server จำนวนนับพันหรือหมื่นเครื่อง ซึ่งมีชื่อเรียกรวมๆ ว่าระบบแบบ Hyperscale ที่ใช้ Server ทั้งหมดทำงานร่วมกันเป็นระบบ Application ขนาดใหญ่จำนวน 1 ระบบ และจำเป็นต้องมีการติดต่อสื่อสารกันระหว่าง Server เหล่านี้กันเองค่อนข้างมากก่อนที่จะมีการตอบ Request ใดๆ ไปยังผู้ใช้งาน การเชื่อมต่อภายใน Data Center จึงจำเป็นต้องมีการเปลี่ยนแปลงไปให้มีความรวดเร็วสูงขึ้น, มี Latency ต่ำลง และสามารถเพิ่มขยายได้อย่างง่ายดาย โดยไม่ให้หน้าที่การทำงานทุกอย่างมารวมศูนย์กันที่ Core Switch ที่เดียวอีกต่อไป โจทย์นี้จึงเป็นที่มาของระบบเครือข่ายแบบ 2-tier และ Single-Layer นั่นเอง

 

แนะนำให้ออกแบบ Data Center แยกตาม Segment และวัตถุประสงค์ในการใช้งาน

โดยส่วนใหญ่แล้ว ในเมืองไทยจะอ้างอิงการออกแบบจากธุรกิจ SMB ของเมืองนอกมา เพราะธุรกิจ SMB ในเมืองนอกนั้นก็ถือว่าใหญ่เพียงพอสำหรับหลายๆ องค์กรในประเทศไทยแล้ว โดย Data Center ขนาดกลางส่วนใหญ่ก็มักจะให้ทุกอย่างรวมศูนย์อยู่ที่ Core Switch แต่สำหรับแนวทางการออกแบบที่ดีนั้น ทางทีมงาน Cisco ก็แนะนำให้ออกแบบเป็น Module แยกออกไปตามวัตถุประสงค์ในการทำงานของระบบเครือข่ายส่วนนั้นๆ เพื่อให้การเพิ่ม, การลด หรือการเปลี่ยนแปลงอุปกรณ์ต่างๆ นั้นสามารถทำได้ง่ายขึ้น และแบ่งส่วนต่างๆ ของระบบเครือข่ายออกเป็น 3 ส่วนหลักๆ ด้วยกัน ดังนี้

  • Client Access/Enterprise สำหรับเชื่อมต่อผู้ใช้งานเข้ากับอุปกรณ์ต่างๆ ภายในสำนักงาน และการเชื่อมต่อออกไปยัง Data Center และ Internet
  • WAN/Internet Edge สำหรับการเชื่อมต่อเครือข่ายออกไปยังระบบ WAN หรือลิงค์อื่นๆ ภายในองค์กรโดยเฉพาะ โดยจะมุ่งเน้นไปที่การบริหารจัดการเส้นทาง Traffic, ควบคุม Traffic, การเชื่อมต่อ VPN ระหว่างสาขาอย่างปลอดภัย และอื่นๆ
  • Data Center สำหรับเชื่อมต่ออุปกรณ์ภายใน Data Center เข้าด้วยกันทั้งหมด และการเชื่อมต่อบริการต่างๆ จากภายใน Data Center ออกไปยังผู้ใช้งาน

 

ทั้งนี้ถึงแม้ในการอบรมครั้งนี้จะเน้นการคุยกันเรื่องเทคโนโลยีของระบบเครือข่ายภายใน Data Center เป็นหลัก แต่ทางทีมงาน Cisco ก็ยังให้แนวทางในการออกแบบไว้ว่า การแบ่งระบบเครือข่ายออกเป็น 3 ส่วนหลักๆ ดังนี้ จะช่วยให้การออกแบบระบบเครือข่ายในอนาคตสามารถเพิ่มขยายเฉพาะส่วนได้ ซึ่งในองค์กรขนาดใหญ่บางแห่งนั้น ในแต่ละส่วนของระบบเครือข่ายก็มีการออกแบบเป็น 3-tier และมี Gateway แยกขาดจากกันไปเลย ในขณะที่องค์กรขนาดกลางเองนั้นก็อาจจะไม่ต้องแยก 3-tier สำหรับทุกส่วนขนาดนั้นก็ได้ แต่ก็ควรออกแบบให้รองรับต่อการเพิ่มขยายในอนาคตได้บ้าง

โดยสรุปแล้ว ในการออกแบบส่วนของ Data Center Networking นั้น ก็มีทางเลือกในการออกแบบในแบบอื่นๆ นอกจาก 3-Tier ดังต่อไปนี้

 

2-tier Networking Design: Spine & Leaf

ในการออกแบบระบบเครือข่ายให้เป็น 2-tier นั้น จะแบ่งอุปกรณ์เครือข่ายออกเป็น 2 กลุ่มหลักๆ ได้แก่ Spine และ Leaf โดย Spine หมายถึงกระดูกสันหลัง ทำหน้าที่เป็นแกนกลางของระบบเครือข่ายโดยใช้ Switch ตั้งแต่ 2 ตัวขึ้นไป และมี Leaf เชื่อมต่อกับ Spine ทั้งหมดและเชื่อมต่อกับ Server ด้วย โดยรองรับการเพิ่มขยายแบบ Scale-out ได้ทั้ง Spine และ Leaf อย่างยืดหยุ่น วิธีการนี้จะช่วยลด Latency ในการเชื่อมต่อระหว่างกันของ Server ทั้งหมดลงเพราะจำนวน Hop ที่ต้องเกิดขึ้นในการเชื่อมต่อระหว่าง Server แต่ละตัวนั้นลดน้อยลง และยังรองรับการเพิ่มจำนวน Port ได้อย่างยืดหยุ่นและคุ้มค่า โดยองค์กรสามารถเริ่มต้นลงทุนจากระบบ Spine & Leaf ขนาดเล็ก ที่รองรับการเพิ่มขยายสำหรับระบบเครือข่ายขนาดใหญ่ได้ด้วยการ Scale-out ได้ตามต้องการในภายหลัง

ในแง่มุมของการติดตั้ง การติดตั้งก็ยังคงเป็นแบบ Top-of-Rack โดยติดตั้ง Leaf Switch บน Top-of-Rack และเชื่อมต่อไปยัง Spine ด้วยการเดินสายแบบ Mesh นั่นเอง

 

Single-Layer Switching: Fabric & Fabric Extension

ถึงแม้ในเชิงประสิทธิภาพการทำงานและการเชื่อมต่อนั้น 2-tier Design อย่าง Spine & Leaf จะสามารถตอบโจทย์ได้อย่างง่ายดาย แต่ในเชิงความยุ่งยากของการบริหารจัดการและการดูแลรักษานั้น Spine & Leaf ก็ยังไม่ใช่ตัวเลือกที่ดีที่สุดนัก สิ่งที่ Cisco ได้นำเสนอคือแนวคิดของการออกแบบแบบ Single-Layer โดยให้ทุกอุปกรณ์ภายใน Data Center นั้นสามารถเชื่อมต่อกับ DC Core/Aggregation Switch ได้โดยตรง ซึ่งจะช่วยลด Latency ลงไปอีกชั้นหนึ่ง ในขณะที่การบริหารจัดการทั้งหมดก็สามารถทำได้ผ่าน DC Core/Aggregation Switch ที่จุดศูนย์กลางจุดเดียวได้เลย และความซับซ้อนในการเดินสาย LAN ก็จะลดลงไปอีกด้วย

แนวคิดแบบ Single-Layer Design นี้จะแบ่ง Switch ออกเป็น 2 กลุ่มเช่นกัน คือกลุ่มของ Parent Switch ซึ่งก็จะทำหน้าที่เป็น DC Core/Aggregation Switch หลักสำหรับใช้ในการประมวลผลและการบริหารจัดการของ Fabric ในขณะที่อีกกลุ่มจะเป็น Child Switch ซึ่งจะเป็น Switch ที่ไม่สามารถทำงานเดี่ยวๆ ด้วยตัวเองได้ ต้องทำการเชื่อมต่อกับ Parent Switch และบริหารจัดการผ่าน Parent Switch ได้โดยตรง ทำให้อุปกรณ์กลุ่มหลังนี้ได้รับชื่อว่า Fabric Extension นั่นเอง

 

ทุกการออกแบบ ต้องอ้างอิงจากความต้องการของระบบ

โดยทั่วไปแล้วความต้องการของระบบเครือข่ายภายใน Data Center นั้นจะมีด้วยกัน 3 ประเด็นหลักๆ ได้แก่

  • ความยืดหยุ่น (Flexible) สามารถใช้งานและเพิ่มขยายรองรับอนาคตได้ดี
  • เหมาะสมต่อการใช้งาน (Practical) มีจำนวนพอร์ตและความสามารถเพียงพอต่อการใช้งาน
  • ใช้งานได้ง่าย (Easy to Use) บริหารจัดการได้ง่ายแม้ระบบเครือข่ายต้องเพิ่มขยายขึ้น

 

เนื่องจากสมัยก่อนระบบส่วนใหญ่จะเป็น Server-Client ดังนั้นระบบเครือข่ายแบบ 3-tier ก็ยังรองรับความต้องการลักษณะนั้นได้อยู่ แต่ปัจจุบันใน Data Center นั้นก็มีการเชื่อมต่อแบบ Server-Server มากขึ้น ไม่ว่าจะเป็นการทำ Cluster, การทำ Big Data Analytics หรืออื่นๆ ดังนั้นการออกแบบแบบ 2-tier จึงเริ่มเข้ามาตอบโจทย์ความต้องการในลักษณะนี้มากกว่า

 

เลือกเทคโนโลยีให้เหมาะสมกับความต้องการ

โดยคร่าวๆ แล้ว เทคโนโลยีที่จำเป็นต้องเลือกใช้ในระบบเครือข่ายของ Data Center มีดังนี้

  • ประเภทพอร์ต, ความเร็ว และสาย 1/10GbE, FEX, vPC, Fibre Channel, FCoE
  • HA Dual Supervisors, ISSU, Spine/Leaf Design
  • Data Center Interconnect (DCI) Overlay Transport Virtualization (OTV), MPLS, VPLS
  • Fabric Integration and Orchestration Programmability, API’s, Controller-based options

 

Software Defined Networking (SDN)

ในขณะที่อีกแนวโน้มที่จะมาอย่างแน่นอนอย่าง Software Defined Network หรือ SDN ที่เป็นอนาคตของระบบเครือข่ายที่สามารถโปรแกรมได้ โดยมุ่งเน้นเรื่องการกำหนดผลลัพธ์ที่ต้องการ และ Software นั้นๆ จะไปจัดการกำหนดค่าระบบเครือข่ายให้เป็นไปตามที่ต้องการได้ทันที ตัวอย่างเช่น ระบุว่า Server ตัวใดต้องเชื่อมต่อกันได้บ้าง ด้วย Protocol อะไร จากนั้นระบบเครือข่ายก็จะกำหนดค่าให้เป็นไปตามที่ต้องการเอง เป็นต้น ซึ่งถึงแม้ตอนนี้ในโลกจะเริ่มมีผลิตภัณฑ์กลุ่ม Software Defined Networking เกิดขึ้นมาบ้างแล้ว แต่ก็ยังมีน้อยตัวนักที่สามารถตอบโจทย์ลักษณะนี้ได้

การมาของ Software Defined Network นี้จะทำให้การ Configuration ระบบเครือข่ายเชิงลึกใน Data Center ลดน้อยลง และงานของผู้ดูแลระบบจะกลายเป็นการมุ่งเน้นการเขียน Policy หรือเขียน Script เพิ่มในการออกคำสั่งกับระบบเครือข่ายมากขึ้น โดยภาษาที่เป็นที่นิยมในการเขียน Script เหล่านี้ก็คือภาษา Python

cisco_nexus_family_02_nexus_5000

Server, Storage และ Virtualization เป็นตัวกำหนดความต้องการของระบบ Data Center เป็นหลัก

สำหรับเทคโนโลยีฝั่ง Server, Storage และ Virtualization ที่ต้องทำการพิจารณาก่อนทำการออกแบบระบบ Network ภายใน Data Center มีดังนี้

Server

  • Form Factor ของอุปกรณ์ที่ใช้
  • Unified Computing Fabric
  • 3rd Party Blade Servers
  • Rack Servers

 

Storage

  • Storage Protocol
  • Fibre Channel
  • FCoE
  • IP (iSCSI, NAS)

 

Virtualization

  • Virtualization Requirements
  • vSwicth/DVS/OVS
  • Nexus 1000V
  • Open Source Switching

 

ความต้องการใน Data Center Fabric

ในเชิงการบริหารจัดการและการออกแบบในภาพรวมนั้น Data Center Fabric ที่ดีจะต้องรองรับความต้องการดังต่อไปนี้ได้

  • มีการเชื่อมต่อระหว่างภายในและภายนอกข้ามระบบต่างๆ หลากหลายขึ้น
  • มีการเชื่อมต่อกันเองภายในเพื่อทำ Cluster มากขึ้น
  • ความต้องการ Throughput จำนวนมาก และ Latency ต่ำ
  • ความต้องการในการทำ High Availability
  • ทำ Automated Provisioning & Control ซึ่งมี Orchestration, Monitoring และ Management Tools

 

การใช้งาน Cloud ภายในองค์กร

การมาของ Cloud ถึงแม้จะสร้างความสะดวกให้ภาคธุรกิจ แต่ก็เป็นปัญหาทางด้านความปลอดภัยในมุม IT เพราะหลายครั้งที่ผู้ใช้งานต่างหนีไปใช้ Public Cloud แทนระบบภายใน โดยที่ผู้ดูแลระบบ IT ไม่ทราบหรือไม่สามารถควบคุมได้ ทำห้ความปลอดภัยในการใช้งานนั้นไม่สามารถควบคุมได้ ซึ่งทุกวันนี้ก็เป็นความท้าทายที่ฝ่าย IT ต้องตามให้ทัน และเป็นอีกหนึ่งปัจจัยที่ผู้ดูแลระบบต้องนำมาคิดเพื่อใช้ในการออกแบบระบบเครือข่ายให้ตอบรับความต้องการ

สิ่งที่ Cisco มีเพื่อช่วยแก้ไขปัญหานี้คือ Cisco Intercloud Fabric ที่จะช่วยให้สามารถควบคุมการใช้ Data Center ภายในองค์กร, Private Cloud และ Public Cloud ทั้งหมดเข้าด้วยกันได้ ทำให้ฝ่าย IT สามารถตอบโจทย์ในการควบคุมการใช้งานบริการ Cloud ที่ผู้ใช้งานต้องการได้มากขึ้น ในขณะที่ยังสามารถกำหนดการตั้งค่าและการรักษาระบบ Cloud ได้ลึกยิ่งขึ้น และย้ายการใช้งาน Virtual Machine หรือบริการต่างๆ ข้าม Data Center ได้ ทำให้ผู้ใช้งานนั้นสามารถใช้ Cloud ที่ต้องการได้อย่างปลอดภัย ด้วยมุมมองที่ทุก Cloud นั้นสามารถทำงานร่วมกันได้อย่างสมบูรณ์เหมือนเป็นระบบเดียวกัน

 

การออกแบบเชิง Physical

สำหรับเทคโนโลยีต่างๆ ที่ควรรู้จักในการออกแบบเชิง Physical ของระบบเครือข่ายภายใน Data Center มีดังนี้

 

รู้จักกับ Access Pod: Compute, Storage, Network

เดิมทีนั้น การออกแบบ Data Center จะเอาทุกระบบไปใส่ลงใน Environment เดียวกัน แต่เดี๋ยวนี้ก็เริ่มมีระบบ Integrated Systems ที่เป็นชุดสำเร็จรูป และทำ Pre-configure ระบบมาให้ก่อนแล้ว กลายเป็น Data Center ขนาดเล็กที่มีการทำ Sizing และทดสอบเรียบร้อย ทำให้สามารถสร้างเป็นส่วนย่อยๆ อยู่ภายใน Data Center สำหรับรองรับแต่ละระบบแยกกันได้ ทำให้ง่ายต่อการใช้งาน และมั่นใจได้ว่าสามารถทำงานร่วมกันทั้งหมดได้

 

Virtual Port Channel (vPC)

เป็นการทำ Link Aggregation ไปพร้อมๆ กับการทำ Redundant ขึ้น Core Switch หรือ Distributed Switch 2 ตัว ทำให้ Uplink มี Bandwidth ขนาดใหญ่ใช้พร้อมกันได้แบบ Active/Active และยังทำ Redundant ได้อีกด้วย ทำให้ไม่ต้องใช้งาน Spanning Tree Protocol อีกต่อไป และแก้ปัญหาของการทำ VSS หรือ Stack ที่จะมีปัญหาเมื่อเกิด Error ในระดับ Software แล้ว Switch ทั้ง 2 ตัวจะมีปัญหากันทั้งคู่ แต่การทำ vPC นั้นจะทำให้ระบบเครือข่ายทำงานได้แบบ Full Redundancy

 

Nexus 2000 Fabric Extension (FEX)

สามารถใช้ Nexus 2000 เชื่อมต่อเข้ากับ Nexus 5000/6000/7000/9000 และบริหารจัดการ Nexus 2000 ทั้งหมดผ่าน Nexus 5000/6000/7000/9000 และบริหารจัดการร่วมกันได้เสมือนเป็น Switch ตัวเดียวกันทั้งหมด ซึ่ง Nexus 2000 นี้ก็มีให้ใช้ทั้งลักษณะของ Rack Switch และ Switch ใน Blade Server โดยบริหารจัดการแทนผ่าน Parent Switch ได้โดยตรง

นอกจากนี้ถ้าหาก Nexus 2000 เสีย ก็สามารถหาตัวใหม่มาแทน และใช้ Configuration เดิมได้เลย ซึ่งถ้าอ้างอิงถึง Standard vPC โดยทั่วไปแล้ว Nexus 2000 นี้ไม่สามารถต่อ Uplink แบบ Redundant ขึ้นไปยัง Nexus อื่นๆ ได้มากกว่า 1 ตัว ดังนั้นถ้าหาก Server อยากจะทำ Redundancy ก็ต้องต่อขึ้นไปหา FEX 2 ตัว ที่แต่ละตัวเชื่อมกับ Parent Nexus คนละตัวกัน แต่ถ้าเป็น Enhance vPC (EvPC) ที่ทำให้ FEX จะสามารถเชื่อมต่อขึ้นไปยัง Parent Nexus จำนวนมากกว่า 1 ตัวได้ และทำให้สามารถทำ HA ได้อย่างสมบูรณ์ คล้ายกับการทำ Redundant Design แบบเดิมๆ ได้ แต่บริหารจัดการได้ง่ายขึ้นมาก

ทั้งนี้การเลือกรุ่นและการออกแบบ Nexus นั้นควรให้ผู้มีประสบการณ์ช่วยในการออกแบบ เพราะ Nexus แต่ละรุ่นนั้นมีความสามารถที่แตกต่างกันไป เพื่อรองรับความต้องการของระบบเครือข่ายที่หลากหลายนั่นเอง

 

Unified Ports และ FCoE

Port บน Nexus สามารถทำหน้าที่เป็นได้ทั้ง Ethernet และ Fibre Channel ขึ้นอยู่กับ Transceiver ที่ใช้ ทำให้ Data Center มีความซับซ้อนน้อยลงมาก และยืดหยุ่นต่อการใช้งานมากยิ่งขึ้น

 

การออกแบบ Floor Plan

เมื่อก่อนจะนิยมออกแบบ Network และ Storage เอาไว้ที่ End of Row และมี Network ที่ Top of Rack ด้วย แต่เดี๋ยวนี้นิยมเปลี่ยนการติดตั้ง Network และ Storage จาก End of Row มาไว้ตรงกลางแทน เพื่อให้สามารถเชื่อมต่อ Server จำนวนมากขึ้นต่อแถวได้ โดยมีระยะการเดินสายที่ไกลที่สุดไม่ต่างจากเดิม

 

ความรู้เพิ่มเติมเกี่ยวกับ 40 Gigabit Ethernet

โดยทั่วไปการใช้ 40GbE นั้นต้องใช้สายที่มีมากถึง 8 Core ทำให้ไม่ค่อยมีใครใช้ Cisco จึงพัฒนา QSFP-BIDI มาแทน และใช้สายเพียงคู่เดียว โดยมีขาส่ง 2x20Gbps และขารับ 2x 20Gbps และใช้สายแบบเดิมได้

cisco_nexus_familiy_03_nexus_2000

การออกแบบเชิง Logical

สำหรับประเด็นต่างๆ ที่ควรคำนึงในการออกแบบเชิง Logical ของระบบเครือข่ายภายใน Data Center มีดังนี้

 

การเพิ่ม Service ต่างๆ ใน Data Center

ไม่ว่าจะเป็นบริการรักษาความปลอดภัยอย่าง Firewall หรือ IPS และบริการที่ช่วยในการใช้งาน Application อย่าง Application Delivery, Load Balancer หรือแม้แต่ระบบ Network Analysis หรือ WAN Optimization ก็จะนิยมติดตั้งพวก Appliance เอาไว้กับ Aggregation Switch Layer เพราะจะช่วยให้สามารถกำหนดค่าใช้ง่ายและไม่ซับซ้อน

แต่สำหรับกรณีที่มีการใช้ Virtual Machine ก็จะแนะนำให้ติดตั้งระบบเหล่านี้ลงไปใน VM ด้วยเลยเพื่อให้การบริหารจัดการ Traffic ต่างๆ สามารถทำได้อย่างสมบูรณ์และเป็นแบบ Distributed เพื่อรับโหลดจำนวนมหาศาลใน Virtual Machine Host แต่ละเครื่องได้ โดยแนะนำให้ใช้พวก Virtualized Services เช่น vPath, Nexus 1000v และใช้ Cisco Application Service Infrastructure (ACI) เพื่อช่วยในการติดตั้งและกำหนดค่า

 

ตัวอย่างการออกแบบแบบ Single-Layer Design

แนวคิดของการออกแบบแบบ Single-Layer Design คือพยายามทำการเชื่อมต่อขึ้นมายัง Core โดยตรงได้เลย เพื่อให้มี Latency ต่ำที่สุด และใช้ Throughput ได้ถึงระดับ Non-blocking และ Line-rate โดย Nexus 5600 ก็รองรับ Unified Ports ด้วยเช่นกัน

VXLAN จะกลายเป็นสิ่งที่มาแทน VLAN ในอนาคต เพราะสามารถรองรับการแบ่ง Segment ของระบบเครือข่ายได้มากกว่า

 

ออกแบบแบบ Single-Layer Switching + FEX

ใช้แนวคิดของ FEX มาช่วยเพิ่มพอร์ตและกระจาย Physical Switch ตามตู้ Rack ให้มากขึ้น แต่ยังคงบริหารจัดการผ่าน Parent Nexus ได้จากศูนย์กลางเสมือนเป็น Switch ชุดเดียวกัน โดยไม่ต้องต้องเปลี่ยนแปลง Architecture หรือ Configuration ของระบบเครือข่ายแต่อย่างใดจาก Single-Layer ในข้อก่อนหน้านี้

 

ออกแบบแบบ Single-Layer Data Center + UCS Fabric

เพราะใน UCS Server นั้นยังมี Network ภายในด้วย ดังนั้นการเชื่อมต่อ UCS ขึ้นมายัง Core นั้นก็สามารถต่อตรงได้แบบใช้ Uplink ขนาดใหญ่ แต่สำหรับ Server อื่นๆ ที่เหลือในระบบเครือข่ายก็สามารถต่อผ่าน FEX ได้เช่นกัน

 

ออกแบบแบบ Single Layer Data Center Nexus B22 FEX

สำหรับกรณีที่มีการใช้งาน Blade Server ของ 3rd Party อื่นๆ อยู่ Cisco มี Nexus B22 FEX ที่สามารถติดตั้งใน Blade ของผู้ผลิตรายอื่นได้ ทำให้สามารถทำ Single Layer Design ได้ ทำให้สามารถทำการบริหารจัดการการตั้งค่าได้จากศูนย์กลางผ่าน Nexus

 

ฟีเจอร์อื่นๆ บน Nexus 7000

  • OTV = Overlay Transport Virtualizaiton สำหรับเชื่อม Data Center ระยะไกลๆ เข้าด้วยกัน
  • VDC = Virtual Device Contexts แบ่ง Physical เดียวออกเป็นหลาย Logical Device ได้ และแต่ละ Logical Device ก็จะบริหารจัดการแยกขาดจากกันได้ และไม่ส่งผลกระทบข้ามกัน
  • แต่ Nexus 7000 ไม่สามารถต่อกับ Nexus 2000 หลายๆ ตัวแบบ Redundant ได้ แต่จาก Host หรือ Server ต่อขึ้น Nexus 2000 หลายตัวที่ต้องกับ Nexus 7000 คนละตัวแบบ Redundant ได

 

ออกแบบแบบ Single Layer Data Center + ACI-Ready

ด้วย Nexus 9000 ที่มีความสามารถรองรับ ACI แบบสมบูรณ์ สำหรับรองรับการทำ Software Defined Networking ได้ ทำให้เป็นตัวเลือกที่ดีในการวางแผนเพิ่มขยายในอนาคตแบบ Spine-Leaf และควบคุมผ่าน ACI ได้

 

การออกแบบระบบเครือข่ายให้ขยายต่อไปจาก Spine-Leaf

ในอนาคตถ้าหากต้องการนำ Spine-Leaf ไปใช้รองรับพอร์จจำนวนมากขึ้น แต่ไม่ได้เน้นประสิทธิภาพเต็มที่มากนัก ก็อาจเพิ่มเป็น 3-tier หรือ 4-tier และทำ Oversubscription ได้ในบางส่วนเช่นกัน

นอกจากนี้อีกสิ่งที่ควรรู้จักก็คือ FabricPath ที่จะคล้ายๆ TRILL สำหรับการทำ Redundant + Aggregation ที่ Layer 2 ร่วมกันระหว่าง Switch หลายๆ ตัว เพิ่มทั้งประสิทธิภาพและความทนทานไปพร้อมๆ กัน ซึ่งวิธีการนี้ก็เริ่มมีองค์กรที่มี Data Center ขนาดใหญ่ในไทยใช้เพื่อรองรับการทำ Cloud แล้ว

 

การมาของ SDN กับสิ่งที่จะเปลี่ยนไปในการออกแบบระบบเครือข่ายด้วย Cisco

  • การบริหารจัดการระบบเครือข่ายนั้น จะลดการตั้งค่าด้วย CLI ลง หันไปใช้ GUI มากขึ้น
  • ผู้ดูแลระบบต้องหัดเขียนโปรแกรมกันมากขึ้น และทำ Script ในการบริหารจัดการระบบเครือข่าย
  • สำหรับผู้ที่ใช้งาน Cisco ACI นั้นจะมี APIC เป็นตัวกลางในการบริหารจัดการระบบเครือข่าย
  • สำหรับ Cisco NXOS รองรับการเขียนโปรแกรมเพื่อบริหารจัดการได้ผ่านทาง OnePK, Python, Java, C
  • สำหรับ Open Source SDN จะมี OpenDaylight Controller เป็นหนึ่งในตัวเลือกที่น่าสนใจ

 

สรุป

  • จะออกแบบอะไรก็ตามต้องออกแบบให้เหมาะสมกับทั้งปัจจุบันและอนาคต และก็ต้องศึกษาเทคโนโลยีใหม่ๆ ที่เปลี่ยนแปลงอยู่ตลอดเพื่อจะได้เลือกใช้เทคโนโลยีที่ดีที่สุด
  • ความยืดหยุ่นเป็นเรื่องสำคัญ เพราะจะทำให้รองรับทั้งการเติบโตและการเปลี่ยนแปลงที่เกิดขึ้นได้
  • การเขียนโปรแกรมจะเข้ามามีบบาทสำคัญมากขึ้นในการดูแลรักษาระบบเครือข่าย
  • การนำองค์ประกอบเดิมที่มีอยู่มาใช้ในบทบาทใหม่เมื่อมีการเปลี่ยนแปลงระบบเครือข่ายจะกลายเป็นเรื่องปกติที่ต้องทำเมื่อมีการเปลี่ยนแปลงครั้งใหญ่ของระบบเครือข่าย

from:https://www.techtalkthai.com/2-tier-network-and-single-layer-network-design-from-cisco-night-academy-4/