คลังเก็บป้ายกำกับ: APACHE_HADOOP

TechTalk Webinar: จัดการกับ Big Data อย่างมีประสิทธิภาพ ด้วย End to End Data Lake on Hadoop โดย Softnix Data Platform

TechTalkThai ขอเรียนเชิญ Data Scientist และคนทำงานสาย IT ทุกท่าน เข้าร่วมฟัง Webinar ในหัวข้อเรื่อง “TechTalk Webinar: จัดการกับ Big Data อย่างมีประสิทธิภาพ ด้วย End to End Data Lake on Hadoop โดย Softnix Data Platform” เพื่อเรียนรู้ถึงปัญหาต่างๆ ที่จะเกิดกับภาคธุรกิจในการเริ่มต้นทำโครงการด้าน Big Data และแนวคิด Data Lake ที่จะนำมาใช้จัดการกับข้อมูลปริมาณมหาศาล ด้วยการใช้ Open Source Software ชื่อดังอย่าง Hadoop ที่ถูกนำมาปรับให้ภาคธุรกิจองค์กรพร้อมใช้งานได้อย่างง่ายดายโดย Softnix Data Platform ในวันพุธที่ 21 สิงหาคม 2019 เวลา 14.00 – 15.30 น. โดยมีกำหนดการและวิธีการลงทะเบียนดังนี้

รายละเอียดการบรรยาย

หัวข้อ: จัดการกับ Big Data อย่างมีประสิทธิภาพ ด้วย End to End Data Lake on Hadoop โดย Softnix Data Platform
ผู้บรรยาย: คุณรุจิรพงศ์ ฤทธิ์วงศ์, กรรมการผู้จัดการ, Softnix Technology
วันเวลา: วันพุธที่ 21 สิงหาคม 2019 เวลา 14.00 – 15.30 น.
ช่องทางการบรรยาย: Online Web Conference
จำนวนผู้เข้าร่วมสูงสุด: 100 คน
ภาษา: ไทย

ยุคนี้ที่ธุรกิจต้องการทำ Digital Transformation การใช้ประโยชน์จากข้อมูลนั้นถือว่าเป็นพื้นฐานสำคัญเป็นอย่างมาก

Data Lake ซึ่งเป็นที่รู้จักกันในอีกชื่อหนึ่งคือ Modern Data Platform เป็นเทคโนโลยีที่ถูกพูดถึงเป็นอย่างมากในขณะนี้ เพื่อช่วยให้องค์กรจัดการจัดการกับข้อมูลที่หลากหลาย นำมาวิเคราะห์ เพื่อให้เข้าใจลูกค้า พัฒนาสินค้าและบริการใหม่ๆในยุคที่ทุกองค์กรต้องทำ Digital Transformation

Softnix คือหนึ่งในผู้พัฒนา End to End Data Lake Platform ที่เชี่ยวชาญการจัดการ Big Data มามากกว่า 10 ปี จึงอยากจะแชร์ประสบการณ์ สิ่งที่ท้าทายที่สุดในการจัดการข้อมูล Big Data จนนำมาซึ่งการพัฒนาเป็นผลิตภัณฑ์ Softnix Data Platform ในปัจจุบัน

ใน Webinar ครั้งนี้ทุกท่านจะได้พบกับการเล่าถึงประเด็นสำคัญที่ทุกธุรกิจองค์กรต้องคำนึงถึงในการทำโครงการด้าน Big Data, การปูพื้นฐานแนวคิดด้าน Data Lake และเทคโนโลยี Open Source Software ชั้นนำอย่าง Apache Hadoop ที่ถูกนำมาปรับแต่งให้ใช้งานได้อย่างง่ายดายใน Softnix Data Platform พร้อมรับฟังมุมมองและประสบการณ์ด้านการทำโครงการ Big Data ให้กับเหล่าธุรกิจองค์กรไทยโดยตรงจากทีมงาน Softnix

ลงทะเบียนเข้าร่วม Webinar ได้ฟรี

ผู้ที่สนใจสามารถกรอกแบบฟอร์มเพื่อเข้าร่วม Webinar ในหัวข้อนี้ได้ฟรีๆ ทันทีที่ https://zoom.us/webinar/register/WN_9RhBb47URRy8YmX5C_nhVQ โดยทีมงานขอความกรุณากรอกข้อมูลชื่อบริษัทด้วยชื่อเต็มของหน่วยงานหรือองค์กร เพื่อไม่ให้เกิดความสับสนในการจัดการกับข้อมูลการลงทะเบียน

from:https://www.techtalkthai.com/techtalk-webinar-end-to-end-data-lake-on-hadoop-by-softnix-data-platform/

สร้างระบบ Big Data Analytics สำหรับองค์กรที่พร้อมวิเคราะห์ทุกข้อมูล ด้วยโซลูชันจาก IBM และ Hortonworks

เมื่อธุรกิจในทุกวงการต้องการจะก้าวไปสู่การเป็นธุรกิจ 4.0 การนำข้อมูลมาใช้ทั้งในเชิงการทำ Big Data Analytics หรือ AI นั้นย่อมเป็นสิ่งที่หลีกเลี่ยงไม่ได้ ด้วยเหตุนี้ ทาง IBM ได้ร่วมมือกับ Hortonworks เพื่อพัฒนาโซลูชัน High Performance Big Data Platform ที่จะทำให้องค์กรพร้อมรวบรวมและวิเคราะห์ข้อมูลในทุกรูปแบบได้ในระบบหนึ่งเดียว พร้อมปรับเปลี่ยนกลยุทธ์ด้านการจัดการข้อมูลได้อย่างยืดหยุ่นและมั่นคงปลอดภัย

 

สร้างระบบ Big Data Analytics สำหรับองค์กร ใช้แค่ Open Source Software ทั่วไปอาจไม่เพียงพอ

ถึงแม้ว่าเทคโนโลยีต่าง ๆ ในสาย Big Data และ AI นั้น เริ่มต้นมาจากระบบ Open Source Software เป็นหลัก ซึ่งก็เป็นข้อดีที่ช่วยให้ธุรกิจสามารถเริ่มต้นและต่อขยายได้ง่าย เป็นที่รู้จักในวงกว้าง แต่หากใครเคยมีประสบการณ์ในการติดตั้งหรือดูแลรักษาระบบเหล่านี้ก็จะทราบกันดีว่าการจัดการระบบเหล่านี้ไม่ใช่เรื่องง่าย เนื่องจากภายในระบบนั้นประกอบด้วยโมดูล Open Source จำนวนหลากหลายที่ต้องทำงานเชื่อมต่อกันอย่างซับซ้อน และการอัปเดตระบบหนึ่งระบบใดก็อาจกระทบระบบอื่น ๆ ที่เกี่ยวข้องไปด้วย

นอกจากนี้ องค์กรเองก็มีประเด็นที่ต้องให้ความสำคัญในเรื่องของการบริหารจัดการข้อมูล, การควบคุมสิทธิ์การเข้าถึงข้อมูล, การรักษาความมั่นคงปลอดภัยของระบบ รวมไปถึงในแง่ของการลงทุนเองก็ต้องมองหาระบบที่มีความยืดหยุ่นสูง พร้อมปรับเปลี่ยนการใช้งานได้หลากหลายเพื่อให้ตอบโจทย์ของธุรกิจใหม่ ๆ ที่เกิดขึ้นมาได้อย่างต่อเนื่อง ใช้งานได้อย่างคุ้มค่าในระยะยาว

โจทย์เหล่านี้เองถึงแม้จะใช้ Open Source Software ตอบได้ทั้งหมดในเชิงเทคนิค แต่ในทางปฏิบัติโจทย์ขององค์กรเองก็จะกลายเป็นเรื่องของการที่ต้องมีทีมงานที่มีความรู้ความสามารถด้านการดูแลรักษาระบบเหล่านี้ในเชิงลึกเป็นจำนวนมาก และจะต้องใช้เวลาในการลองผิดลองถูกกับเทคโนโลยีต่าง ๆ ก่อนที่จะมีการนำมาใช้งานหรือมีการเปลี่ยนแปลงใด ๆ กับระบบ ทำให้กลยุทธ์ทางด้านข้อมูลนั้นอาจไม่สามารถเดินหน้าไปได้อย่างรวดเร็วเท่าที่ควร

 

รู้จักกับ Hortonworks ที่สร้างมาจากพื้นฐานของ Open Source Software Solution สำหรับ Big Data Analytics โดยเฉพาะ

 

Credit: Hortonworks

 

Hortonworks ถือเป็นผู้ผลิตรายใหญ่รายหนึ่งที่ออกมาตอบโจทย์ความต้องการข้างต้นให้กับเหล่าองค์กรโดยเฉพาะ ด้วยการพัฒนา Distribution ของระบบ Big Data Analytics ที่ใช้ Open Source Software ซึ่งผ่านการทดสอบ แก้ไข และควบคุมคุณภาพมาเรียบร้อยแล้ว พร้อมทั้งเสริมความสามารถให้การติดตั้งใช้งานหรือดูแลรักษาทำได้อย่างง่ายดายยิ่งขึ้น พร้อมให้เหล่าองค์กรนำไปใช้ได้โดยไร้กังวล

โซลูชันของ Hortonworks นำเอาโมดูลพื้นฐานของ Open Source Software ที่โดดเด่นมาประกอบขึ้นเป็นแพลตฟอร์มเวอร์ชันที่พร้อมใช้งานสำหรับองค์กร ด้วยกัน 2 โซลูชัน ดังนี้

 

Hortonworks Data Platform (HDP) สำหรับสร้าง Big Data Analytics อย่างมีประสิทธิภาพ

 

Credit: Hortonworks

 

HDP นี้เป็นพัฒนามาจาก Apache Hadoop Distribution สำหรับองค์กรโดยเฉพาะ ด้วยการใช้สถาปัตยกรรมของ YARN เป็นหลัก โดยมีวัตถุประสงค์เพื่อทำการจัดเก็บและวิเคราะห์ข้อมูลขนาดใหญ่จำนวนมหาศาล โดยองค์กรสามารถรวบรวมข้อมูลจากระบบต่าง ๆ ให้ผู้ใช้งานสามารถนำข้อมูลเหล่านี้ไปใช้วิเคราะห์ตอบโจทย์และต่อยอดได้หลากหลาย

นอกจากความสามารถในการจัดการข้อมูลขนาดใหญ่และการวิเคราะห์ข้อมูลอันชาญฉลาดแล้ว HDP ยังรวมเอาการจัดการด้าน Security และ Governance เพื่อตอบโจทย์สำหรับองค์กรที่อาจมีการนำข้อมูลสำคัญทางธุรกิจ มาใช้วิเคราะห์และมีความปลอดภัยในการเข้าถึง ไปจนถึงมีระบบในการบริหารจัดการแบบรวมศูนย์หรือ Orchestration เพื่อให้การจัดการ Big Data Analytics เป็นไปได้อย่างอัตโนมัติและมีประสิทธิภาพ

ในเชิงการวิเคราะห์ข้อมูลนั้น HDP สามารถรองรับได้ทั้งแต่ระดับของการ Query ข้อมูลทั่วไป, การแปลงข้อมูลรูปแบบต่าง ๆ ให้สามารถเชื่อมต่อและเข้าถึงโดยวิธีการที่กำหนด, การนำข้อมูลจากหลายแหล่งมาวิเคราะห์ร่วมกัน, การทำ Machine Learning ไปจนถึงการทำ Deep Learning เพื่อต่อยอดไปยังระบบ AI ได้ทันที

HDP สามารถใช้งานได้ทั้งแบบ On-premises, Public Cloud, Hybrid Cloud ไปจนถึง Multi-Tenant Cluster ทำให้สามารถตอบโจทย์ได้ทั้งสำหรับธุรกิจขนาดกลางไปจนถึงขนาดใหญ่ได้อย่างครบถ้วน

ผู้ที่สนใจสามารถศึกษารายละเอียดเพิ่มเติมเกี่ยวกับ HDP ได้ที่ https://hortonworks.com/products/data-platforms/hdp/

 

Hortonworks Data Flow (HDF) จัดการ Real-time and Live Stream Data ปริมาณมหาศาล รองรับ IoT

 

Credit: Hortonworks

 

ถึงแม้ความสามารถของ HDP นั้นจะถือว่าหลากหลายและตอบโจทย์ของธุรกิจในส่วนของ Big Data Analytics ได้แล้ว แต่ HDP เองนั้นก็ไม่ได้ครอบคลุมการใช้งานได้ในทุกกรณี เนื่องจากการวิเคราะห์ข้อมูลที่ถูกส่งเข้ามาแบบ Real-time นั้นต้องมีการใช้เทคโนโลยีที่แตกต่างออกไป และ Hortonworks ก็ให้ความสำคัญกับการใช้งานในส่วนนี้ โดยทำการพัฒนาผลิตภัณฑ์อย่าง HDF ขึ้นมาเสริมความสามารถด้านการวิเคราะห์ Real-time Data โดยเฉพาะ เพื่อรองรับ Internet of Things (IoT) Application ที่กำลังเติบโตอย่างรวดเร็วในปัจจุบัน

HDF นี้จะทำการรวมเอาเทคโนโลยี Open Source Software ทางด้าน Flow Management และ Streaming Analytics อย่าง Apache NiFi, MiNiFi, Kafka, และ Storm เข้าไว้ด้วยกัน ทำให้สามารถวิเคราะห์ข้อมูลที่ถูกส่งเข้ามาเป็นแบบ Live Stream จากแหล่งต่าง ๆ ได้อย่างทันท่วงที อีกทั้งยังสามารถทำการส่งข้อมูลเชื่อมต่อไปยัง HDP เพื่อทำการจัดเก็บข้อมูลเอาไว้ใช้ในการวิเคราะห์เพิ่มเติมภายหลังได้อีกด้วย

ผู้ที่สนใจสามารถศึกษารายละเอียดเพิ่มเติมเกี่ยวกับ HDF ได้ที่ https://hortonworks.com/products/data-platforms/hdf/

 

เสริมประสิทธิภาพและความยืดหยุ่นให้ Hortonworks ด้วยโซลูชันหลากหลายจาก IBM

 

Credit: IBM

 

ไอบีเอ็มเองเป็นผู้นำในส่วนของเอ็นเทอร์ไพรส์แพลตฟอร์ม โซลูชันทางด้านซอฟท์แวร์ และโซลูชันทางด้าน Congitive และ AI ได้ให้ความสำคัญกับเทคโนโลยีทางด้าน Big Data Analytics เป็นอย่างมากมาโดยตลอด การจับมือเป็นพันธมิตรร่วมกับ Hortonworks ในครั้งนี้ จึงเป็นทางเลือกที่ดีที่สุดสำหรับองค์กรชั้นนำทั่วโลก รวมไปถึงองค์กรที่ต้องการโซลูชันทางด้าน Big Data Analytics ที่ครบวงจร สามารถนำ Hortonworks ไปใช้ได้อย่างมีประสิทธิภาพด้วยทีมงานเปี่ยมประสบการณ์จาก IBM อีกทั้งยังได้มีการพัฒนาเทคโนโลยีใหม่ๆ หรือนำเทคโนโลยีที่ IBM เองมีอยู่มาเสริมให้กับโซลูชันของ Hortonworks ดังนี้

 

IBM Power Systems

แพลตฟอร์มเซิร์ฟเวอร์สำหรับงานที่ต้องการ High Performance ของไอบีเอ็ม ซึ่งปัจจุบันด้วยด้วยประมวลผลหลักบนสถาปัตยกรรมโพรเซสเซอร์ IBM POWER9 ที่ถูกออกแบบมาเพื่องานที่ต้องการประสิทธิภาพการประมวลผลข้อมูลให้ถึงขีดสุด และสามารถเข้าถึงหน่วยความจำและข้อมูลต่างได้ด้วยความรวดเร็ว ทั้งยังออกแบบมาให้สามารถทำงานได้อย่างทนทาน รองรับการทำงานตลอดเวลา 24×7 อีกทั้งยังสามารถติดตั้งการ์ดประมวลผล GPU V100 รุ่นล่าสุดจาก NVIDIA เพื่อรองรับการคำนวณข้อมูลประสิทธิภาพสูงในระบบ Deep Learning ในอนาคตได้อีกด้วย

 

IBM Spectrum Scale

ซอฟท์แวร์บริหารจัดการข้อมูลในรูปแบบ Parallel File System ประสิทธิภาพสูงของไอบีเอ็ม ที่จะช่วยให้ Hortonworks HDP สามารถทำหน้าที่เป็น Storage Cluster ขนาดใหญ่ รองรับระบบ Big Data Analytics และการเข้าถึงจากหลายๆ ระบบพร้อมกันได้ทันที เนื่องจากสนับสนุนโพรโตคอลที่หลากหลายไม่ว่าจะเป็น NFS, SMB, Object, POSIX และ HDFS API ลดความซ้ำซ้อนในการที่องค์กรเคยต้องจัดการเก็บข้อมูลบนอุปกรณ์สตอเรจที่หลากหลาย มีเทคโนโลยีที่เรียกว่า Automated Data Placement Policy ที่สามารถจัดการย้ายข้อมูลยังอุปกรณ์สตอเรจต่างกัน เช่น Flash Drive, SAS, NL-SAS, รวมไปถึงการย้ายข้อมูลขึ้นเทปหรือคลาวด์ได้อีกด้วย ทั้งยังรองรับการ Replicate ข้อมูลข้าม Data Center และเพิ่มขยายประสิทธิภาพเพื่อรองรับการเติมโตของระบบอย่างไร้ขีดจำกัดตามความต้องการอีกด้วย

 

นอกจากแพลตฟอร์มที่ทรงประสิทธิภาพ เพื่อรองรับงาน Big Data Analytics แล้ว ไอบีเอ็มและ Hortonworks ยังประสานความร่วมมือในการต่อยอดซอฟท์แวร์อื่นๆ ให้สมบูรณ์ยิ่งขึ้นได้แก่

 

IBM BigSQL Plug-in

ระบบ Hybrid SQL Engine ประสิทธิภาพสูง Apache Hadoop ที่จะช่วยให้การเข้าถึงข้อมูลจาก Hive, HBase และ Spark สามารถเกิดขึ้นได้ง่ายขึ้น ด้วยการเชื่อมต่อเพียงฐานข้อมูลเดียว ช่วยลดความซับซ้อนในการนำข้อมูลไปใช้งานอีกทั้งยังมีประสิทธิภาพสูง รวมถึงยังรองรับการ Query ข้อมูลที่มีความซับซ้อนขึ้นได้สะดวกยิ่งขึ้น ทำให้การนำข้อมูลไปใช้วิเคราะห์นั้นมีประสิทธิภาพดีขึ้นเป็นอย่างมาก

 

IBM Data Science Experience (DSX)

ไอบีเอ็มยังมีแพลตฟอร์มสำเร็จรูปสำหรับเหล่านักพัฒนาระบบและ Data Scientist โดยเฉพาะ ที่มีชื่อว่า IBM Data Science Experience (DSX) ซึ่งมีเครื่องมือสำหรับการรวบรวม ปรับแต่ง และวิเคราะห์ข้อมูลครบวงจรแบบ End-to-End พร้อมให้เหล่า Data Scientist เข้ามา Collaborate หรือทำงานร่วมกันได้อย่างมีประสิทธิภาพ ด้วยหน้าจอในรูปแบบ Studio ที่คุ้นเคย ใช้งานง่าย ไม่ซับซ้อน พร้อมทั้งเครื่องมือสำเร็จรูปพร้อมใช้ ช่วยให้การบริหารจัดการโครงการการวิเคราะห์ข้อมูลของแต่ละคนหรือแต่ละแผนกทำงานประสานกันได้อย่างเป็นระบบ ทำให้องค์กรสามารถสร้าง Workflow ในการทำงานร่วมกันอย่างเป็นระเบียบแบบแผน ลดเวลาในการพัฒนาระบบได้เป็นอย่างมาก

 

IBM BigReplicate Plug-in

โซลูชันปลั๊กอินสำหรับการทำ Active-Active Data Replication สำหรับ Hadoop หรือระบบ Hortonworks HDP โดยเฉพาะ เสริมความทนทานให้กับระบบ Big Data Analytics ที่จะกลายเป็นหัวใจสำคัญขององค์กร รองรับทำการสำเนาข้อมูลจากระบบ Production ไปยังระบบ Development หรือระบบ Test เพื่อให้นักพัฒนาและ Data Scientist นำข้อมูลไปใช้ทดสอบหรือสร้างสรรค์ค้นหาสิ่งใหม่ ๆ ได้

 

IBM BigIntegrate

โซลูชันปลั๊กอินระบบ In-memory Data Integration ที่ช่วยให้การเชื่อมต่อกับระบบรอบข้างต่าง ๆ การทำ Data Profiling การจัดการกับ Metadata และการผสานระบบ Big Data Analytics เข้ากับระบบ IBM Streams ทำได้ง่าย และรวดเร็วนั่นเอง

 

ผู้ที่สนใจ ต้องการรายละเอียดเพิ่มเติม หรือต้องการใบเสนอราคา สามารถติดต่อขอคำปรึกษาเบื้องต้นได้ที่บริษัท Metro Connect Co.,Ltd โดยติดต่อ Ms.Narumon Pensiriwan โทร 02-089-4508, 093-231-6599 หรือ e-mail: narumpen@metroconnect.co.th website: http://www.metroconnect.co.th/

from:https://www.techtalkthai.com/big-data-analytics-with-ibm-and-hortonworks-by-metro-connect/

เปิดตัว Hortonworks HDP 3.0 รองรับ Container, GPU และ Cloud เพิ่มเติม

Hortonworks ได้ออกมาประกาศเปิดตัว HDP 3.0 เพื่อให้สามารถทำการวิเคราะห์ข้อมูลได้อย่างรวดเร็ว, ชาญฉลาด และยืดหยุ่นมากยิ่งขึ้น โดยมีความสามารถใหม่ๆ ที่น่าสนใจดังนี้

 

Credit: Hortonworks

 

  • ใช้ Apache Hadoop 3.1 เป็นเทคโนโลยีพื้นฐาน และใช้ Apache Hive 3.0
  • รองรับการทำ Container ในตัว ทำให้สามารถพัฒนาบริการรุ่นใหม่ๆ ขึ้นมาทำการวิเคราะห์ข้อมูลได้ทันทีโดยที่ไม่ต้องหยุดบริการเดิม
  • สามารถทำ GPU Pooling เพื่อประมวลผลข้อมูลสำหรับทำ Machine Learning และ Deep Learning ได้อย่างคุ้มค่า หรือจะทำ GPU Isolation เพื่อเน้นประสิทธิภาพสำหรับแต่ละ Application เต็มๆ ก็ได้
  • ทำ Automated Cloud Provisioning ได้ และทำงานกับ Object Storage ชั้นนำบน Cloud อย่าง Amazon S3, Azure Data Lake Store (ADLS), Azure Storage Blob และ Google Cloud Storage (GCS) ได้แล้วในแบบ Technical Preview
  • สามารถใช้ Cloudbreak เพื่อ Provision ระบบไปยัง Cloud ที่ต้องการได้
  • เพิ่ม Service Connector สำหรับ Apache HBase และ S3 ในแบบ Technical Preview
  • รองรับการใช้ Apache Spark ร่วมกับ S3Guard ได้
  • รองรับ TensorFlow ได้แล้วแบบ Technical Preview
  • เพิ่มขยายระบบและเสริมความทนทานได้ด้วยการทำ NameNode Federation
  • ใช้ Erasure Coding เพิ่มความคุ้มค่าและความทนทานในการจัดเก็บข้อมูล
  • มี Real-time Database รองรับการ Query ข้อมูล Real-time และข้อมูลในอดีตพร้อมๆ กันได้
  • รองรับ GDPR ได้แล้ว

ปัจจุบัน Hortonworks HDP 3.0 เปิดให้บริการแบบ Early Access อยู่ที่ https://hortonworks.com/info/early-access-hdp-3-0/

 

ที่มา: https://hortonworks.com/blog/announcing-hdp-3-0-faster-smarter-hybrid-data/

from:https://www.techtalkthai.com/hortonworks-hdp-3-0-is-announced/

นักวิจัยค้นพบ Hadoop ทั่วโลกมีข้อมูลรั่ว 5 Petabyte เหตุจากตั้งค่าไม่ปลอดภัย

John Matherly ผู้ก่อตั้ง Shodan ได้ออกมาเปิดเผยถึงการค้นพบว่ามี Server ที่ใช้งาน Apache Hadoop ทั่วโลกนั้น มีข้อมูลรั่วรวมกันทั้งสิ้นเกินกว่า 5 Petabyte หรือเกินกว่า 5,000 Terabyte เลยทีเดียว

Credit: Shodan

 

ข้อมูลทั้งหมดนั้นมาจาก HDFS-based Server จำนวนกว่า 4,487 Instance ทั่วโลก ที่มี Public IP Address และไม่ได้ทำการกำหนดค่าเรื่องการยืนยันตัวตนใดๆ ก่อนการเข้าถึงข้อมูลเลย ทำให้คนทั่วไปสามารถเข้าถึงข้อมูลเหล่านั้นได้อย่างอิสระ โดยระบบส่วนใหญ่ที่ถูกค้นพบนี้อยู่ในประเทศสหรัฐอเมริกาและจีนแทบทั้งหมด

นอกจากประเด็นด้านการถูกเข้าถึงข้อมูลโดยไม่ได้รับอนุญาตแล้ว เหล่าผู้ใช้งาน Apache Hadoop ที่ไม่ระมัดระวังเหล่านี้เองก็ควรจะต้องเกรงกลัว Ransomware กันบ้างเช่นกัน เพราะเมื่อต้นปีที่ผ่านมามีเหตุการณ์ Ransomware โจมตี Hadoop ไปแล้วเกือบ 500 เครื่อง และแน่นอนว่าด้วยข้อมูลปริมาณมหาศาลภายในระบบ Big Data เหล่านั้น การถูกเข้ารหัสไปแบบนี้คงไม่สามารถกู้คืนมาได้อย่างง่ายดายนัก

ก่อนหน้านี้ก็เคยมีเหตุการณ์ใกล้เคียงกับลักษณะนี้เกิดขึ้นมาแล้ว โดย MongoDB ที่มี Public IP Address ทั่วโลกนั้นมีข้อมูลรั่วออกมา 25TB จากการตั้งค่าเอาไว้ไม่ปลอดภัย ในขณะที่ Binary Edge ก็เคยออกรายงานเมื่อปี 2015 ว่ามีข้อมูลรั่วจาก Redis, MongoDB, Memchaced และ ElasticSearch รวมกันที่ 1.1 Petabyte เท่านั้น แต่กรณีที่เกิดกับ Hadoop นี้ถือว่าข้อมูลที่รั่วออกมานั้นใหญ่กว่ามากด้วยตัวเลขเกินกว่า 5 Petabyte

ทาง Bleeping Computer ได้แนะนำลิงค์สำหรับการตั้งค่า Apache Hadoop ให้ปลอดภัยเอาไว้ที่ http://hadoop.apache.org/docs/r2.8.0/hadoop-project-dist/hadoop-common/SecureMode.html ครับ

 

ที่มา: https://www.bleepingcomputer.com/news/security/hadoop-servers-expose-over-5-petabytes-of-data/

from:https://www.techtalkthai.com/hadoop-servers-leak-5-petabytes/

ผลการทดสอบ TPCx-BigBench ชี้ Dell EMC ขึ้นแท่นอันดับ 1 ด้านความคุ้มค่าสูงสุดสำหรับโซลูชัน Hadoop

Dell EMC ได้ผ่านการทดสอบ TPCx-BigBench (TPCx-BB) เพื่อทดสอบประสิทธิภาพการทำงานรองรับโซลูชัน Hadoop และได้กลายเป็นอันดับ 1 ของการทดสอบนี้ในแง่ของ Price/Performance ไปเป็นที่เรียบร้อย

ผลการทดสอบ TPCx-BigBench for Scale Factor 10000 นี้ถูกเผยแพร่เมื่อวันที่ 13 พฤษภาคม 2017 โดยชี้ว่า Dell EMC Ready Bundle for Cloudera Hadoop และ Dell EMC PowerEdge R730XD นั้นมีค่าความคุ้มค่าแบบ Price/Performance เป็นอันดับ 1 ในการทดสอบทั้งหมดที่ผ่านมา และกลายเป็นตัวเลือกของ Server Hardware ที่น่าสนใจมากสำหรับการนำไปใช้ในระบบ Big Data Analytics ที่มี Apache Hadoop เป็นศูนย์กลาง อีกทั้ง Dell EMC ยังได้กลายเป็นผู้ผลิตรายแรกที่ได้ตีพิมพ์ผลการทดสอบแบบ SF10000 ซึ่งถือว่าเป็นการทดสอบกับ Data Set ขนาดใหญ่ที่สุดที่ 10TB และทำให้ต้องใช้ประสิทธิภาพในการทดสอบที่สูงกว่าการทดสอบอื่นๆ ที่ผ่านมา

ทั้งนี้ ผลการทดสอบมีดังนี้ครับ

Credit: Dell EMC

Load Test: 3,955.78s
Power Test: 53,087.39s
Throughput Test: 88,714.53s
Performance Metric: 495.283 BBQpm@SF10000
Total System Cost: $439,187
Price/Performance: 886.75 $/BBQpm@SF10000
Availability Date: May 12, 2017

Dell EMC เชื่อว่าการนำโซลูชันของตนไปเข้ารับการทดสอบในลักษณะนี้ จะทำให้เหล่าองค์กรสามารถตัดสินใจออกแบบและลงทุนใน Hardware สำหรับระบบ Big Data Analytics ได้ง่ายขึ้น และทำให้อัตราความล้มเหลวของโครงการ Big Data Analytics ทั่วโลกลดน้อยลงได้

สำหรับผลการทดสอบฉบับเต็มสามารถตรวจสอบได้ที่ http://www.tpc.org/tpcx-bb/results/tpcxbb_results.asp ครับ

 

ที่มา: http://bigdatablog.emc.com/2017/05/26/dell-emc-takes-1-position-on-tpcx-big-bench-for-scale-factor-10000/

from:https://www.techtalkthai.com/dell-emc-becomes-no-1-in-tpcx-bigbench-price-performance-testing/

[สัมภาษณ์พิเศษ] อนาคตของเทคโนโลยี Flash และ Storage ระดับองค์กร ในมุมมองของ IBM

ในงาน IBM ASEAN Connect 2017 ทางทีมงาน TechTalkThai มีโอกาสได้สัมภาษณ์กับทางคุณ Craig McKenna ผู้ดำรงตำแหน่ง Director ของ Cloud & Cognitive Data Solutions แห่ง IBM Systems ในประเด็นเกี่ยวกับ IT Infrastructure เป็นหลัก ซึ่งครอบคลุมถึงอนาคตของเทคโนโลยี Flash และ Storage สำหรับองค์กร ซึ่งครอบคลุมถึงทั้งสถาปัตยกรรมที่จะมาในอนาคตสำหรับ Flash, อนาคตของ Tape, การรองรับ Big Data Analytics ไปจนถึงการออกแบบระบบ Storage สำหรับ Blockchain ในกรณีที่ต้องการทำ On-premises จึงขอนำมาสรุปเอาไว้ให้ได้อ่านกันดังนี้

คุณ Craig McKenna ผู้ดำรงตำแหน่ง Director ของ Cloud & Cognitive Data Solutions แห่ง IBM Systems

 

ทำไม IBM ถึงเลือกที่จะพัฒนาผลิตภัณฑ์หลาย Line ในกลุ่มของ Storage?

ปัจจุบัน IBM นี้มี Product Portfolio ที่หลากหลายมากสำหรับระบบ Storage เนื่องจาก IBM นั้นมีความเชื่อว่าเทคโนโลยีของ Storage นั้นไม่สามารถออกแบบให้ระบบเดียวสามารถรองรับ Workload ได้ครบทุกแบบอย่างมีประสิทธิภาพ และเทคโนโลยีเดียวกันบน Hardware ที่ต่างกันก็รองรับ Workload ได้ต่างกันแล้ว ทำให้ IBM มีการแบ่งผลิตภัณฑ์ทางด้านระบบ Storage ที่หลากหลายมาก ทั้งการแบ่งตาม Software ของระบบ Storage ที่ใช้ และการแบ่งตาม Hardware Platform รวมถึงแบ่งตามการขายแบบ Software Only หรือ Cloud ด้วย

ระบบ Storage ของ IBM นี้ออกแบบมาเป็น Software-defined Storage (SDS) แทบทั้งหมด เพื่อให้เกิดความยืดหยุ่นในการเลือกใช้ IT Infrastructure ได้ตามความต้องการขององค์กรที่แตกต่างกันไป และด้วยการออกแบบระบบให้เป็น SDS เป็นหลักนี้ก็ทำให้แทบทุกผลิตภัณฑ์ของ IBM สามารถถูกนำเสนอได้ทั้งในฐานะของ Software หรือ Bundle ชุดรวมเป็น Hardware Appliance หรือผูกเข้ากับบริการ Cloud ก็ได้ทั้งนั้น ในขณะที่การเลือก Media ที่ใช้บันทึกข้อมูลก็จะทำให้ IBM สามารถแบ่งผลิตภัณฑ์ออกเป็น All Flash, Hybrid หรือ Disk ได้อีก

 

อนาคตของ All Flash Array จะเป็นอย่างไร? อะไรจะมาถัดจาก Flash?

IBM เชื่อว่าสุดท้ายแล้ว Flash จะสามารถรองรับ Workload ได้ทุกรูปแบบ แต่เพื่อไปให้ถึงเป้าหมายนั้นสุดท้ายแล้ว Flash เองก็จะถูกแบ่งออกเป็นหลายๆ ประเภท และแต่ละประเภทก็จะมี Workload ในรูปแบบที่เหมาะสมแตกต่างกันไป ซึ่งเมื่อนำ Flash ทุกๆ แบบมารวมกันภายในระบบแล้ว โลกเราก็จะไปถึงปลายทางของ Flash for Any Workload ได้จริง

เมื่อถึงจุดนั้นแล้ว โลกของเราจะมีทั้ง Flash ที่มี Characteristic หรือคุณลักษณะเฉพาะตัวที่แตกต่างกัน เช่น ประสิทธิภาพสูง/ต่ำ, Flash ที่มีความจุสูง/ต่ำ, Flash ที่มีราคาแพง/ถูก รวมถึงเทคโนโลยีที่นำ Flash เหล่านั้นไปใช้ซึ่งจะมีความแตกต่างกัน และเราก็จะกลับไปสู่จุดของการทำ Storage Tiering ระหว่าง All Flash Array ที่มีความแตกต่างหลากหลายเหล่านี้

ส่วนเทคโนโลยีที่จะมาถัดจาก Flash นี้จะถูกเรียกว่า Storage Class Memory ซึ่งจะช่วยลด Latency จากการเข้าถึงข้อมูลภายใน Flash ที่หลัก Microsecond ให้เหลือเพียงหลัก Nanosecond บน Storage Class Memory แทน

 

Tape ยังเป็นเทคโนโลยีที่มีอนาคตอีกหรือไม่? ในเมื่อ Flash นั้นมีขนาดที่ใหญ้ขึ้นและราคาถูกลงทุกวัน?

ทาง IBM ยืนยันว่า Tape นั้นจะยังคงอยู่คู่กับตลาดองค์กรไปอีกระยะหนึ่งแน่นอน เพราะเทคโนโลยีของ Tape นั้นก็มีการพัฒนาก้าวหน้าไปทุกวัน และคุณลักษณะเฉพาะตัวของ Tape นั้นก็ยังไม่อาจหาอุปกรณ์รูปแบบอื่นๆ มาทดแทนได้ง่ายนัก แต่แน่นอนว่าด้วยความเปลี่ยนแปลงของเทคโนโลยีที่เกิดขึ้นนี้ ก็จะทำให้อุปกรณ์จัดเก็บข้อมูลแต่ละแบบนั้นต้องเปลี่ยนบทบาทกันไป รวมถึง Tape เองด้วยเช่นกัน

Tape นั้นกลายเป็นทางเลือกที่มีความเหมาะสมสำหรับการจัดเก็บข้อมูลแบบ Long Term Archive เช่น การจัดเก็บประวัติผู้ป่วยและข้อมูลทางการแพทย์, การจัดเก็บข้อมูลการดำเนินธุรกิจย้อนหลัง และการจัดเก็บข้อมูลอื่นๆ ที่กฎหมายบังคับเอาไว้ว่าจะต้องเก็บย้อนหลังเป็นระยะเวลานานหลายปี

ในเชิงสถาปัตยกรรมก็เปลี่ยนไปเช่นกัน เดิมที Tape นั้นมักจะถูกออกแบบเป็น Tier สุดท้ายในการเชื่อมต่อ ที่แยกขาดจากระบบ Storage อื่นๆ ค่อนข้างชัดเจน แต่ในอนาคตอันใกล้นี้ แนวคิดของการทำ Storage Pooling ระหว่างระบบ Storage หลากหลายเทคโนโลยีเข้าด้วยกันกำลังจะมาถึง และการเขียนอ่านข้อมูลทั้งหมดจะถูกควบคุมด้วย Policy ว่าข้อมูลประเภทไหน, ขนาดเท่าใด, อายุเท่าไหร่ และนำไปใช้งานอะไรจะถูกบันทึกลงไปที่อุปกรณ์ Storage แบบไหนบ้าง ซึ่ง Tape เองก็จะอยู่ภายใน Pool นี้และถูกเขียนข้อมูลด้วย Policy ของการทำ Archive เป็นหลัก

 

องค์กรมีทางเลือกอย่างไรในการออกแบบ Storage สำหรับระบบ Big Data บ้าง? และการสำรองข้อมูล Big Data จะทำได้อย่างไร?

โดยทั่วไปสำหรับองค์กรในปัจจุบันที่กำลังจะทำโครงการ Big Data Analytics นั้น มักจะแบ่งเหตุผลทางธุรกิจออกเป็น 2 แนวทาง ได้แก่

  1. โครงการในกลุ่มของการทำ Optimization ภายในองค์กร ซึ่งสามารถประเมิน ROI หรือความคุ้มค่าได้ง่าย จากการตั้งเป้าหมายเชิงตัวเลขที่อยากไปให้ถึง และคำนวนกลับมาเป็นค่าใช้จ่าย ก็จะทำให้องค์กรรู้แล้วว่าด้วยความคุ้มค่าระดับเท่านี้ องค์กรควรจะใช้งบประมาณในการลงทุนเท่าใดถึงจะยังคุ้มค่าอยู่
  2. โครงการในกลุ่มของการสร้างนวัตกรรมใหม่ๆ ที่ยังไม่รู้ว่าจะประสบความสำเร็จหรือไม่ ทำให้การประเมิน ROI นั้นทำได้ค่อนข้างยาก การกำหนดงบประมาณในการลงทุนนั้นก็จึงต้องอาศัยจากตัวเลขอื่นๆ แทน เช่น สภาพคล่องของธุรกิจ เป็นต้น

จากข้อมูลตรงส่วนนี้จะนำไปสู่ประเด็นที่ว่า องค์กรนั้นมีทางเลือกในการออกแบบและการลงทุน Storage ด้วยกัน 2 ทาง ได้แก่

  1. การพัฒนาระบบเสริมต่อยอดขึ้นมาจากระบบเดิม โดยสร้างระบบย่อยสำหรับทำการรวบรวมข้อมูลจากระบบอื่นๆ และนำมาทำการวิเคราะห์โดยเฉพาะแยกต่างหาก ก็จะทำให้องค์กรสามารถเสริมการลงทุนเพิ่มขึ้นได้โดยไม่ต้องเปลี่ยนระบบใหม่ทั้งระบบ
  2. การพัฒนาระบบใหม่ด้วยการใช้เทคโนโลยีที่รองรับการทำ Big Data Analytics เลย เช่น Apache Hadoop, Apache Spark, MongoDB และอื่นๆ เพื่อลดขั้นตอนของการทำ ETL ลงไป และทำให้ทุกๆ โครงการของการวิเคราะห์ข้อมูลนั้นสามารถเข้าถึงข้อมูลในรูปแบบต่างๆ ได้อย่างยืดหยุ่นและรวดเร็ว

ซึ่งการเก็บข้อมูลในรูปแบบ On-premises หรือ Cloud นั้นก็สามารถทำได้ทั้งคู่ในกรณีนี้ (IBM มี Cleversafe บริการ Cloud Object Storage สำหรับองค์กรพร้อมความปลอดภัยในระดับสูง) ส่วนการสำรองข้อมูลของระบบ Big Data นั้นถือเป็นทั้งงานที่สำคัญและงานที่ท้าทายมากในเวลาเดียวกัน เพราะการสำรองข้อมูลขนาดใหญ่มาก นอกจากจะมีประเด็นทางด้านค่าใช้จ่ายแล้ว ประเด็นทางด้านประสิทธิภาพก็ถือเป็นโจทย์ที่ยากไม่แพ้กัน ซึ่งระบบ Big Data Analytics ส่วนใหญ่นั้นก็มักจะต้องมีการจัดเก็บข้อมูลด้วยเทคโนโลยี Distributed File System หรือ Distributed Database เป็นหลัก และมีการจัดเก็บข้อมูลหลาย Copy อยู่แล้ว จึงควรนำข้อดีตรงนี้มาใช้ให้เป็นประโยชน์ด้วย

จากมุมมองนี้ จะเห็นได้ว่าการทำ Full Backup กับข้อมูลขนาดใหญ่นี้เป็นเรื่องที่แทบจะเป็นจริงไม่ได้เลย ดังนั้นการทำ Incremental Backup อย่างต่อเนื่องนั้นจึงเป็นทางเลือกที่เหมาะสมกว่ามากในระยะยาว แต่โจทย์ของการทำ Full Backup ในครั้งแรกก็ยังคงมีอยู่ ซึ่งแต่ละเทคโนโลยีของระบบจัดเก็บข้อมูลก็จะมีวิธีการที่แตกต่างกันไป รวมถึง IBM GPFS เองก็เช่นกัน และการเลือก Integrate ระบบเข้ากับระบบสำรองข้อมูลรูปแบบต่างๆ นั้นก็ถือเป็นทางเลือกที่ต้องทำการศึกษาและทดสอบให้ดี

แน่นอนว่าการ Archive Cold Data ที่ไม่ได้มีการเข้าถึงบ่อยในสื่อที่มีความจุสูง, มีความทนทานสูง, มีราคาต่ำ และทำการลดขนาดข้อมูลให้เล็กลงด้วยการทำ Compression หรือ Deduplication นั้นก็ถือเป็นเรื่องสำคัญที่ควรทำด้วยเช่นกัน

 

อนาคตของ IBM Power เป็นอย่างไร?

ในยุคที่พลังประมวลผลมีความสำคัญมากกับทุก Application สมัยใหม่ ไม่ว่าจะเป็น AI, Big Data หรือ Cognitive Computing ก็ตาม ทำให้ IBM Power ที่ออกแบบมาโดยเน้นประสิทธิภาพการประมวลผลเป็นพิเศษนี้มีแนวโน้มที่ดีมาก จากการออกแบบ Memory Bus ขนาดใหญ่ และมี Interconnect ที่หลากหลาย ส่งผลให้ในภาพรวมแล้ว IBM Power นั้นมี Price/Performance ที่ดี อีกทั้งยังมี OpenPower สถาปัตยกรรมแบบ Open Source สำหรับให้ธุรกิจขนาดใหญ่นำไปพัฒนาต่อยอดตอบโจทย์ของ Hyperscale Data Center ด้วย

 

Data Privacy เป็นประเด็นกับ IBM Cloud หรือไม่? หากมีหน่วยงานรัฐมาขอให้เปิดเผยข้อมูลองค์กรที่เป็นลูกค้าอยู่ IBM จะทำอย่างไร?

IBM นั้นได้เตรียมรับมือกับประเด็นที่มีความละเอียดอ่อนเหล่านี้แล้ว โดยการใช้เทคโนโลยี Encryption เข้ามาช่วย ซึ่งผู้ที่ถือครองกุญแจในการเข้าและถอดรหัสนั้นก็คือองค์กรของลูกค้าเอง ดังนั้นถึงแม้ IBM จะเป็นคนดูแล IT Infrastructure ที่อยู่บน Cloud ของแต่ละองค์กร แต่พนักงานของ IBM เองก็ไม่สามารถเข้าถึงข้อมูลเหล่านั้นหรือถอดรหัสออกมาได้เลย ดังนั้นหากมีการร้องขอข้อมูลเกิดขึ้น ก็ต้องไปร้องขอกับทางองค์กรซึ่งเป็นเจ้าของข้อมูลตัวจริงเองเท่านั้น

 

สำหรับองค์กรที่สนใจเทคโนโลยี Blockchain จะออกแบบระบบ Storage เพื่อรองรับ Blockchain ได้อย่างไร?

ประเด็นนี้ถือเป็นประเด็นที่น่าสนใจที่คนไม่ค่อยได้พูดถึงกัน เพราะสถาปัตยกรรมการทำงานของ Blockchain เองนั้นมุ่งเน้นไปที่ความถูกต้องของข้อมูลและความปลอดภัยเป็นหลัก ทำให้ต้องมีการออกแบบการกระจายข้อมูลแบบ Distributed และการสอบเทียบข้อมูลระหว่างกัน ซึ่งกระบวนการเหล่านี้เองก็กินเวลาค่อนข้างมาก ทำให้คอขวดส่วนใหญ่ของระบบนั้นไม่ได้อยู่ที่ CPU, RAM, Network หรือ Storage แต่อยู่ในชั้น Software ของระบบ Blockchain เอง ความเร็วของ Storage จึงไม่จำเป็นนัก

และด้วยความที่ระบบเป็นแบบกระจายตัว ดังนั้นการเลือกใช้ Server, Storage Server หรือบริการ Cloud ไปเลยก็จะเป็นหนทางที่เหมาะสมกว่าสำหรับ Blockchain แทนที่จะมาใช้ระบบ Storage เต็มตัว และการเสริมความปลอดภัยด้วยการเข้ารหัสเพิ่มเติมในระดับของ Hardware หรืออื่นๆ ก็เป็นทางเลือกที่อาจพิจารณาเพิ่มเติมได้เช่นกัน

from:https://www.techtalkthai.com/interview-with-craig-mckenna-director-of-cloud-and-cognitive-data-solutions-ibm-systems-on-the-future-of-storage/

Yahoo เปิดโอเพ่นซอร์สโปรเจค TensorFlowOnSpark ให้นักพัฒนารัน TensorFlow บน Hadoop และ Spark อย่างง่ายๆ

Yahoo เปิดโอเพ่นซอร์ส library ที่เชื่อม TensorFlow เข้ากับ Apache Hadoop และ Spark เพื่อมให้นักพัฒนาสร้างโมเดล deep learning ที่ใช้ความสามารถของ Spark ในการเพิ่มขยายระบบและรันแบบ distributed ผ่าน CPU และ GPU ของ server cluster

Credit: http://yahoohadoop.tumblr.com

หลังจากได้ทดลองเครื่องมือที่มีอยู่แล้วอย่าง SparkNet และ TensorFrame เพื่อเชื่อมต่อ TensorFlow เข้ากับ Spark แต่ผลไม่เป็นที่น่าพอใจนัก นักพัฒนาของ Yahoo จึงเริ่มพัฒนาโปรเจค TensorFlowOnSpark ซึ่งทำให้สามารถรัน TensorFlow ร่วมกับ Spark ได้

จุดเด่นของ TensorFlowOnSpark มีดังนี้

  • แปลงโค้ดจากโปรแกรม TensorFlow ที่มีอยู่แล้วได้ง่ายๆ
  • รองรับฟังก์ชั่นของ TensorFlow ทั้งหมด: การเทรนแบบ synchronous/asynchronous, โมเดลและข้อมูลแบบ parallel, inferencing and TensorBoard
  • การสื่อสารระหว่างเซิฟเวอร์โดยตรงทำให้โมเดลสามารถเรียนรู้ได้เร็วขึ้น
  • สามารถนำชุดข้อมูลเข้ามายัง HDFS ผ่าน Spark หรือดึงออกผ่าน TensorFlow
  • นำมาใช้งานร่วมกับ data processing pipeline และ library เช่น MLlib หรือ CaffeOnSpark ได้โดยง่าย
  • มีการติดตั้งที่ง่ายทั้งบน cloud หรือ on-premise: CPU & GPU, ethernet และ Infiniband

Yahoo นับว่าเป็นผู้ใช้รายใหญ่รายหนึ่งของ Apache Spark เลยก็ว่าได้ โดยก่อนหน้านี้ Yahoo ได้เปิดโอเพ่นซอร์ส CaffeOnSpark ที่ช่วยให้นักพัฒนาสร้างโมเดล deep learning จาก Caffe ที่สามารถทำงานแบบ parallel ได้

 

ที่มา:

from:https://www.techtalkthai.com/yahoo-opensource-tensorflowspark/

Hadoop เริ่มตกเป็นเหยื่อของการโจมตีเรียกค่าไถ่ ผู้ใช้งานควรติดตั้งอย่างปลอดภัย

นักวิจัยด้านความปลอดภัยจากหลากหลายแห่งเริ่มตรวจพบสัญญาณเตือนว่า Apache Hadoop นั้นกำลังจะตกเป็นเหยื่อของการโจมตีเรียกค่าไถ่ในลักษณะที่คล้ายคลึงกับ Ransomware และเตือนให้เหล่าองค์กรต่างๆ ทำการตั้งค่า Apache Hadoop อย่างปลอดภัย

หลังจากที่ก่อนหน้านี้มีข่าวคราวของ MongoDB และ Elasticsearch ที่ถูกติดตั้งใช้งานอย่างไม่ปลอดภัยตกเป็นเหยื่อของการโจมตีเพื่อลบข้อมูลทิ้งทั้งหมดและเรียกค่าไถ่เพื่อนำข้อมูลเหล่านั้นกลับคืนมา เหล่านักวิจัยด้านความปลอดภัยก็เริ่มตรวจพบพฤติกรรมการ Scan หา Apache Hadoop บน Public Internet กันมากขึ้นเรื่อยๆ แล้วในตอนนี้

Fidelis Cybersecurity นั้นเริ่มตรวจพบการโจมตีลักษณะนี้และมีผู้ตกเป็นเหยื่อบ้างแล้วในบริการ Platform-as-a-Service ของผู้ให้บริการ Cloud ที่ไม่ได้ทำการตั้งค่าอย่างปลอดภัย และใช้การติดตั้งและตั้งค่าแบบ Default นั่นเอง

นอกจากนี้ทาง Fidelis ก็ยังตรวจเจอการโจมตีที่ไม่ได้เรียกค่าไถ่ แต่ลบข้อมูลทั้งหมดทิ้ง พร้อมตั้งชื่อ Folder ใหม่ว่า /NODATA4U_SECUREYOURSHIT เพื่อให้เจ้าของระบบทำการตั้งค่าให้ปลอดภัยนั่นเอง (แต่ข้อมูลหายหมดแล้ว)

ทางด้านรายงาน Internet Storm Center จาก SANS เองก็สนับสนุนประเด็นนี้เช่นกัน โดยในรายงานมีการตรวจพบการ Scan Port 50070 ซึ่งเป็น Default Port ของ Hadoop namenode เพื่อใช้ในการค้นหา Hadoop Distributed File System ที่อยู่บน Public Internet นั่นเอง

ส่วน 360 Netlab ของทาง Qihoo ก็ตรวจพบการ Scan ในลักษณะเดียวกันเช่นกันจาก IP Address เพียง 2 เบอร์ในประเทศจีน แต่ก็ยังสรุปไม่ได้ชัดเจนว่าการโจมตีนี้เกิดจากฝีมือ Hacker ชาวจีนหรือไม่จากหลักฐานเพียงแค่ IP Address เท่านั้น

ดังนั้นใครที่ใช้งาน Hadoop ก็ไปตั้งค่ากันให้ปลอดภัยด้วยนะครับ

 

ที่มา: http://www.theregister.co.uk/2017/01/19/insecure_hadoop_installs_under_attack/

from:https://www.techtalkthai.com/hadoop-now-becomes-target-of-ransom-attacks/

ลือ Microsoft กำลังซุ่มพัฒนา Open Mind ระบบ Visual Studio สำหรับ Machine Learning

เมื่อ Machine Learning กำลังจะกลายเป็นเรื่องของทุกๆ ธุรกิจ ก็มีข่าวลือออกมาว่าทาง Microsoft เองกำลังซุ่มพัฒนาเทคโนโลยีทางด้าน Machine Learning อยู่ภายใต้ชื่อโครงการ Open Mind Studio ที่จะทำหน้าที่เป็นเหมือน Visual Studio สำหรับการทำ Machine Learning โดยเฉพาะ

microsoft_opemind-768x431

รายละเอียดเบื้องลึกนั้นยังไม่เปิดเผยมากนัก แต่ก็มีภาพจากสไลด์ที่หลุดออกมาของ Qi Lu ผู้ดำรงตำแหน่ง Executive Vice President of Applications and Services แห่ง Microsoft ที่ระบุว่า Open Mind Studio นี้จะรองรับทั้งการทำ Machine Learning และ Deep Learning โดยสามารถเชื่อมต่อได้กับทั้ง CNTK, Caffe, MxNet, TensorFlow, Theano, Torch, Hadoop, Spark, SCOPE, ChaNa และอื่นๆ โดยสามารถทำงานบน Hardware ได้หลากหลายไม่ว่าจะเป็น CPU, GPU, FPGA, RDMA, Cloud และอื่นๆ

อันที่จริงก็ไม่ใช่เรื่องที่น่าแปลกใจมากนัก เพราะในบรรดาผู้ผลิตรายใหญ่ๆ Microsoft เองนั้นก็ถือเป็นองค์กรที่เริ่มเปิดกว้างในการรับเทคโนโลยีมากขึ้นอย่างเห็นได้ชัด การจะทำเครื่องมือที่สนับสนุนทุกเทคโนโลยีหลักในการทำ Machine Learning / Deep Learning เองก็เป็นสิ่งที่ตรงกับทิศทางของ Microsoft ในช่วงที่ผ่านมาอย่างเห็นได้ชัด

ที่มา: http://www.winbeta.org/news/microsofts-qi-lu-reveals-open-mind-visual-studio-machine-learning

from:https://www.techtalkthai.com/microsoft-might-be-developing-open-mind-the-visual-studio-for-machine-learning/

รู้จัก Dell Toad: ตัวช่วย Developer และ Database Administrator ให้ทำงานกับระบบฐานข้อมูลได้ง่ายขึ้น

dell_logo

การเติบโตของการใช้งาน Application ในระดับองค์กร และปริมาณของข้อมูลที่กำลังเติบโตขึ้นอย่างมหาศาลในปัจจุบันนี้ ทำให้ระบบฐานข้อมูลของแต่ละองค์กรนั้นทวีความสำคัญมากยิ่งขึ้น และการบริหารจัดการระบบฐานข้อมูลให้ได้อย่างมีประสิทธิภาพก็ถือเป็นหัวใจหนึ่งที่สำคัญของการดำเนินธุรกิจ Dell เข้าใจในจุดนี้เป็นอย่างดี และได้นำเสนอโซลูชัน Toad แก่เหล่าองค์กรทั่วโลกมากมาย เพื่อช่วยให้องค์กรเหล่านั้นสามารถสร้างคุณค่าใหม่ๆ จากระบบฐานข้อมูลภายในองค์กรได้มากยิ่งขึ้น ดังนี้

Credit: ShutterStock.com
Credit: ShutterStock.com

 

ช่วยให้การพัฒนาซอฟต์แวร์ที่ต้องเชื่อมต่อกับ Database มี Code Quality ดีขึ้น

Toad-for-Oracle-screenshot-6

Toad Software นั้นได้มีการผสานนำองค์ความรู้ทางด้าน Best Practice ในการเชื่อมต่อกับระบบ Database ชั้นนำจากหลากหลายยี่ห้อเอาไว้ในผลิตภัณฑ์ และสามารถทำงานร่วมกับเครื่องมือพัฒนา Software ต่างๆ เพื่อให้เหล่านักพัฒนาหรือ Developer นั้นสามารถสร้างโค้ดในส่วนที่เชื่อมต่อกับระบบ Database ได้จากการอ้างอิง Best Practice เหล่านั้น ทำให้โค้ดส่วนนี้มีทั้งประสิทธิภาพในการทำงานที่ดี, มีการเชื่อมต่อที่ปลอดภัย และง่ายต่อการปรับเปลี่ยนแก้ไขในอนาคต

Toad-for-Oracle-screenshot-8

นอกจากนี้ด้วย Module ของ Toad ที่จะช่วยดึงข้อมูลภายใน Database ออกมาแสดงให้นักพัฒนาได้เห็นในระหว่างพัฒนา ก็ทำให้การพัฒนา Software ในแต่ละส่วนนั้นมีความถูกต้องมากยิ่งขึ้น และมั่นใจได้มากยิ่งขึ้นว่าโค้ดต่างๆ ที่พัฒนาขึ้นมานี้จะสามารถทำงานได้อย่างถูกต้องตรงตามความต้องการของระบบ

 

ผู้ดูแลระบบฐานข้อมูลสามารถทำงานได้ง่ายขึ้น

Toad-for-Oracle-screenshot-3

Toad นั้นมีความสามารถรองรับในการบริหารจัดการระบบ Database ได้หลากหลายยี่ห้อแบบอัตโนมัติ ทำให้งานต่างๆ ของเหล่าผู้ดูแลระบบนั้นมีความรวดเร็วและแม่นยำมากยิ่งขึ้น, สามารถปรับแต่งประสิทธิภาพการทำงานของระบบได้ดีขึ้น และลดความเสี่ยงต่างๆ ที่อาจเกิดขึ้นกับ Database ได้ไปพร้อมๆ กัน อีกทั้งยังสามารถช่วยแจ้งเตือนปัญหาต่างๆ ที่เกิดขึ้นกับระบบ Database ให้เหล่า Database Administrator สามารถทำการแก้ไขปัญหาได้อย่างทันท่วงทีอีกด้วย

 

 

ตรวจสอบการทำงาน และวิเคราะห์รูปแบบการใช้งาน Database ทั้งหมดได้จากศูนย์กลาง

Toad-for-Oracle-screenshot-1

ภายในชุด Software ของ Toad นี้ยังได้พ่วงความสามารถในการทำ Database Monitoring และ Database Analytics เข้ามาเพื่อช่วยให้การติดตามการทำงานและการตรวจสอบประสิทธิภาพหรือการวิเคราะห์รูปแบบการใช้งานเป็นไปได้อย่างง่ายดายจากหน้าจอเดียว ทำให้การวางแผนการปรับแต่ง, การออกแบบระบบฐานข้อมูล หรือการลงทุนอัปเกรดระบบฐานข้อมูลนั้นสามารถทำได้อย่างแม่นยำด้วยข้อมูลการใช้งานจริงที่มีอยู่

Toad-for-Oracle-screenshot-9

 

รองรับฐานข้อมูลหลากหลาย ตอบโจทย์ทุกระบบสำหรับองค์กร

Toad นี้สามารถรองรับระบบ Database ได้หลากหลาย ไม่ว่าจะเป็น Oracle Database, IBM DB2, MySQL, Microsoft SQL Server, SAP รวมถึงโซลูชัน Big Data อย่าง Apache Hadoop และ NoSQL Database จากหลากหลายผู้ผลิต เพื่อให้องค์กรต่างๆ สามารถเลือกใช้เทคโนโลยีระบบ Database ที่เหมาะสมกับความต้องการที่สุดได้ ในขณะที่ Toad ก็ยังคงเป็นศูนย์กลางในการบริหารจัดการและพัฒนาซอฟต์แวร์เพื่อเชื่อมต่อกับระบบ Database ทั้งหมดได้อย่างต่อเนื่อง

 

Toad Extension for Eclipse: ปลั๊กอินใช้งานฟรี ช่วยให้พัฒนา Java ได้ดียิ่งขึ้น

สำหรับผู้ที่ใช้งาน Eclipse ในการพัฒนา Java Application นั้น Toad มีชุด Freeware Extension ให้สามารถโหลดไปใช้งานได้ฟรีๆ เพื่อทำให้การเขียนโค้ดส่วนที่เชื่อมต่อกับ Oracle, MySQL, PostgreSQL และ MongoDB เป็นไปได้อย่างง่ายดายและมีประสิทธิภาพ โดยผูู้ที่สนใจสามารถศึกษารายละเอียดเพิ่มเติมและทำการ Download ได้ฟรีๆ ทันทีที่ http://software.dell.com/products/toad-extension-for-eclipse/

 

สนใจ Toad? ติดต่อ Value เพื่อรับราคาพิเศษได้ทันที

สำหรับผู้ที่สนใจโซลูชันของ Toad Software สามารถติดต่อเพื่อปรึกษารายละเอียดทางเทคนิคและขอรับใบเสนอราคาได้ทันทีที่ Dellsoftware@value.co.th หรือโทร 02-261-2900 ต่อ 1496 หรือโทร 081-855-2241

 

ข้อมูลเพิ่มเติม

from:https://www.techtalkthai.com/introduce-dell-toad-database-optimization-and-monitoring-tool/