คลังเก็บป้ายกำกับ: NATURAL_LANGUAGE_PROCESSING

[Guest Post] DIRU นิเทศ จุฬาฯ เปิดตัว “ไทยดีไอแมชีน” กระตุ้นสังคม ชวนคิดตรวจสอบก่อนแชร์ข่าวปลอม

ไทยดีไอแมชีน เว็บไซต์ตรวจสอบข่าวปลอมเปิดให้ประชาชนตรวจสอบข่าวปลอมได้ด้วยตนเอง ใส่ข้อความที่สงสัย กดคำสั่งตรวจสอบ ทราบผล ใช้ประกอบการตัดสินใจก่อนแชร์ข่าว ช่วยชะลอการแพร่กระจาย ลดปัญหาข่าวปลอม กระตุ้นให้สามารถจัดการข่าวปลอมได้ด้วยตนเอง

รองศาสตราจารย์ ดร. พนม คลี่ฉายา หัวหน้าหน่วยปฏิบัติการวิจัยฯ DIRU คณะนิเทศศาสตร์ จุฬาลงกรณ์มหาวิทยาลัย แนะนำผลงานวิจัยพัฒนาเว็บไซต์ตรวจสอบข่าวปลอม ไทยดีไอแมชีน” (THAI D.I. MACHINE) เปิดให้ประชาชนทุกคนสามารถใช้งานได้ผ่าน http://www.thaidimachine.org เป็นเครื่องมือที่ใช้ตรวจสอบความเป็นไปได้เบื้องต้นว่าข่าวนั้นเป็นข่าวจริงหรือปลอมด้วยการวิเคราะห์ด้วยภาษา คำ ข้อความ (มิใช่การพิสูจน์ด้วยผู้เชี่ยวชาญ)  โดยผู้ใช้งานพิมพ์หรือคัดลอกคำ ข้อความข่าวที่สงสัยวางลงในกล่องข้อความตรวจสอบ กดปุ่มคำสั่งตรวจสอบแล้วรอสักครู่ เว็บไซต์จะแสดงผลการตรวจสอบให้ทราบ 5 ระดับ คือ ข่าวจริง ข่าวปลอม มีความเป็นไปได้ว่าจะเป็นข่าวจริง มีความเป็นไปได้ว่าจะเป็นข่าวปลอม และข่าวน่าสงสัย 

การตรวจสอบข่าวใช้หลักการตรวจสอบด้วยวิธีการสืบค้นข้อมูลสารสนเทศจากข้อมูลขนาดใหญ่บนอินเทอร์เน็ต โดยนำข้อมูลข่าวสืบค้นไปวิเคราะห์ด้วยวิธีการประมวลผลภาษาธรรมชาติ (Natural Language Processing) โดยเป็นการวิเคราะห์คำ ข้อความ ประโยค และวัดความคล้ายของข้อมูลข่าวสืบค้นเทียบกับข้อมูลขนาดใหญ่บนอินเทอร์เน็ต และประมวลผลข่าวที่มีความคล้ายกันสูงผ่านเกณฑ์ที่ตั้งไว้เพื่อนำไปวิเคราะห์หาลักษณะข่าวและจำแนกข่าวว่าเป็น ข่าวจริง ข่าวปลอม มีความเป็นไปได้ว่าจะเป็นข่าวจริง มีความเป็นไปได้ว่าจะเป็นข่าวปลอม หรือข่าวน่าสงสัย ด้วยวิธีการเรียนรู้ของเครื่องแบบระบบผู้เชี่ยวชาญ (Expert System based Machine Learning) เป็นการใช้ฐานกฎหรือความรู้ (Rule Base or Knowledge) เกี่ยวกับข่าวในการจำแนกข่าว  ระบบผู้เชี่ยวชาญสามารถเรียนรู้ให้ฉลาดขึ้นจากข้อมูลข่าวที่สืบค้นเองอย่างต่อเนื่อง และข้อมูลจากผู้เชี่ยวชาญจะป้อนกลับข้อคิดเห็นเกี่ยวกับข่าวเข้าสู่เครื่อง เพื่อการเรียนรู้ข่าวที่เพิ่มขึ้นซึ่งเป็นการพัฒนาความสามารถในการตรวจสอบข่าวที่ถูกต้องและแม่นยำขึ้นตามจำนวนการตรวจสอบที่เพิ่มมากขึ้นจากผู้ใช้งาน รวมทั้งการเรียนรู้ปรับกฎด้วยตัวเครื่องเองจากการสืบค้นข่าวและเรียนรู้อย่างต่อเนื่อง  

          การแสดงผลตรวจสอบจะแสดงความเป็นไปได้ว่าเป็นข่าวจริงหรือปลอม พร้อมทั้งเสนอสรุปเนื้อหาที่เกี่ยวข้องเพิ่มเติม เพื่อให้ผู้ใช้งานได้นำมาพิจารณาประกอบการตัดสินใจด้วยตนเอง และยังเสนอข่าวที่เกี่ยวข้องกับเนื้อหาที่ตรวจสอบที่ผู้ใช้งานสามารถกดเข้าไปอ่านรายละเอียดเพิ่มเติมได้อีก ผู้ใช้งานจะมีข้อมูลมากเพียงพอที่จะพิจารณาว่าควรจะเชื่อหรือส่งต่อข่าวนั้นหรือไม่ นอกจากนี้ยังมีเมนูใช้งานเพิ่มเติม คือ เมนูข่าวที่มีการพิสูจน์แล้วว่าเป็นข่าวปลอม ซึ่งได้รวบรวมข่าวที่ได้รับการพิสูจน์แล้วว่าเป็นข่าวปลอมเพื่อให้ผู้ใช้สามารถอ่านเพิ่มเติมได้ และยังมีเมนูข่าวที่ผู้ใช้งานตรวจสอบล่าสุดซึ่งจะแสดงประวัติการตรวจสอบข่าวที่ผู้ใช้งานตรวจสอบแล้วอีกด้วย 

การใช้งานดังกล่าวจะสามารถกระตุ้นให้ประชาชนมีวิจารณญาณในการเปิดรับข่าวสารที่มีทั้งจริงและเท็จ ฉุกคิดเมื่อได้อ่านข่าว และหากสงสัยข่าวใดก็จะสามารถนำข้อความข่าวมาตรวจสอบได้ง่ายสะดวก เป็นการตรวจสอบข่าวก่อนจะส่งต่อ ซึ่งจะช่วยชะลอหรือลดการแพร่กระจายของข่าวปลอม ช่วยลดผลกระทบความเสียหายจากการแพร่กระจายและส่งต่อข่าวปลอมในวงกว้าง นอกจากนี้เครื่องมือตรวจสอบข่าว “ไทยดีไอแมชีน” ยังนำไปสู่การสร้างพฤติกรรมการตรวจสอบข่าวบนสื่อออนไลน์ ซึ่งเป็นสิ่งสำคัญในการแก้ปัญหาข่าวปลอม

รองศาสตราจารย์ ดร. พนม คลี่ฉายา อธิบายเพิ่มเติมว่า “คณะวิจัยเริ่มต้นทำงานจากแนวคิดเบื้องต้นที่จะสร้างเครื่องมือตรวจสอบข่าวปลอมด้วยเทคโนโลยีการวิเคราะห์คำและลักษณะของข่าวปลอม การวิจัยจึงเริ่มจากการวิเคราะห์คำ ภาษา และลักษณะขอบข่าวปลอม และการสำรวจการตอบสนอบต่อข่าวปลอมของประชาชน นำมาพัฒนาเป็น “ไทยดีไอแมชีน” ซึ่งมีความสามารถวิเคราะห์ข่าวปลอมได้ในระดับที่นำมาใช้งานได้ อย่างไรก็ตามความแม่นยำจะเพิ่มมากขึ้นจากที่คณะวิจัยจะปรับกฎวิเคราะห์ให้แม่นยำขึ้น ประกอบกับจำนวนผู้ใช้งานตรวจสอบข่าวที่เพิ่มมากขึ้น จะส่งผลให้เครื่องได้เรียนรู้ด้วยตนเองมากขึ้นจนมีความฉลาดขึ้น ผลการตรวจสอบจะแม่นยำขึ้น นอกจากนี้ยังสามารถขยายผลไปสู่การเป็นส่วนเพิ่มขยายสำหรับเว็บไซต์หรือโปรแกรมสืบค้นสารสนเทศอื่น ๆ ที่จะเพิ่มเติมคำแนะนำผลการสืบค้นที่น่าเชื่อถือ”

สำหรับทิศทางการพัฒนางานวิจัยต่อไป ในฐานะนักวิจัย รองศาสตราจารย์ ดร.พนม คลี่ฉายา กล่าวว่า “การวิจัยต่อไปจะมุ่งพัฒนาให้เครื่องเรียนรู้ (Learn) จนมีความแม่นยำขึ้น ด้วยการพัฒนาระบบการตรวจสอบให้แม่นยำและก้าวทันกับการเปลี่ยนแปลงของข่าวปลอม และพัฒนาความสามารถขั้นต่อไปสู่เครื่องที่มีความเข้าใจ (Understanding) ข่าวปลอมมากขึ้น สามารถคิด วิเคราะห์ เข้าใจบริบทของข่าวปลอมได้เช่นเดียวกับผู้เชี่ยวชาญคนหนึ่ง” 

ไทยดีไอแมชีนเป็นผลงานความร่วมมือด้านวิจัยของหน่วยปฏิบัติการวิจัยและพัฒนาทรัพยากรมนุษย์ด้านความรอบรู้ทางดิจิทัลและการรู้เท่าทันสื่อ (DIRU) คณะนิเทศศาสตร์ จุฬาลงกรณ์มหาวิทยาลัย กับนักวิจัยจากคณะเทคโนโลยีสารสนเทศและนวัตกรรมดิจิทัล มหาวิทยาลัยเทคโนโลยีพระจอมเกล้าพระนครเหนือ โดยการสนับสนุนเงินทุนวิจัยจากกองทุนพัฒนาสื่อปลอดภัยและสร้างสรรค์ตามยุทธศาสตร์การรับมือกับข่าวปลอม การสนับสนุนจากภาคีเครือข่ายด้านฐานข้อมูลและเครือข่ายด้านวิชาการ ได้แก่ สำนักข่าวกรมประชาสัมพันธ์ คณะนิเทศศาสตร์และนวัตกรรมการจัดการ สถาบันบัณฑิตพัฒนบริหารศาสตร์ คณะวารสารศาสตร์และสื่อสารมวลชน มหาวิทยาลัยธรรมศาสตร์

from:https://www.techtalkthai.com/guest-post-diru-thai-d-i-machine/

[TTT Virtual Summit 2021 Video] [Keynote] งานวิจัยและนวัตกรรมด้าน AI ที่น่าจับตามองในอีก 5 ปีต่อจากนี้ โดยดร. ปรัชญา บุญขวัญ NECTEC

สำหรับผู้ที่ไม่ได้เข้าฟังการบรรยาย TTT Virtual Summit ในหัวข้อเรื่อง “[Keynote] งานวิจัยและนวัตกรรมด้าน AI ที่น่าจับตามองในอีก 5 ปีต่อจากนี้ โดยดร. ปรัชญา บุญขวัญ NECTEC” สามารถรับชมวิดีโอบันทึกย้อนหลังได้ที่บทความนี้ครับ

ผู้ที่สนใจสามารถรับชมคลิปต่างๆ เกี่ยวกับเทคโนโลยีทางด้าน Enterprise IT รวมถึง Webinar ย้อนหลังจากทาง TechTalkThai ได้ที่ https://www.youtube.com/channel/UCfPhExRni82PH-N7-5Eyq2g?sub_confirmation=1

from:https://www.techtalkthai.com/ttt-virtual-summit-2021-video-keynote-thai-ai-trends-and-usage-by-nectec/

Baidu ตั้งเป้าสร้าง 100 ฐานข้อมูลภาษาจีนสำหรับงาน NLP ภายใน 3 ปี

Baidu ได้เปิดเผยแผนการที่ชื่อว่า ‘Qian Yan’ ไอเดียก็คือพยายามสร้างฐานข้อมูลสำหรับงานด้าน Natural Language Process ให้ได้อย่างน้อย 100 ฐานข้อมูล ภายใน 3 ปีข้างหน้าเพื่อให้กำเนิดนวัตกรรมใหม่ๆ

Credit: Baidu

ทีม Baidu NLP ได้ถือกำเนิดขึ้นมากว่า 10 ปีแล้ว ซึ่งจากประสบการณ์ทีมงานเห็นว่าการศึกษาวิจัยยังมีอุปสรรคเรื่องของปริมาณข้อมูล (Dataset) ไมค่อยจะเพียงพอ ด้วยเหตุนี้เองจึงมีการประกาศแผนการที่ชื่อ Qian Yan (แปลว่าคำนับพัน) โดยเริ่มแรกได้จับมือกับ China Compute Federation และ Chinese Information Processing Society of China เพื่อเปิดตัวโครงการนี้ พร้อมกับความหวังที่ว่าจะสร้างฐานข้อมูล NLP ภาษาจีนที่ยิ่งใหญ่ที่สุดในโลกขึ้น โดยตั้งเป้าว่าภายใน 3 ปีข้างหน้าจะสามารถสร้าง Dataset ได้มากกว่า 100 ชุด ที่สามารถตอบโจทย์ในงานต่างๆ กว่า 20 งาน (งานแต่ละแบบก็ใช้ลักษณะภาษาแตกต่างกัน)

อย่างไรก็ดีในขั้นแรก Qian Yan จะครอบคลุมในงาน 7 ด้านเช่น Open-domain Dialogue Systems, Reading Comprehension และอื่นๆ ประกอบด้วย Dataset กว่า 20 ชุดแบบโอเพ่นซอร์ส ซึ่งได้ความร่วมมือจาก 11 มหาวิทยาลัยและองค์กรต่างๆ

จริงๆ แล้ว Baidu ถือเป็นผู้เล่นในด้าน NLP ชั้นนำเช่น Knowledge Graph, Natural Language Understanding และ Downstream Application โดยมีผลงานเป็นรูปธรรมเช่น ERNIE (Semantic Understanding), PaddlePaddle, TextMind, Baidu Brain’s Intelligent Creation Platform ในวาระเดียวกันนี้มีการเปิดตัวโซลูชันที่ชื่อ ‘AI Simultaneous Interpretation Conferencing’ ที่นำเสนอการการทำ Conference Interpreter ด้วยอุปกรณ์เพียงเครื่องเดียว

ที่มา :  https://syncedreview.com/2020/08/27/introducing-qian-yan-baidus-new-plan-to-build-100-chinese-nlp-datasets-in-three-years/

from:https://www.techtalkthai.com/baidu-targets-to-build-a-hundred-chinese-nlp-dataset-in-three-years/

OpenAI เปิดรับสมัครทดลองใช้ API ภาษาธรรมชาติ ทำงานได้หลายแบบตาม Input กำหนด

OpenAI เปิดให้ผู้ที่สนใจสมัครเข้าร่วมทดลองใช้ API วิเคราะห์ภาษาธรรมชาติ ที่ทำ Task AI เกี่ยวกับภาษาในภาษาอังกฤษได้แบบ General purpose ผู้ใช้เพียงกำหนดรูปแบบของคำตอบที่อยากได้ไปใน Input และ API จะตอบกลับมาใน Output ตามรูปแบบเอง

API ดังกล่าวของ OpenAI นั้นสามารถทำ Task วิเคราะห์ภาษาธรรมชาติในภาษาอังกฤษได้อย่างหลากหลาย ไม่ว่าจะเป็นการเติมคำตอบในประโยค การค้นหาคำ การสรุปความ หรือการวิเคราะห์โทนเสียง ผู้ใช้สามารถสอนให้ AI ทำงานตามที่ต้องการโดยการใส่ Input เป็นตัวอย่างไป 2-3 ชุด หรือเทรนข้อมูลก็ได้ ตามความซับซ้อนของ Task ที่ต้องการทำ โดย AI ดังกล่าวจะทำการวิเคราะห์ Input ทื่ได้รับและคิดว่าผู้ใช้มีจุดประสงค์อะไรจากตัวอย่างที่ให้ แล้วจึง Output ออกมาเป็นคำตอบ

ตัวอย่างการทำงานของ API จาก OpenAI ในการแก้ไขประโยคภาษาอังกฤษให้ดีขึ้น (Photo: OpenAI)

โมเดล AI ที่อยู่เบื้องหลัง API นี้ คือ GPT-3 ที่ OpenAI เพิ่งเผยแพร่เปเปอร์ไปในเดือนพฤษภาคมที่ผ่านมา โดย GPT-3 นั้นได้รับการเทรนด้วย Parameter กว่า 175,000 ล้าชนิด มากกว่าทุกโมเดลภาษาที่ผ่านมา และมีการทำงานแบบ Meta-learning ซึ่งหมายถึงการเรียนรู้ทักษะเกี่ยวกับภาษาหลายชนิดและนำมาใช้อย่างรวดเร็วหลังจากตรวจสอบจากโจทย์ว่าทักษะที่ต้องใช้นั้นเป็นทักษะอะไร ซึ่งจากการทดสอบ พบว่า GPT-3 ทำงานได้ดีในหลายๆ Task เช่น การแปล การตอบคำถาม และการเติมคำในช่องว่าง

API ของ AI ตัวนี้เปิดให้ธุรกิจและสถาบันที่สนใจสามารถสมัครเข้าไปเริ่มใช้งานได้แล้ววันนี้ โดยเป็นการใช้งานแบบเสียค่าใช้จ่าย และ OpenAI ยืนยันว่าจะคอยดูแลไม่ให้การใช้งาน API นี้เป็นไปในทางที่ไม่ดี อีกทั้งยังมีการทำวิจัยเกี่ยวกับความเป็นไปได้ในการใช้ API นี้ในทางที่ไม่ดีด้วย

ปัจจุบัน API ดังกล่าวมีการใช้งานโดยบริษัทต่างๆในหลายอุตสาหกรรม เช่น Algolia ที่นำ API นี้ไปพัฒนาระบบ Search ด้วยภาษาธรรมชาติให้ทำงานได้ดียิ่งขึ้น และ Casetext ที่นำ API ไปเพิ่มประสิทธิภาพให้กับแพลตฟอร์มค้นคว้าทางกฎหมายและช่วย Automate งานในการดำเนินคดี

สำหรับผู้ที่สนใจ สามารถศึกษา Use-case และรายละเอียดเพิ่มเติมได้ที่ https://beta.openai.com/?demo=3


ที่มา: https://openai.com/blog/openai-api/

from:https://www.techtalkthai.com/openai-api-general-purpose-nlp/

Cisco เผยทิศทางการใช้ AI เสริมความสามารถให้ Intent-based Networking ทุกสิ่งจะเป็นอัตโนมัติมากยิ่งขึ้นไปอีก

ถึงแม้ทุกวันนี้ แนวคิดของ Intent-based Networking หรือ IBN นั้นจะเข้ามาช่วยให้ระบบเครือข่ายขนาดใหญ่นั้นสามารถถูกบริหารจัดการและแก้ไขการตั้งค่าต่างๆ ได้อย่างง่ายดายยิ่งขึ้น แต่นั่นก็ยังไม่สามารถตอบโจทย์ทางธุรกิจได้อย่างครอบคลุมนัก ทาง Cisco จึงได้ออกมาเล่าถึงแนวคิดในการนำ AI เข้ามาใช้เสริมขีดความสามารถของ IBN ให้การจัดการเครือข่ายกลายเป็นเรื่องที่ง่ายดายและอัตโนมัติยิ่งขึ้นไปอีก

Credit: Cisco

แนวคิดของ AI ใน IBN ของ Cisco นั้นจะแบ่งออกเป็น 3 ส่วนหลักๆ ได้แก่

  1. Translation นำ Natural Language Processing (NLP), Machine Learning (ML), Machine Reasoning (MR) เข้ามาใช้ในการรับคำสั่งจากผู้ดูแลระบบเครือข่ายที่พิมพ์เข้ามาเป็นภาษาอังกฤษ เพื่อทำความเข้าใจวัตถุประสงค์ของคำสั่งนั้นๆ และนำไปแปลงเป็นการตั้งค่าระบบเครือข่ายที่เหมาะสม
  2. Activation นำข้อมูลที่ได้จากข้อที่แล้ว มาแปลงเป็นการตั้งค่าในเชิง Network และ Security และนำไปตั้งค่าโดยอัตโนมัติให้กับระบบเครือข่ายส่วนที่เกี่ยวข้อง โดยอาจมีการนำข้อมูลแบบ Real-time หรือข้อมูลสถิติย้อนหลังมาช่วยใช้ในการตั้งค่าให้ตอบโจทย์แก้ไขปัญหาได้ดีขึ้น เช่น การปรับ QoS หรือการกำหนดปริมาณ Bandwidth ให้เหมาะสมต่อความต้องการในการใช้งานจริงโดยที่ผู้ดูแลระบบอาจไม่ต้องระบุค่าเอง แต่ระบบเลือกค่าที่ดีที่สุดหรือทำนายค่าที่เหมาะสมมาให้เลย
  3. Assurance ทำการติดตามผลหลังจากปรับแต่งการตั้งค่า ว่าแนวโน้มในการเชื่อมต่อเครือข่ายและใช้งานของผู้ใช้งานนั้นดีขึ้นไปตามวัตถุประสงค์หรือไม่ หรือมีเหตุการณ์ผิดปกติอะไรที่เพิ่มขึ้นอย่างมีนัยยะสำคัญหรือเปล่า

Cisco นั้นใช้ทั้งความเชี่ยวชาญด้านระบบเครือข่ายและการแก้ไขปัญหาในระบบเครือข่ายที่ตนเองมีอยู่ ผสานเข้ากับข้อมูลปริมาณมหาศาลที่เกิดขึ้นในระบบเครือข่ายซึ่งถูกสร้างขึ้นจาก ASIC, OS และ Software มาใช้ร่วมกับข้อมูลเดิมที่ Cisco มีทางด้านข้อมูลเครือข่าย เพื่อนำไปวิเคราะห์ในระบบ AI ซึ่งเป็นนวัตกรรมใหม่ที่ Cisco ได้เริ่มพัฒนาขึ้นมาได้ระยะหนึ่ง ทำให้ระบบเครือข่ายนั้นมี AI สำหรับใช้เพื่อช่วยผู้ดูแลระบบให้ทำงานได้อย่างง่ายดายยิ่งขึ้นเรื่อยๆ

Cisco ได้ทิ้งท้ายเอาไว้ว่าหลังจากนี้ Cisco ก็จะผลักดันเพื่อสร้างนวัตกรรมใหม่ๆ ทางด้าน AI มาตอบโจทย์วงการ Networking ต่อไปในอนาคต

ที่มา: https://blogs.cisco.com/enterprise/improving-networks-with-ai

from:https://www.techtalkthai.com/cisco-talks-about-ai-in-intent-based-networking/

5 โปรเจ็คด้าน Data Science ที่น่าสนใจประจำเดือนมกราคม 2019

Analyticsvidhya ได้คัดเลือก 5 โปรเจ็คด้าน Data Science ที่น่าสนใจบน GitHub มาเผยแพร่ซึ่งเราจึงขอสรุปมาให้ผู้อ่านได้ติดตามกันครับ

credit : analyticsvidhya

1.Flair (Stat-of-the-Art-NLP Library)

Library ด้าน NLP ตัวหนึ่งที่ไม่ควรพลาดเพราะนำไปใช้งานต่อได้ง่ายๆ โดยโปรเจ็คมาจากฝีมือของ Zalando Research ซึ่งมีพื้นมาจาก PyTorch (มีผลตารางทดสอบความแม่นยำด้วยด้านบน) ผู้สนใจสามารถติดตามได้ที่นี่

2. face.evoLVe (Face Recognition Library)

เป็นโปรเจ็คที่พัฒนาต่อยอดจาก PyTorch เช่นเดียวกันแต่อยู่ในด้านของ Face Recognition ซึ่งให้ผลลัพธ์ที่มีประสิทธิภาพสูงโดยภายในมีฟังก์ชันต่างๆ ที่จำเป็นต่อการวิเคราะห์ใบหน้าและการนำไปใช้งานจริง ผู้สนใจสามารถติดตามได้ที่นี่

credit : Analyticsvidhya

3. YOLOv3

YOLO เป็น Framework สำหรับงานด้าน Object Detection ที่ปล่อยออกมาตั้งแต่ปี 2016 และได้รับการพัฒนาดีขึ้นเรื่อยมาซึ่งใน YOLOv3 ที่ถูกพัฒนาด้วย TensorFlow นั้นผู้ใช้งานสามารถเทรนชุดข้อมูลเพื่อสร้างโมเดลของตนออกมาได้ ผู้สนใจสามารถติดตามได้ที่นี่

credit : Analyticsvidhya

4.FaceBoxes

ปัญหาของ Computer Vision หนีไม่พ้นเรื่องของทรัพยากรสำหรับการคำนวณที่มักจะต้องอาศัยแรงจาก GPU ซึ่ง FaceBoxes เป็นวิธีการตรวจจำใบหน้ารูปแบบใหม่ที่ให้ผลลัพธ์ที่ดีและแม่นยำจากการใช้งาน CPU โดยถูกสร้างขึ้นด้วย PyTorch ที่ภายในมีโค้ดนำไปติดตั้ง เทรน หรือโมเดลการตรวจจับใบหน้า ผู้สนใจสามารถติดตามได้ที่นี่

credit : analyticsvidhya

5. Transformer-XL จาก Google AI

Framework ด้าน NLP อีกตัวหนึ่งจาก Google โดยภายในโปรเจ็คมีโค้ดทั้งใน TensorFlow และ PyTorch ซึ่งทีมงานของบริษัท Search Engine ยักษ์ใหญ่โชว์ว่าโปรเจ็คนี้มีประสิทธิภาพดีกว่า RNNs และ Vanilla Transformer อย่างชัดเจน ผู้สนใจสามารถติดตามได้ที่นี่

ที่มา : https://www.analyticsvidhya.com/blog/2019/02/top-5-data-science-github-reddit-january-2019/

from:https://www.techtalkthai.com/5-interesting-data-science-projects-on-github-jan-2019/

Tableau ใช้ NLP ในเครื่องมือใหม่ ‘Ask Data’ ตอบโจทย์การใช้งานด้วยภาษามนุษย์

เมื่อวันอังคารที่ผ่านมาทาง Tableau หนึ่งในเจ้าของผลิตภัณฑ์ BI รายใหญ่ได้ออกเครื่องมือที่ชื่อว่า ‘Ask Data’ ที่ภายในได้ใช้เทคโลโลยี Natural Language Processing (NLP) เพื่อช่วยให้ผู้ใช้งานสามารถใช้งานด้วยภาษามนุษย์ได้แทนการใช้ Keyword โดยคาดว่าฟีเจอร์นี้จะเริ่มเปิดใช้งานใน Tableau 2019 เวอร์ชัน Beta

Ask Data คือฟีเจอร์สำคัญที่จะช่วยให้ผู้ใช้สามารถสอบถามข้อมูลที่ต้องการเป็นภาษามนุษย์ปกติและตัว Tableau จะสร้างการจำลองโดยไม่รู้เกี่ยวกับจำนวนมิติของข้อมูลหรือโครงสร้างทางข้อมูล โดยทางบริษัทให้ข้อมูลว่าฟีเจอร์ใหม่นี้จะถูกใส่ไว้ในทั้ง Tableau Server และ Online อีกทั้งยังสามารถทำงานได้กับ Published Data โดยไม่ต้องตั้งค่าใดๆ เพิ่มเติม นอกจากนี้ Ask Data จะอยู่ในเวอร์ชัน Beta ของ Tableau Creator และ Explorer ด้วย

นอกจากนี้ Tableau ยังได้เผยแผนสำหรับ 2019 ดังนี้

  • เครื่องมือ Data Modeling จะสามารถจดจำความสัมพันธ์ของข้อมูลที่เก็บในฐานข้อมูล Oracle และ SQL ได้อัตโนมัติ อีกทั้งระบบยังสามารถใช้มาตรฐานทั่วไปของ Data Warehouse ได้ด้วย
  • Tableau จะสามารถจัดการรายละเอียดของ Data Source เดียวกันได้หลายลำดับ (Multi-Level) ดังนั้นลูกค้าสามารถแบ่งข้อมูลได้โดยไม่ต้องมีการคำนวณพิเศษใดๆ เพิ่มเติม
  • จัดตั้งโปรแกรมสอบ Certificate ในระดับเบื้องต้นผ่านทาง Desktop Specialize Exam
  • สนับสนุนนักพัฒนาในการเชื่อมต่อโปรแกรมของตนกับ Tableau

ที่มา : https://www.zdnet.com/article/tableau-launches-ask-data-natural-language-processing-system/

from:https://www.techtalkthai.com/new-tableau-tool-ask-data-leverage-nlp-technology/

คนร้ายใช้เทคนิค ‘ZeroFont’ ลัดผ่านการป้องกันของ O365

Avanan ผู้ให้บริการโซลูชันด้านความปลอดภัยบน Cloud ซึ่งเป็นหนึ่งกลไกการป้องกันอีเมลหลอกลวงหรืออีเมลอันตรายโดยใช้ Natural Langauge Process (NLP) ของ o365 เช่น นักวิจัยจะหาอีเมลที่อ้างถึง Apple หรือ Microsoft ที่มาจากโดเมนปลอมหรืออีเมลที่มีเนื้อหาอ้างถึงบัญชีผู้ใช้ การรีเซ็ทรหัสผ่าน หรือเรื่องการร้องขอเงิน ซึ่งล่าสุดนักวิจัยได้ไปพบว่าผู้ร้ายมีการใช้เทคนิค ZeroFont ที่สามารถลัดผ่านการป้องกันนี้ได้

credit: Securityweek.com

รายงานของ Avanan กล่าวว่าเทคนิคที่คนร้ายใช้นั้นเรียกว่า ‘ZeroFont’ เพื่อตั้งค่า Font ให้มีขนาดศูนย์ (<span style=”FONR-SIZE: 0px>”) ดังนั้นในมุมมองของผู้ใช้งานจะมองไม่เห็น ตัวอย่างเป็นไปตามภาพด้านบนคือสิ่งที่ผู้ใช้งานเห็นและภาพถัดไปคือสิ่งที่ทาง Microsoft เห็นว่าจริงๆ แล้วมีคำที่ผู้ร้ายจงใจซ่อนเอาไว้ไม่ให้ปรากฏต่อผู้ใช้

credit : Avanan.com

ทาง Avanan ระบุใน Blog ว่าที่ Microsoft ไม่สามารถตรวจจับการโจมตีในลักษณะนี้ได้เนื่องจากผู้ร้ายมีการใช้การใส่คำแบบสุ่มเพื่อแยกคำตามต้องการไม่ให้ NLP ตรวจจับได้และไม่ได้เป็นคำที่ถูกลอกเลียนแบบ ตัวอย่างตามรูปด้านบน

from:https://www.techtalkthai.com/hackers-used-zerofont-technique-to-bypass-nlp-0365-protection/

สรุปเทรนด์ด้านการเขียนโปรแกรมที่น่าสนใจในฝั่ง Open Source ของปี 2016 ที่ผ่านมา

OpenSource.com ได้ออกมาสรุปแนวโน้มที่น่าสนใจทางด้านการพัฒนาโปรแกรมในปี 2016 ที่ผ่านมา ซึ่งทีมงาน TechTalkThai เห็นว่าเค้าสรุปเอาไว้ได้ไม่เหมือนค่ายอื่นดี จึงขอนำมาสรุปให้ได้อ่านกันดังนี้ครับ

Credit: ShutterStock.com

 

1. ภาษาต่างๆ รองรับการพัฒนา AI มากขึ้นอย่างชัดเจน

เทคโนโลยีอย่าง Machine Learning, Deep Learning, Natural Language Processing, Auto Speech Recognition และอื่นๆ นั้นได้เป็นที่กล่าวถึงเป็นอย่างมากในปี 2016 ที่ผ่านมา และมีโครงการ Open Source เกิดขึ้นมากมาย ในขณะที่ค่ายใหญ่ๆ เองก็ปล่อยเครื่องมือการพัฒนา AI, Machine Learning และ Deep Learning อย่าง Google TensorFlow, OpenAI (ของ Elon Musk), Apache Spark, Microsoft CNTK, Amazon DSSTNE และอื่นๆ ในขณะที่ธุรกิจที่เกิดขึ้นมาเพื่อผลักดันวงการ AI ก็เกิดขึ้นอย่างต่อเนื่อง ไม่ว่าจะเป็น Nervana หรือ Theano ก็ตาม

ภาษา Python เองได้ก้าวนำภาษาอื่นๆ และได้รับความนิยมอย่างสูงในหมู่ Data Engineer เป็นอย่างมากสำหรับการพัฒนา AI ตามมาด้วย R, Java และ Scala

 

2. Container และภาษา Go กลายเป็นคู่ที่ขาดกันไปไม่ได้อีกแล้ว

ภาษา Go ที่เกิดขึ้นมาในป 2012 เพื่อเป็นหัวใจของ IT Infrastructure นั้น ได้กลายไปเป็นแกนหลักในการพัฒนา Docker และ Kubernetes ซึ่งเป็นสองเทคโนโลยีทางด้าน Container ที่ได้รับความนิยมสูงสุดในปัจจุบันไปแล้ว ด้วยความสามารถในการพัฒนาโปรแกรมในรูปแบบที่ Java หรือ C++ ไม่สามารถตอบโจทย์ได้ ทำให้ Go นั้นมีความโดดเด่นและน่าสนใจมากในฐานะของเทคโนโลยีที่จะกลายมาเป็นโครงสร้างหลักของหลายๆ Application ได้ในอนาคต

 

3. Swift กลายเป็นเสาหลักใหม่ของระบบนิเวศสำหรับ Apple

หลังจากที่ Apple ได้ประกาศเปิด Open Source ให้กับ Swift ไปเมื่อปี 2015 การใช้งาน Swift ก็เป็นที่แพร่หลายมากขึ้นในหมู่ iOS Developer และ Mac OS X Developer โดยมีเป้าหมายที่จะทดแทน Objective-C และ C++ ให้ได้ในอนาคต ซึ่งภาษา Swift เองนี้ก็มีแนวโน้มจะเติบโตต่อไปเรื่อยๆ ในอนาคต

 

4. การแข่งขันกันระหว่าง Java 8 และ Functional Language บน JVM

การรองรับการทำ Functional ได้ใน Java 8 ภายใต้ความสามารถที่มีชื่อว่า Lambdas นั้นทำให้ภาษา JVM อื่นๆ อย่าง Scala หรือ Clojure ได้รับผลกระทบไม่น้อย โดย Java 8 นี่รองรับทั้งการจัดการ Concurrency ได้ และยังรองรับการใช้งานในระบบ Big Data Analytics ในตัว ทำให้ปี 2017 นั้น งาน OSCON ที่จะจัดขึ้นอาจจะมีหัวข้อของ Scala และ Clojure น้อยลงเพราะเหล่าวิทยากรนั้นหันมาให้ความสนใจกับเทคโนโลยีอื่นๆ มากกว่าแทนแล้ว

 

5. วิเคราะห์ 5 ภาษาที่น่าสนใจในปี 2017

ทาง OpenSource.com ได้สรุปถึง 5 ภาษาที่น่าสนใจในปี 2017 เอาไว้ดังนี้

  1. Rust: ภาษาสำหรับฝั่ง Systems ที่มีจุดเด่นด้านความเร็วและความปลอดภัย
  2. Elixir: ภาษา Functional ที่มีคุณสมบัติทั้ง Dynamic และ Fault-tolerant ในตัวสำหรับรองรับ Application ขนาดใหญ่
  3. Elm: ภาษา Functional สำหรับใช้สร้างโค้ด JavaScript ที่มีความเร็วสูง และมุ่งเน้นในการความง่ายในการใช้งาน
  4. Kotlin: หนึ่งในภาษาตระกูล Java ที่กำหนด Static Type ได้ มีความปลอดภัย และทำงานร่วมกับ Java ได้
  5. Perl 6: Perl รุ่นล่าสุดที่เพิ่มความสามารถใหม่ๆ น่าสนใจเข้ามามากมาย

 

ถือเป็นมุมมองจากฝั่ง Open Source ที่ไม่เหมือนค่ายอื่นจริงๆ ครับ

 

ที่มา: https://opensource.com/article/16/12/yearbook-top-programming-trends-2016

from:https://www.techtalkthai.com/programming-trends-in-2016-and-2017-from-opensource-dot-com/

17 แนวโน้มเทคโนโลยีที่นักวิจัยจาก Microsoft ทำนายสำหรับปี 2017 – 2027

เนื่องในโอกาสของ Computer Science Education Week ทางนักวิจัยจาก Microsoft จึงได้ออกมาทำการทำนายเทคโนโลยีในอนาคต 17 ประการด้วยกัน

microsoft_predictions-msr-main-003

ก่อนจะเข้าถึงแนวโน้มเทคโนโลยี 17 ประการ ทาง Microsoft ได้ออกมาเล่าถึงรายงานและสถิติต่างๆ ที่เกี่ยวข้องก่อนดังนี้

  • ปัจจุบันสัดส่วนประชากรโลกนั้นมีประชากรหญิงอยู่ประมาณ 50% แต่หากนับในวงการ Computer Science นั้น จะมีสัดส่วนประชากรหญิงอยู่น้อยกว่า 20% เท่านั้น
  • ภายในปี 2020 ทาง U.S. Bureau of Labor Statistics ได้ทำนายเอาไว้ว่าจะมีตำแหน่งงานทางด้าน Computing มากถึง 1.4 ล้านตำแหน่ง แต่จะมีนักศึกษาที่มีความสามารถด้านนี้เพียง 400,000 คนเท่านั้น (อ่านฉบับเต็ม https://www.whitehouse.gov/blog/2013/12/11/computer-science-everyone)
  • รายงาน National Association of Colleges and Employers ได้ระบุว่า Computer Science เป็นงานสำหรับนักศึกษาจบใหม่ที่มีรายได้สูงที่สุด ในขณะที่งาน Computer Programming นั้นจะมีคววามต้องการเติบโตรวดเร็วกว่าค่าเฉลี่ยของงานอื่นๆ ถึง 2 เท่า (อ่านฉบับเต็ม http://www.naceweb.org/about-us/press/2016/stem-grads-highest-starting-salaries.aspx)
  • National Center for Women in Technology ได้ชี้แจงใน Infographic ว่าถึงแม้กว่า 57% ของวุฒิปริญญาตรีนั้นจะเป็นของนักศึกษาหญิง แต่มีเพียง 12% ของวุฒิทางด้าน Cmputer Science ในระดับปริญญาตรีจากมหาวิทยาลัยชั้นนำเท่านั้นที่ได้รับโดยนักศึกษาหญิง (อ่านฉบับเต็ม http://www.ncwit.org/sites/default/files/resources/btn_02282014web.pdf)

ทั้งนี้เนื่องจาก Microsoft เองนั้นก็ต้องการที่จะร่วมเป็นหนึ่งในแรงผลักดันให้เกิดความเท่าเทียมทางเพศ และมีผู้หญิงที่มาทำงานในสายเทคโนโลยีกันมากขึ้นในอนาคต ทาง Microsoft จึงได้สัมภาษณ์นักวิจัยหญิง 17 คนใน Microsoft ถึงแนวโน้มในอนาคตเอาไว้ และทางทีมงาน TechTalkThai ก็ขอนำมาสรุปสั้นๆ เอาไว้ดังนี้

 

1. Kalika Bali: เทคโนโลยี Speech และ Language จะก้าวหน้าอย่างรวดเร็ว

เทคโนโลยีทางด้าน Speech และ Language จะพัฒนาและรองรับได้หลากหลายภาษามากขึ้นในปี 2017 และจะมีการพัฒนาเทคโนโลยีที่สามารถเข้าใจและโต้ตอบด้วยภาษาที่รองรับผู้ใช้งานได้มากขึ้น ไม่ว่าจะเป็นกลุ่มผู้ใช้ English-Spanish, French-Arabic หรือ Hindi-English ก็ตาม ส่วนภายในปี 2027 นั้นเทคโนโลยี Artificial Intelligence (AI) ทางด้านภาษาจะก้าวหน้าไปจนถึงขั้นเข้าใจในเหตุผลและสามารถสื่อสารกับมนุษย์ได้อย่างง่ายดายจนสามารถถกเถียงกันได้

 

2. Jennifer Chayes: Deep Learning จะก้าวหน้าและจัดการข้อมูลที่จะใช้ในการเรียนรู้ได้ดีขึ้น

เทคโลยีทางด้าน Deep Learning จะก้าวหน้ายิ่งขึ้นในปี 2017 ด้วยความรู้ความเข้าใจที่มากขึ้นและ Algorithm แบบใหม่ๆ ที่จะรวบรวมมาจากศาสตร์หลายๆ ด้าน รวมถึงการผนวกรวมศาสตร์ทางด้าน Statistical Physics และ Computer Science เข้าด้วยกัน ส่วนภายในปี 2027 นั้นชีวิตของเราทุกคนจะถูกปรับปรุงให้ดีขึ้นในทุกแง่มุมด้วยการมาของ Artificial Intelligence และ Machine Learning โดย Algorithm ภายในอนาคตนั้นจะสามารถตรวจสอบและจัดการกับ Input ที่ไม่ดีได้ด้วยตัวเอง เพื่อให้ในระบบมีเพียง Input ที่ดีสำหรับใช้ในการเรียนรู้ และสามารถตรวจสอบย้อนหลังได้

 

3. Susan Dumais: Deep Learning จะเข้าใจข้อมูลได้ดีขึ้น และการค้นหาข้อมูลจะเปลี่ยนรูปแบบไป

การนำ Deep Learning ไปใช้ในการค้นหาข้อมูลและการทำความเข้าใจกับข้อมูลในรูปของเอกสารนั้นจะพัฒนาไปเป็นอย่างมากในปี 2017 ส่วนในปี 2027 นั้นเราจะไม่เห็นกล่องสำหรับทำการค้นหากันอีกต่อไปแล้ว แต่เราจะสามารถทำการค้นหาข้อมูลได้ด้วยวิธีการอื่นๆ ที่หลากหลายมากยิ่งขึ้นแทน ไม่ว่าจะเป็นการพูด, การใช้รูปภาพ, การใช้วิดีโอ หรืออื่นๆ อีกมากมาย รวมถึงมีการนำ Context ต่างๆ ไปใช้ในการค้นหาได้หลากหลายยิ่งขึ้นด้วย

 

4. Sara-Jane Dunn: Biological Information Processing จะเข้ามามีบทบาทในการประมวลผลแห่งอนาคต

ทฤษฎีพื้้นฐานของการทำ Biological Information Processing จะเริ่มเกิดขึ้นมาในปี 2017 ทำให้เราสามารถนำไปต่อยอดเพื่อใช้ในการออกแบบ, ปรับแต่ง, และควบคุมพฤติกรรมของเซลล์ในการนำไปใช้ประมวลผลได้ ในขณะที่ปี 2027 นั้นเราจะเริ่มนำเทคโนโลยีเหล่านี้้ไปใช้งานได้ในอุตสาหกรรมที่หลากหลายทั้งการเกษตร, การผลิตยา ไปจนถึงพลังงาน, วัสดุศาสตร์ และการประมวลผล ทำให้มนุษยชาตินั้นเปลี่ยนจากยุคของการประมวลผลด้วย Silicon กลายไปเป็นการประมวลผลบน Software ที่มีชีวิต

 

5. Mar Gonzalez Franco: Virtual Reality จะเริ่มฉลาดมากขึ้น และอนาคตเราจะมี Avatar ในโลก 3D ให้ใช้งาน

ภายในปี 2017 เราจะได้เห็นอุปกรณ์ Virtual Reality (VR) เกิดขึ้นมามากมาย และอุปกรณ์เหล่านั้นจะสามารถติดตามการเคลื่อนไหวของร่างกายได้ดีขึ้น และจะเริ่มมี Virtual Avatar ให้เราได้ใช้แทนตัวเราเองกันในโลก 3D ส่วนในปี 2027 นั้นเราจะได้ใช้งาน Sensor ที่หลากหลายบนระบบ VR และสามารถสร้างภาพเสมือนขึ้นมาในโลกจริงได้ ทำให้มนุษย์เราต้องปรับตัวเรื่องการรับรู้สิ่งต่างๆ บนโลกกันใหม่ ที่จะเพิ่มจากการมองและการฟังในระบบ VR ให้รวมถึงการสัมผัสด้วย

 

6. Mary L. Gray: การวิเคราะห์ข้อมูลเชิงสังคมจะเปลี่ยนไปด้วย Computer Science และต่อไปเราจะแยก AI กับมนุษย์ที่ให้บริการเราไม่ออกแล้ว

ในปี 2017 วิทยาศาสตร์สังคมและ Computer Science จะผนวกรวมกันและสร้างวิธีการใหม่ๆ ในการวัดค่าต่างๆ ทางด้านวัฒนธรรม, เศรษฐกิจ และการเมืองขึ้นมาภายใต้แนวคิด “Filter Bubbles” ที่จัดหมวดหมู่ข่าวสารและข้อมูลของเพื่อนๆ เราเป็นกลุ่มๆ และนำไปใช้ชี้ว้ดว่าข้อมูลเหล่านี้ส่งผลกระทบอย่างไรต่อชีวิตจริงกันบ้าง ส่วนในปี 2027 กว่า 30% ของผู้ใหญ่ในสหรัฐอเมริกาจะเริ่มทำงานร่วมกับ AI และใช้ AI ช่วยทำหน้าที่ต่างๆ เช่น การให้คำแนะนำด้านภาษีหรือสุขภาพ ซึ่งลูกค้าผู้ใช้งานนั้นไม่อาจจำแนกได้เลยว่าผู้ที่ให้บริการตนเองอยู่นั้นคือมนุษย์หรือ AI

 

7. Katja Hofmann: เกมจะช่วยให้ AI พัฒนาอย่างรวดเร็ว และต่อไป AI จะอยู่ในทุกส่วนของชีวิตเรา

ในปี 2017 นั้น เกมคอมพิวเตอร์จะกลายเป็นศูนย์กลางของการพัฒนา AI ตัวอย่างเช่นโครงการ Project Malmo (ศึกษาเพิ่มเติมที่ https://www.microsoft.com/en-us/research/project/project-malmo/) นั้นก็จะช่วยให้การทดสอบ AI สามารถทำได้บน Minecraft ทำให้การทดสอบแนวคิดใหม่ๆ สามารถทำได้อย่างรวดเร็วมาก รวมถึงแนวคิดการเปิดให้ AI จำนวนหลายๆ ชุดทำงานร่วมกันด้วย ซึ่งในปี 2027 ต่อไป AI ก็จะมีบทบาทเป็นอย่างมากในการแก้ไขปัญหาต่างๆ ทั่วโลกและสร้างประโยชน์ให้กับสังคมอย่างมหาศาล

 

8. Nicole Immorlica: วงการเศรษฐศาสตร์ทั่วโลกจะเปลี่ยนไปด้วย Computer Science และข้อมูลปริมาณมหาศาล

ในปี 2017 วงการเศรษฐศาสตร์และ Computer Science จะร่วมมือกันเพื่อพัฒนาเครื่องมือระบบ Machine Learning สำหรับให้เรียนรู้พฤติกรรมกลุ่มย่อยในสังคมเพื่อจัดการกับความสับสนของข้อมูลจำนวนมหาศาล ในขณะที่ปี 2027 นั้นผู้คนจะสามารถร่วมกันช่วยเหลือสังคมได้ด้วยการเปิดข้อมูลชีวิตความเป็นอยู่ให้เหล่านักเศรษฐศาสตร์ได้ศึกษา และอาจมีค่าตอบแทนให้กับอาสาสมัครเหล่านี้ ซึ่งข้อมูลเหล่านี้ก็จะส่งผลให้เกิดการปรับโครงสร้างทางด้านการจัดเก็บภาษีหรือการวางแผนพัฒนาสังคมต่อไปได้

 

9. Kristin Lauter: Quantum Computing จะทำให้การเข้ารหัสในปัจจุบันใช้งานไม่ได้อีกต่อไป และเทคโนโลยีการเข้ารหัสแบบใหม่ๆ จะต้องเกิดขึ้นมา

ในปี 2017 โซลูชันทางด้านคณิตศาสตร์ใหม่ๆ สำหรับใช้ในการเข้ารหัสจะถูกนำมาใช้เพื่อปกป้องข้อมูลการใช้ยาและข้อมูลพันธุกรรมของผู้ป่วยภายในโรงพยาบาล ซึ่งการเข้ารหัสแบบ Homomorphic นั้นจะถูกนำมาใช้เพื่อให้การนำ Cloud Computing มาจัดเก็บข้อมูลที่มีความละเอียดอ่อนได้อย่างมั่นใจ และทำให้การทำ Preduction หรือ Alert สำหรับเนื้อหาเหล่านี้เป็นจริงขึ้นมาได้ โดย Homomorphic Encryption นี้จะถูกนำมาใช้ก่อนในธุรกิจการเงินเพื่อปกป้องข้อมูลของธนาคารให้ปลอดภัย ส่วนปี 2027 นั้นคณิตศาสตร์จะก้าวหน้าไปเป็นอย่างมาก และจะเข้าสู่ยุคใหม่ของเทคโนโลยีการเข้ารหัส ในขณะที่การมาของ Quantum Computer นั้นจะทำให้การเข้ารหัสที่ใช้อยู่ในปัจจุบันนั้นใช้งานไม่ได้ไปทั้งหมด ซึ่งเมื่อถึงเวลานั้นเทคโนโลยีการเข้ารหัส Quantum ที่กำลังพัฒนากันอยู่นี้ก็จะถูกนำมาใช้ทดแทนการเข้ารหัสในปัจจุบันนี้ไป

 

10. Kathryn S. McKinely: นักพัฒนา Software จะต้องเรียนรู้ศาสตร์ทางด้านสถิติกันมากขึ้น

ในปี 2017 แนวคิดของการทำ Probabilistic Programming จะก้าวหน้าไปเป็นอย่างมาก และเหล่านักพัฒนาจะสามารถสร้างโมเดลที่ใช้แทนโลกจริงและความไม่แน่นอนขอข้อมูลและการประมวลผลได้ ในขณะที่ปี 2027 นั้นเหล่า Software Engineer จะต้องมีความคล่องแคล่วในการใช้งาน Programming Systems ที่สามารถทำการประมาณค่าและสร้างโมเดลต่างๆ ขึ้นมาได้ด้วยวิธีการทางสถิติ เพื่อให้พัฒนาโปรแกรมสำหรับทำงานร่วมกับ Sensor, Machine Learning และการประมาณค่าต่างๆ ได้เพื่อให้สามารถโต้ตอบกับมนุษย์ได้อย่างถูกต้องแม่นยำมากยิ่งขึ้น

 

11. Cecily Morrison: เทคโนโลยีผู้ช่วยเสมือนส่วนตัวจะพัฒนาไปได้อย่างรวดเร็วจากการใช้งานของผู้บกพร่องทางสายตา และเด็กๆ จะได้หัดพัฒนาโปรแกรมกันมากขึ้น

ในปี 2017 เหล่าผู้บกพร่องทางสายตานั้นจะกลายเป็นผู้ใช้งานหลักของเทคโนโลยีผู้ช่วยเสมือนส่วนตัว (Personal Agent) และทำให้เทคโนโลยีนี้พัฒนาต่อไปได้อย่างก้าวกระโดด ส่วนในปี 2027 นั้น เด็กๆ ทุกคนรวมถึงเด็กๆ ผู้ที่มีความผิดปกติในร่างกายจะมีเครื่องมือสำหรับใช้เรียนรู้ทางด้านการเขียนโปรแกรม และอีก 20 ถัดจากนั้นไปเด็กๆ เหล่านั้นก็จะสามารถพัฒนาเทคโนโลยีเฉพาะตัวขึ้นมาได้เอง

 

12. Olya Ohrimenko: เทคโนโลยีด้านความปลอดภัย จะช่วยให้เกิด Application และการนำข้อมูลไปใช้งานได้หลากหลายยิ่งขึ้น

ในปี 2017 Trusted Hardware จะเข้ามาสร้าง Application และเครื่องมือใหม่ๆ ที่มีความปลอดภัยในระดับสูงซึ่งสามารถตอบโจทย์ทั้งผู้ใช้งานและนักพัฒนาได้เป็นอย่างดี ในขณะที่ปี 2027 นั้นความก้าวหน้าของเทคโนโลยีฝั่ง Hardware และการเข้ารหัสก็จะช่วยยกระดับความเป็นส่วนตัวให้มากขึ้นได้อีกขั้น ทำให้การนำข้อมูลส่วนตัวต่างๆ ไปใช้ในการวิเคราะห์หรือประมวลผลนั้นสามารถทำได้เป็นวงกว้างมากยิ่งขึ้น

 

13. Oriana Riva: Mobile Application จะน้อยลง และจะเปลี่ยนกลายไปเป็น Chatbot มากขึ้น

ในปี 2017 การพัฒนา Mobile Computing จะถูกเปลี่ยนแปลงที่ระดับสถาปัตยกรรมทำให้ระบบต่างๆ สามารถตอบสนองต่อผู้ใช้งานและอุปกรณ์ต่างๆ ได้โดยมี GUI น้อยลง เราจะเห็นการติดตั้ง Software ต่างๆ น้อยลง และ Application ต่างๆ จะถูกเปลี่ยนไปอยู่ในรูปของ Chatbot หรือผู้ช่วยเสมือนส่วนตัวแทน ส่วนปี 2027 นั้นสิ่งต่างๆ ที่อยู่รอบตัวเราจะสื่อสารกันทั้งหมด และเราจะมีระบบผู้ช่วยเสมือนส่วนตัวที่มีความฉลาดและเข้าใจเราอย่างแท้จริง

 

14. Asta Roseway: Internet of Things จะถูกนำไปใช้ในเชิงเกษตรกรรมร่วมกับ AI

ในปี 2017 เราจะเห็นการนำ Internet of Things (IoT) ไปใช้งานในเชิงการเกษตรที่หลากหลายยิ่งขึ้น โดยเฉพาะการผสมผสานระหว่าง Ubiquitous Sensing, Computer Vision, Cloud Storage, Machine Learning และ Analytics เข้าด้วยกัน ซึ่งบริการเหล่านี้เมื่อนำมาใช้ร่วมกับการออกแบบที่ดีก็จะช่วยให้เหล่าเกษตรกรสามารถติดตามและวิเคราะห์พื้นที่เพาะปลูกในแต่ละแห่งได้ทั้งแบบภาพรวมและเชิงลึก ส่วนในปี 2027 นั้นก็จะเริ่มมีการนำ AI ไปใช้ในการเพาะปลูก เพื่อให้ผลผลิตทางการเกษตรยังคงมีปริมาณตามที่ต้องการได้แม้จะมีภาวะอากาศเปลี่ยนแปลง, น้ำแล้ง หรือภัยพิบัติใดๆ ก็ตาม ซึ่งอนาคตของวงการอาหารในโลกเรานี้หัวใจหลักก็คือการนำทรัพยากรหลักๆ บนโลกมาใช้งานให้ได้คุ้มค่าสูงสุด รวมไปถึงเกิดการอนุรักษ์สิ่งแวดล้อมไปพร้อมๆ กัน

 

15. Karin Strauss: FPGA, Non-silicon Processor, Near Data Processing, Quantum Computing, DNA Storage และ Near Eye Display

ในปี 2017 เราจะได้เห็นการนำ FPGA มาใช้ในการเร่งการประมวลผลบน FPGA Fabrics และ Cloud มากขึ้น ทำให้การประมวลผลนั้นมีประสิทธิภาพสูงขึ้นและใช้พลังงานน้อยลง นอกจากนี้เราก็จะเห็นการนำ Virtual Reality (VR) และ Augmented Reality (AR) มาใช้งานกันอย่างแพร่หลายทั้งในราคาถูกและแพง รวมถึงจะมี Application และ Content ใหม่ๆ สำหรับอุปกรณ์เหล่านี้โดยเฉพาะ ส่วนในปี 2027 นั้นเราจะได้เห็นเทคโนโลยีอื่นๆ นอกจาก Silicon เกิดขึ้นเป็นจำนวนมาก ทั้ง Carbon Nanotubes และเทคโนโลยีการผลิตในระดับ Molecular รวมถึงสถาปัตยกรรมการประมววลผลแบบใหม่ที่เรียกว่า Near Data Processing ไปจนถึงเทคโนโลยีการประมวลผลแบบใหม่อย่าง Quantum Computing และเทคโนโลยีการจัดเก็บข้อมูลแบบใหม่อย่าง DNA Storage ส่วน AI นั้นก็จะใช้พลังงานน้อยลง และมีเทคโนโลยีแสดงผลแบบใหม่อย่าง Near Eye Display สำหรับแสดงข้อมูล AR และ VR ได้ด้วยคุณภาพสูง

 

16. Xiaoyun Sun: Computer Vision จะมามีบทบาทต่อการทำงานในอนาคต

ในปี 2017 เทคโนโลยี Computer Vision ที่ใช้ Deep Learning จะก้าวหน้าไปอย่างรวดเร็ว และสามารถจำแนกวัตถุต่างๆ ได้อย่างแม่นยำในระดับเดียวกับมนุษย์ได้ภายในอุปกรณ์ขนาดเล็กที่มีรูปแบบหลากหลาย ส่วนปี 2027 นั้นระบบคอมพิวเตอร์จะสามารถมองเห็นโลกได้ในทุกๆ ภาคส่วนด้วยการนำเทคนิค Deep Learning และ Wide Learning มาผสานกัน เพื่อช่วยมนุษย์ในการทำงานในอุตสาหกรรมต่างๆ ได้อย่างมากมาย

 

17. Dongmei Zhang: Big Data จะเริ่มรับข้อมูลจากหลากหลายแหล่งมากขึ้น และรับข้อมูลจากผู้ใช้งานโดยตรง

ปี 2017 นั้น Smart Data Discovery จะมาช่วยให้การทำ Data Analytics และ Data Visualization ก้าวหน้าขึ้นไปอย่างรวดเร็ว ทำให้สามารถทำการค้นพบความรู้ใหม่ๆ ได้โดยอัตโนมัติเพื่อช่วยแนะนำผู้ใช้งานได้ทันที รวมถึงจะทำการเรียนรู้จากผู้ใช้งานและนำไปใช้ในการปรับปรุงการวิเคราะห์ได้อย่างต่อเนื่อง ส่วนในปี 2027 นั้นการทำ Data Analytics และ Data Visualization จะสามารถทำได้โดยการผนวกข้อมูลจากหลายแหล่งและหลายรูปแบบในระดับความลึกที่แตกต่างกันได้ ในขณะที่ผู้ใช้งานนั้นจะสามารถเข้าถึงข้อมูลหรือการวิเคราะห์ข้อมูลเหล่านี้ได้ด้วยการใช้ภาษาพูด และสามารถนำข้อมูลเหล่านี้ไปใช้งานได้ในหลากหลายแง่มุมในการใช้ชีวิตและการทำงาน

 

ก็ต้องติดตามกันต่อไปครับว่าคำทำนายแนวโน้มเหล่านี้จะเป็นจริงมากน้อยแค่ไหนในอนาคต

ที่มา: https://blogs.microsoft.com/next/2016/12/05/17-17-microsoft-researchers-expect-2017-2027/#sm.0007fy9za16y1fea1045co41lnva1

from:https://www.techtalkthai.com/17-technology-predictions-for-2017-2027-by-microsoft-researhcers/