มุมมองสี่มิติของข้อมูลขนาดใหญ่

ข่าวเทคโนโลยี Friday January 4, 2013 16:56 —ThaiPR.net

กรุงเทพฯ--4 ม.ค.--คอร์แอนด์พีค บทความโดย นายวัชรสิทธิ์ สันติสุขนิรันดร์ ผู้จัดการประจำประเทศไทย ฮิตาชิ ดาต้า ซิสเต็มส์ พีทีอี ลิมิเต็ด การจัดการกับข้อมูลขนาดใหญ่นั้นไม่ได้เกี่ยวข้องเฉพาะกับปริมาณของชุดข้อมูลขนาดใหญ่เท่านั้น แต่ยังครอบคลุมถึงการจัดการกับความหลากหลายของข้อมูล (ชนิดข้อมูล) ที่เพิ่มขึ้นอย่างมาก และความรวดเร็วของข้อมูล (ความรวดเร็วในการสร้างข้อมูล)1 , อ้างอิงจากรายงานของการ์ทเนอร์ โดยเมื่อช่วงปี พ.ศ. 2544 ดั๊ก เลน นักวิเคราะห์จากบริษัท เมตา กรุ๊ป (ปัจจุบันคือบริษัท การ์ทเนอร์)2 ได้นิยามคำว่ามุมมองสามมิติของการจัดการข้อมูลว่า หมายถึง ปริมาณ (volume) ความหลากหลาย (variety) และความเร็ว (velocity) โดยในปัจจุบัน บริษัท การ์ทเนอร์ ยังคงเดินหน้าใช้โมเดลนี้ช่วยองค์กรต่างๆ ให้เกิดความเข้าใจในข้อมูลขนาดใหญ่และค้นหารูปแบบต่างๆ ที่มีอยู่ภายในข้อมูลเหล่านั้นเพื่อนำไปสู่การตัดสินใจที่ดียิ่งขึ้น โดยล่าสุดรายงานจากบริษัท ไอดีซี ได้เพิ่ม “มูลค่า” (value) ให้เป็นมิติข้อมูลที่สี่ นอกเหนือจาก ปริมาณ ความรวดเร็ว และความหลากหลาย3 การดึง “มูลค่าเชิงกลยุทธ์” ออกมาจากข้อมูลที่กำลังเพิ่มจำนวนขึ้นอย่างรวดเร็ว ซึ่งมีความหลากหลาย และมีขนาดมหาศาลนั้น สามารถสร้างประโยชน์อย่างมากให้กับองค์กรหรือแม้แต่สังคมโดยรวมได้ ตัวอย่างความสำเร็จมีให้เห็นแล้วอย่างมากมาย โดยกรณีตัวอย่างที่มีชื่อเสียงที่สุด เช่น ผู้ประกอบการด้านข้อมูลขนาดใหญ่ อย่าง Amazon และ Google ที่ให้ความสำคัญอย่างมากต่อข้อมูลการคลิก (click streams) ที่เชื่อมโยงกับตำแหน่งการจัดวางโฆษณา สำหรับตัวอย่างอื่นๆ ได้แก่ Walmart และ 7-Eleven ที่ใช้ข้อมูลเพื่อช่วยในการจัดเตรียมสต็อกสินค้าและการส่งเสริมการขาย จึงเป็นเหตุผลสำคัญที่องค์กรธุรกิจและผู้นำด้านไอทีทั้งหมดจะต้องเข้าใจในสี่มิติของข้อมูลขนาดใหญ่ รวมทั้งจะต้องเรียนรู้ด้วยว่ากลยุทธ์ระบบจัดเก็บข้อมูลที่เหมาะสมสามารถ สร้างรากฐานที่มั่นคงสำหรับการขยายตัวทางธุรกิจในอนาคตได้อย่างไร ความท้าทายของปริมาณข้อมูลที่กำลังเพิ่มมากขึ้น ในบริบทของข้อมูลขนาดใหญ่ (Big Data) "ปริมาณ" หมายถึงจำนวนข้อมูลที่ถูกสร้างขึ้น ปริมาณอาจมีความแตกต่างกันระหว่างภาคอุตสาหกรรมและภาคส่วนบุคคล ตัวอย่างเช่น ผู้ให้บริการระบบคลาวด์โดยปกติ จะสามารถจัดการกับข้อมูลได้มากถึงระดับเอ็กซาไบต์ ขณะที่ร้านค้าปลีกจะจัดการข้อมูลในแต่ละรายการที่มีการเปลี่ยนแปลง (Transaction) ที่ระดับเพตาไบต์ อย่างไรก็ตาม ไม่ว่าขนาดของข้อมูลจะมากน้อยเพียงใด องค์กรธุรกิจทั้งสองรูปแบบนี้ต้องพบกับความท้าทายของปริมาณข้อมูลขนาดใหญ่ที่กำลังเพิ่มจำนวนขึ้นอย่างต่อเนื่อง อันเป็นผลมาจากวิวัฒนาการของเทคโนโลยีและแนวทางปฏิบัติใหม่ๆ ทางธุรกิจ แนวทางแก้ไขปัญหาปริมาณข้อมูลขนาดใหญ่นั้น คือความสามารถในการปรับขยายของระบบจัดเก็บข้อมูลที่ครอบคลุมหลายมิติ โดยสามารถปรับขยายในแนวตั้ง (scale up) เพื่อเพิ่มประสิทธิภาพในการเข้าถึงเฉพาะบุคคล ปรับขยายในแนวนอน (scale out) เพื่อการเข้าถึงแบบกระจาย และปรับขยายในแนวลึก (scale deep) เพื่อการเข้าถึงทรัพยากรระบบจัดเก็บข้อมูลแบบเสมือนที่ต่างชนิดกันได้อย่างครอบคลุม ประเด็นสำคัญก็คือ ความสามารถในการปรับขยายได้ให้ความจุที่เหนือกว่าความจุที่จำเป็น ต้องใช้ในปัจจุบัน เนื่องจากความต้องการในระบบจัดเก็บข้อมูลกำลังเพิ่มจำนวนขึ้นอย่างต่อเนื่อง และจากข้อมูลของบริษัท การ์ทเนอร์ พบว่าปริมาณข้อมูลทั่วโลก จะขยายตัวอย่างน้อย 59% ต่อปี1 ความเร็วในด้านการจัดเก็บ การค้นหา และการเรียกใช้ข้อมูลขนาดใหญ่ "ความเร็ว" ของข้อมูลขนาดใหญ่ หมายถึงความเร็วในการจัดทำดัชนีและการจัดเก็บข้อมูล รวมถึงความเร็วในการประมวลผลข้อมูลสำหรับการนำเสนอด้วย สิ่งนี้มีความสำคัญเนื่องจากมีข้อมูลที่ถูกสร้างเป็นจำนวนเพิ่มมากขึ้นเรื่อยๆ และขณะนี้กำลังขยายตัวอย่างมหาศาลในรูปแบบมัลติมีเดียและออบเจ็กต์ ปริมาณข้อมูลขนาดใหญ่ มีความแตกต่างกันระหว่างอุตสาหกรรมและภาคส่วนต่างๆ ดังนั้น คุณลักษณะ ด้านประสิทธิภาพของข้อมูล ขนาดใหญ่จึงแตกต่างกันไปตามชนิดข้อมูล ตัวอย่างเช่น ข้อมูลบางอย่างจะถูกสตรีมในรูปของบล็อกขนาดใหญ่อย่างต่อเนื่อง ขณะที่ข้อมูลอื่นๆ อาจต้องแบ่งย่อยให้มีขนาดเล็กในรูปของบล็อกแบบสุ่มหรือเป็นไฟล์เล็กๆ นับพันล้านไฟล์ และองค์กรยังจะต้องจัดการสิ่งต่างๆ ในระหว่างนั้นด้วย! นี่จึงเป็นเหตุผลที่สถาปัตยกรรมระบบจัดเก็บข้อมูลที่เหมาะสมต้องไม่เพียงแต่สามารถจัดการข้อมูลแบบไม่มีโครงสร้างได้เท่านั้น แต่ยังจะต้องสามารถสนับสนุนแอพพลิเคชั่นประสิทธิภาพสูงได้อย่างรวดเร็วอีกด้วย รวมทั้งต้องสามารถบันทึก ประมวลผล จัดเก็บ ค้นหา และวิเคราะห์ข้อมูลชนิดต่างๆ ได้ โดยไม่คำนึงว่าข้อมูลจะอยู่ในรูปของบล็อก ไฟล์ หรือออบเจ็กต์ การดึงมูลค่าที่มีอยู่จากข้อมูลขนาดใหญ่ที่หลากหลาย การเพิ่มจำนวนอย่างรวดเร็วของข้อมูลขนาดใหญ่นั้นเป็นผลมาจาก "ความหลากหลาย" ของข้อมูล นอกจากการขยายตัวของข้อมูลที่มีการเปลี่ยนแปลงแต่ละรายการ (Transaction) ที่มีอยู่เดิมแล้ว โลกที่ เต็มไปด้วยข้อมูล ในปัจจุบันยังรวมแอพพลิเคชั่นขั้นสูงเฉพาะอุตสาหกรรมไว้ด้วย ตัวอย่างเช่น ขณะนี้ร้านค้าปลีกได้รวบรวมข้อมูลส่วนบุคคลไว้ในข้อมูลที่มีการเปลี่ยนแปลงแต่ละรายการ (Transaction) เพียงครั้งเดียว และสามารถบันทึกพฤติกรรมของผู้บริโภคในสภาพแวดล้อมต่างๆ ได้เป็นจำนวนมาก ในขณะที่โรงพยาบาลใช้การเอ็กซเรย์ ซีทีสแกน เอ็มอาร์ไอ คลื่นไฟฟ้าหัวใจ และเครื่องมือตรวจสอบอื่นๆ สำหรับการดูแลผู้ป่วย การจัดยา และการเรียกเก็บเงิน นอกจากนี้ ความนิยมของสมาร์ทโฟนและพีซีแบบพกพายังได้สร้างโลกที่เต็มไปด้วยไฟล์สื่อสังคมออนไลน์ นับพันล้านไฟล์ ซึ่งรวมถึงรูปถ่าย การทวีต และการโพสต์ต่างๆ ในบล็อก ในการใช้ประโยชน์จากขุมพลังข้อมูลขนาดใหญ่ที่หลากหลายนั้น ระบบจัดเก็บข้อมูลของคุณจะต้องสามารถจำลองข้อมูลชนิดต่างๆ เหล่านี้ให้เป็นระบบเสมือนที่สามารถเชื่อมโยงกับข้อมูลที่มีอยู่ภายในระบบได้ ฟังก์ชันการสืบค้นเมตาดาต้า (metadata) สามารถจัดการกับปัญหาเหล่านี้ได้ เนื่องจาก เมตาดาต้าจะให้รายละเอียดเนื้อหาข้อมูลและนโยบายที่จะใช้ควบคุมข้อมูล รวมทั้งช่วยให้ผู้ใช้สามารถค้นหาข้อมูลทั้งหมดได้โดยที่ไม่คำนึงถึงแหล่งที่มาหรือรูปแบบของข้อมูล การค้นหาเมตาดาต้าสามารถทำได้โดยง่ายและรับรู้ได้ถึงความเกี่ยวข้องของข้อมูลอย่างชาญฉลาดครอบคลุมทรัพยากรที่มีอยู่จำนวนมากซึ่งมีการเชื่อมต่อระหว่างกันเพื่อสนับสนุนเป้าหมายทางธุรกิจ คาดการณ์แนวโน้มตลาด ระบุความผิดปกติทางการเงินและความปลอดภัย ตลอดจนจุดประกายให้เกิดนวัตกรรมใหม่ขึ้น ด้วยเหตุนี้ การจัดการข้อมูล ที่มีความหลากหลายจึงสามารถดำเนินการได้อย่างรวดเร็วและง่ายดาย มิติที่สี่ - มูลค่าของข้อมูลขนาดใหญ่ "มูลค่า" ของข้อมูลขนาดใหญ่มาในรูปแบบของสารสนเทศที่ได้จากการวิเคราะห์ข้อมูล จะเห็นได้ว่ามีตัวอย่างมากมายที่แสดงให้เห็นว่าข้อมูลขนาดใหญ่สามารถนำมาซึ่งมูลค่าแก่บริษัทขนาดใหญ่และเล็กได้ด้วยการรวบรวมข้อมูลจากแหล่งที่มาใหม่ๆ และเชื่อมโยงเข้าด้วยกันเพื่อสร้างเป็นสารสนเทศที่จะช่วยให้ธุรกิจสามารถขยายตัว และเพิ่มขีดความสามารถด้านการแข่งขันได้ในระดับสูงสุด ในช่วงต้นของเอกสารนี้ เราได้ยกตัวอย่าง Amazon, Google, Walmart และ 7 Eleven ซึ่งทั้งหมดนี้ได้พิสูจน์ให้เห็นแล้วว่าพวกเขาสามารถค้นพบมูลค่าในข้อมูล ขนาดใหญ่ได้อย่างเห็นผล การทำเหมืองข้อมูล (Data Mining) และการวิเคราะห์ข้อมูลที่มีการเปลี่ยนแปลงแต่ละรายการ (Transaction) โดยใช้การคัดแยก การถ่ายโอน และการโหลด (Extract/Transform/Load), NoSQL, Hadoop และฐานข้อมูล ในหน่วยความจำหลัก (in-memory) ถือเป็นโซลูชั่นที่ดีเยี่ยมสำหรับข้อมูลขนาดใหญ่ที่ถูกสร้างโดยองค์กรธุรกิจและมนุษย์ อย่างไรก็ตาม โซลูชั่นเหล่านี้อาจไม่สามารถตอบสนองความต้องการด้านมูลค่าข้อมูลขนาดใหญ่ได้ ในอนาคต ซึ่งเป็นเรื่องที่เกี่ยวข้องกับข้อมูลที่สร้างขึ้นจากเครื่องเป็นหลัก ฮิตาชิ ดาต้า ซิสเต็มส์ เชื่อว่า "มูลค่า" ของข้อมูลขนาดใหญ่ในอนาคตจะต้องใช้แนวทางใหม่ๆ ในการบริหารจัดการ เนื่องจากชนิดของข้อมูลมีความซับซ้อนมากขึ้นเรื่อยๆ เช่น การสแกนสมองหรือ MRI ปัจจุบันมีบุคลากรและระบบที่มีความสามารถในการเขียนและวิเคราะห์ข้อมูลนี้อยู่แล้ว แต่ก็จำเป็นต้องใช้ความรู้และความสามารถที่ไม่เคยมีมาก่อน เพื่อเปรียบเทียบชุดข้อมูลที่ซับซ้อนเหล่านี้กับสิ่งที่มีอยู่ในอดีต ซึ่งอาจมีอายุยาวนานกว่า 10 ปีหรือมากกว่านั้น และจากแนวโน้มข้อมูลปัจจุบันและความต้องการของผู้ใช้ที่เปลี่ยนไปได้ยืนยันให้เห็นแล้วว่า โมเดลและสถาปัตยกรรมที่มีอยู่นั้นไม่เพียงพอที่จะดึงมุมมองเชิงลึกจากข้อมูล ขนาดใหญ่ โดยเฉพาะข้อมูลที่เครื่อง สร้างขึ้น ระบบคลาวด์สามชั้นสำหรับสี่มิติของข้อมูลขนาดใหญ่ สำหรับมุมมองมหภาคของวิธีการจัดการข้อมูลขนาดใหญ่ที่ครอบคลุม ทีมวิจัยและพัฒนาของ ฮิตาชิ ได้เสนอโมเดลใหม่ที่ประกอบด้วยส่วนประกอบหลักสามส่วน ได้แก่ ระบบคลาวด์สำหรับโครงสร้างพื้นฐาน ระบบคลาวด์สำหรับเนื้อหา และระบบคลาวด์สำหรับสารสนเทศ โดยทั้งหมดนี้ยึดตามแนวทางของ ฮิตาชิ ดาต้า ซิสเต็มส์ เกี่ยวกับโซลูชั่นระบบจัดเก็บข้อมูลเพื่อจัดการค่าพารามิเตอร์ในสี่มิติ ได้แก่ ปริมาณ ความเร็ว ความหลากหลาย และมูลค่า - ระบบคลาวด์สำหรับโครงสร้างพื้นฐาน (Infrastructure Cloud) — ระบบนี้เป็นโครงสร้างพื้นฐานจริงที่รองรับการทำงานของแอพพลิเคชั่นของ ฮิตาชิ (ผ่านทางระบบคลาวด์สำหรับเนื้อหาและระบบคลาวด์สำหรับสารสนเทศ) และบริษัทอื่นๆ ครอบคลุมถึงระบบคอมพิวเตอร์ ระบบเครือข่าย ระบบจัดเก็บข้อมูล และทรัพยากรเสมือนที่มีระบบรักษาความปลอดภัยแบบภายใน ตลอดจนซอฟต์แวร์การจัดการเพื่อจัดระเบียบการใช้งาน การเลิกใช้งาน และการบริหารจัดการทรัพยากรแบบเสมือนและทรัพยากรจริงอย่างต่อเนื่อง โดยโครงสร้างพื้นฐานนี้สามารถตอบสนองความต้องการด้าน "ปริมาณ" และ "ความเร็ว" ได้อย่างแท้จริง เมื่อใช้ระบบจัดเก็บข้อมูลเสมือนจริง Hitachi Virtual Storage Platform (VSP) และ Hitachi Unified Storage (HUS) สามารถปรับการใช้งานระบบคลาวด์สำหรับโครงสร้างพื้นฐานให้เหมาะสมกับความจุที่สามารถปรับขยายได้ในระดับเพตาไบต์ และสามารถสร้างพูลความจุของระบบจัดเก็บข้อมูลที่มีความจุถึง 1 ใน 4 ของหน่วยเอ็กซาไบต์ จะเห็นได้ว่าเฉพาะระบบไฟล์แบบออบเจ็กต์ (Hitachi NAS/HUS) และที่เก็บออบเจ็กต์แบบเฉพาะ (Hitachi Content Platform, HCP) เพียงลำพังก็สามารถปรับขยายได้ที่ระดับเพตาไบต์ ซึ่งเพียงพอสำหรับไฟล์หรือออบเจ็กต์นับพันล้านรายการ เมื่อติดตั้ง VSP หรือ HUS เรียบร้อยแล้ว ระบบคลาวด์สำหรับโครงสร้างพื้นฐานสามารถปรับขยายเพิ่มเติมได้ ด้วยขีดความสามารถในด้านการปรับขยายที่ทรงประสิทธิภาพของระบบจัดเก็บข้อมูลแบบบล็อก อีกทั้งยังมีแพลตฟอร์มการจัดการทั่วไป ที่ชื่อว่า Hitachi Command Suite อีกด้วย และเพื่อให้มั่นใจว่าแพลตฟอร์มระบบคลาวด์ดังกล่าว สามารถทำงานด้วยประสิทธิภาพในระดับสูงสุด Hitachi Dynamic Tiering จะทำให้พูลบล็อกข้อมูลสำหรับ VSP และ HUS, ระบบไฟล์ HNAS และฐานข้อมูล HCP ทั้งหมดได้รับการปรับขยายอย่างอิสระ และไม่มีการขัดจังหวะการทำงานด้วยการปรับสมดุลความจุที่เพิ่มใหม่ โดยอัตโนมัติ ทั้งนี้ ระบบไฟล์แบบดั้งเดิมและอุปกรณ์ระบบจัดเก็บข้อมูลแบบบล็อกไม่อนุญาตให้มีการปรับขยายในลักษณะนี้ได้อย่างอิสระ เมื่อจำเป็น ต้องเพิ่มความจุใหม่ ข้อมูลในระบบเก่าเหล่านี้จะต้องถูกเอาออกจากระบบไฟล์หรือบล็อกเดิมก่อนแล้วจึงค่อยโหลดกลับ เข้าไปในความจุใหม่ ซึ่งถือว่าไม่มีประสิทธิภาพทั้งในด้าน "ปริมาณ" และ "ความเร็ว" ที่สัมพันธ์กับข้อมูลขนาดใหญ่ในปัจจุบัน - ระบบคลาวด์สำหรับเนื้อหา (Content Cloud) — ซอฟต์แวร์และฮาร์ดแวร์ที่มีการจัดการที่ดีสามารถจัดเก็บและค้นหาเนื้อหาได้ทั้งแบบมีโครงสร้างและไม่มีโครงสร้าง ดังนั้น จึงสามารถตอบสนอง "ความหลากหลาย" ของข้อมูลขนาดใหญ่ได้ โซลูชั่นระบบจัดเก็บข้อมูลของ ฮิตาชิ สามารถจัดการข้อมูลได้ทุกชนิดในระบบที่ต่างกัน และเมื่อมีการผสานรวม VSP หรือ HUS เข้ากับ HNAS และ HCP ขององค์กรต่างๆ แล้ว ก็สามารถสร้างพูลจัดเก็บข้อมูลเดียวสำหรับการจัดการ "ความหลากหลาย" ของข้อมูลได้ทั้งหมดโดยไม่คำนึงว่าข้อมูลนั้น จะอยู่ในรูปแบบบล็อก ไฟล์ หรือออบเจ็กต์ และทั้งหมดนี้จะมีมุมมองการจัดการเดียว ขณะที่ฟังก์ชันการสืบค้นเมตาดาต้าของ HCP ยังสามารถค้นหาตามบริบทเนื้อหาอย่างชาญฉลาดเพื่อช่วยองค์กรเปลี่ยนข้อมูลขนาดใหญ่เป็นสารสนเทศ ที่นำไปใช้ได้จริงโดยที่ไม่จำเป็นต้องเข้าถึงข้อมูลเอง - ระบบคลาวด์สำหรับสารสนเทศ (Information Cloud) — กลไกและเครื่องมือขั้นสูงที่จะวิเคราะห์ แสดงผล และปรับเปลี่ยนการใช้งานเนื้อหาทั้งแบบมีโครงสร้างและไม่มีโครงสร้างด้วยขีดความสามารถด้านการจัดการระบบขั้นสูงที่จะดึง "มูลค่า" ของข้อมูลขนาดใหญ่ออกมา โดยขณะนี้ ฮิตาชิ ดาต้า ซิสเต็มส์ ได้ร่วมมือกับผู้จำหน่ายรายอื่นๆ เพื่อตอบสนองความต้องการด้านมูลค่าของข้อมูลขนาดใหญ่ในปัจจุบัน ส่วนประกอบเหล่านี้ถือเป็นหลักสำคัญในการปรับเปลี่ยนรูปแบบ เมื่อศูนย์ข้อมูลในรูปแบบเดิมได้พัฒนาไปเป็นศูนย์สารสนเทศ ซึ่งสิ่งนี้สามารถบรรลุผลได้โดยอาศัยหลักการ 3 ประการ ได้แก่ การพัฒนาซอฟต์แวร์ การพัฒนาไมโครโค้ด/เฟิร์มแวร์ และวิศวกรรมฮาร์ดแวร์สำหรับแอพพลิเคชั่นด้านสารสนเทศ/เนื้อหาขั้นสูงและโครงสร้างพื้นฐานหลัก จากรูปที่ 1 ความสามารถด้านการวิจัยและพัฒนาทั่วโลกของ ฮิตาชิ ในแอพพลิเคชั่นด้านสารสนเทศ/เนื้อหาและโครงสร้างพื้นฐานหลักจะยึดตามหลักการทั้งหมดนี้ ซึ่งช่วยให้ฮิตาชิสามารถสร้างโซลูชั่นที่ตอบสนองความต้องการข้อมูลขนาดใหญ่ในปัจจุบันและต่อไปในอนาคตได้ ความต้องการ "มูลค่า" ของข้อมูลขนาดใหญ่ในอนาคต ความต้องการ "มูลค่า" ของข้อมูลขนาดใหญ่ในอนาคต มีความเฉพาะเจาะจงสูงมาก ซึ่งจำเป็นต้องอาศัย ขีดความสามารถที่ครอบคลุมของกลุ่มบริษัทฮิตาชิ ในมุมนี้จะเห็นได้ว่า ฮิตาชิมีความแข็งแกร่งแตกต่างจาก บริษัทอื่นอย่างชัดเจน ด้วยจำนวนบริษัทสาขา 900 แห่งที่มีความชำนาญและมีความเชี่ยวชาญเชิงลึกในด้านข้อมูลอย่างรอบด้าน ตัวอย่างเช่น ฝ่ายการแพทย์ของ ฮิตาชิ จะสร้าง MRI ที่ไม่เพียงแต่ถ่ายภาพสแกนเท่านั้น แต่จะทำการวิเคราะห์ภาพถ่ายดังกล่าวด้วย ในฝ่ายระบบขนส่ง ฮิตาชิ ได้พัฒนาโซลูชั่นที่ครอบคลุม ตั้งแต่รถไฟความเร็วสูง (หัวกระสุน) ในญี่ปุ่นไปจนถึงระบบรถไฟไฮบริดสำหรับมหกรรมกีฬาโอลิมปิค ณ กรุงลอนดอน ขณะที่อีกฝ่ายหนึ่งของ ฮิตาชิ ได้สร้างกล้องชนิดพิเศษที่มีซอฟต์แวร์จดจำใบหน้าสำหรับตรวจจับและติดตามตัวบุคคล และยังใช้สำหรับวิเคราะห์การแสดงออกทางสีหน้าของบุคคลที่ตอบสนองต่อสิ่งเร้า เช่น โฆษณา ในปัจจุบันยังไม่มีบริษัทอื่นใดในโลกที่มีความเชี่ยวชาญรอบด้านเช่นนี้ ซึ่งรวมถึงด้านพลังงาน การขนส่ง การแพทย์ และการเงินด้วย ขีดความสามารถดังกล่าวล้วนแต่มีเทคโนโลยีสารสนเทศเป็นแกนหลัก และจากการแบ่งปันมุมมองร่วมกันทั้งกลุ่มบริษัทของ ฮิตาชิ นี่เองที่ช่วยสนับสนุนให้ ฮิตาชิ ดาต้า ซิสเต็มส์ ก้าวสู่การเป็นบริษัทที่มีความโดดเด่นอย่างมากในด้านการแก้ไขปัญหาข้อมูลขนาดใหญ่ในอนาคต 1. ข่าวประชาสัมพันธ์: Gartner Says Solving 'Big Data' Challenge Involves More Than Just Managing Volumes of Data, Gartner, June 27, 2011 2. Douglas, Laney. "3D Data Management: Controlling Data Volume, Velocity and Variety". Gartner, February 6, 2001. 3. http://www.idc.com/getdoc.jsp?containerId=IDC_P23177, IDC

เว็บไซต์นี้มีการใช้งานคุกกี้ ศึกษารายละเอียดเพิ่มเติมได้ที่ นโยบายความเป็นส่วนตัว และ ข้อตกลงการใช้บริการ รับทราบ