การประชุมคณะรัฐมนตรีประจำวันที่ 13 ธันวาคม 2565 มีมติเห็นชอบการตั้ง สถาบันคลังข้อมูลขนาดใหญ่แห่งชาติ (องค์การมหาชน) หรือ National Big Data Institute (NBDI) โดยเป็นการยกระดับ สถาบันส่งเสริมการวิเคราะห์และบริหารข้อมูลขนาดใหญ่ภาครัฐ (สวข.) ซึ่งปัจจุบันเป็นหน่วยงานอยู่ภายใต้สำนักงานส่งเสริมเศรษฐกิจดิจิทัล depa ออกเป็นองค์การมหาชนอีกแห่ง มีจำนวนบุคลากร 70 คนที่จะโอนไปอยู่ภายใต้ NBDI
การตั้ง National Big Data Institute มีอายุองค์กรเบื้องต้น 5 ปี เมื่อครบ 5 ปีแล้ว สำนักงาน ก.พ.ร. จะประเมินความคุ้มค่าตามตัวชี้วัดต่อไป
นาทีนี้ ถ้าพูดถึงบริษัทบิ๊กดาต้าที่มีชื่อเสียงอันดับต้นๆ ในไทย คิดว่าหลายคนคงจะนึกถึง Wisesight เป็นที่แรก และนี่เป็นโอกาสดีที่ Blognone Workplace ได้โคจรมาพบกับ Wisesight อีกครั้ง หลังจากได้พูดคุยกันไปสักราวๆ 1-2 ปีก่อน
การกลับมาพูดคุยครั้งนี้ เราจะพาไปเจาะลึกว่า จนถึงตอนนี้ Wisesight เติบโตไปถึงขนาดไหน มีเป้าหมายอะไรรออยู่ข้างหน้า และประสบการณ์ที่จะได้หากเข้ามาเป็นส่วนหนึ่งของ Wisesight
รวมถึงเหตุผลที่ว่า ทำไม Wisesight ถึงเป็นสถานที่ที่เหมาะสมสำหรับคนทำงาน ที่อยากเข้าวงการเทคโนโลยี
Apache Spark เป็นซอฟต์แวร์วิเคราะห์ข้อมูล big data แบบขนานที่ใช้งานกันอย่างแพร่หลาย และถูกนำไปให้บริการโดยคลาวด์หลายยี่ห้อ (เช่น Azure Databricks หรือ Amazon EMR) ถึงแม้เพิ่มความสะดวกในการดูแลระบบกว่าเดิม แต่ยังคงรูปแบบการเช่าเวลาเครื่องใช้งานเป็นชั่วโมงเหมือนคลาวด์ทั่วไป
ล่าสุด Google Cloud นำเอา Spark มาผสานกับแนวคิด Serverless ที่ไม่ต้องสนใจระบบคลัสเตอร์เบื้องหลังเลย เพราะตัวบริการจัดการเรื่องสเกลให้อัตโนมัติ และจ่ายเงินเฉพาะเท่าที่ใช้งาน
MSyne เปิดโครงการ MSpire Academy เพื่อรับน้องใหม่ไฟแรงที่สนใจเรื่อง Big Data & Data Analytics เข้ามาร่วม Workshop เรียนรู้เนื้อหาภาคทฤษฎีที่สำคัญ เพื่อปูพื้นฐานให้แน่น และฝึกภาคปฏิบัติกับข้อมูลที่หลากหลาย สัมผัสกับเคสที่ต้องพบในการทำงานจริง เพื่อพัฒนาศักยภาพด้าน Data อย่างเข้มข้น ด้วยหลักสูตร 2 เดือนเต็ม เตรียมความพร้อมให้คุณก้าวเข้าสู่สายงาน Data ได้อย่างมั่นใจ และทำงานร่วมกับลูกค้าระดับ Enterprise ในหลากหลายอุตสาหกรรม พร้อมกับทีม Mentor ที่จะคอยให้คำแนะนำในการทำงานอย่างใกล้ชิด "เทรนฟรี มีงานทำ"
บริการ BigQuery ของ Google Cloud นับเป็นบริการยอดนิยมอีกตัวของ Google Cloud โดยองค์กรนิยมนำมาใช้เก็บข้อมูลขนาดใหญ่ เนื่องจากกูเกิลคิดค่าบริการเฉพาะค่าเก็บข้อมูลและค่าคิวรีเท่านั้น ตอนนี้บริการ BigQuery เพิ่มฟีเจอร์จำกัดสิทธิ์การเข้าถึงข้อมูลระดับแถว (row-level security - RLS)
RLS เปิดให้ผู้ใช้กำหนดนโยบายการเข้าถึงข้อมูลแต่ละแถวตามฟิลด์เตอร์ที่กำหนดไว้ เช่น สาขาเจ้าของข้อมูล ผลกระทบของการจำกัดสิทธิ์เช่นนี้ทำให้การคิวรีโดยผู้ใช้คนละคนจะคิวรีได้ผลไม่เหมือนกัน หน้าจอ BigQuery จะขึ้นเตือนไว้ว่าข้อมูลถูกกรองจากสิทธิ์เข้าถึงข้อมูล
ตอนนี้ BigQuery มีฟีเจอร์จำกัดสิทธิ์ได้ 5 รูปแบ ได้แก่ ระดับโปรเจค, ระดับชุดข้อมูล, ระดับตาราง, ระดับคอลัมน์, และระดับแถวที่เพิ่มเข้ามาในวันนี้
ในงาน Think 2021 ของ IBM มีประกาศเปิดตัวโปรเจกต์ CodeNet ชุดข้อมูลขนาดใหญ่ที่สร้างขึ้นเพื่อสอน AI เขียนโปรแกรม โดยชุดข้อมูลประกอบด้วยตัวอย่างโค้ด 14 ล้านชุดรวม 500 ล้านบรรทัด และในภาษาโปรแกรมที่แตกต่างกันไปกว่า 55 ภาษา ตั้งแต่ที่ยังมีนิยมใช้งานคือ C++, Java, Python และ Go ไปจนถึงภาษาดั้งเดิมอย่าง COBOL, Pascal และ FORTRAN
ไมโครซอฟท์ประเทศไทยเปิดตัว Azure Synapse Analytics แพลตฟอร์มดึงข้อมูล, จัดการและวิเคราะห์ข้อมูลได้ในแพลตฟอร์มเดียว สามารถดึงข้อมูลจากหลายแหล่งทั้งบนคลาวด์ มัลติคลาวด์ และ On Premise มาจัดการและวิเคราะห์ออกมาเป็นแดชบอร์ดในรูปแบบกราฟให้เห็นภาพได้ง่าย ลดปัญหาการทำงานหลายแพลตฟอร์ม
ไมโครซอฟท์บอกว่า Synapse จะเป็นผลิตภัณฑ์เรือธงในสายงาน Data ต่อจากนี้ และยังบอกด้วยว่าในประเทศไทย มีองค์กรในหลากหลายอุตสาหกรรมที่ใช้งาน Azure Synapse มี 13 บริษัทในดัชนี SET50 ด้วย
AI หรือ Artificial Intelligence เทคโนโลยีที่คนทั่วโลกต่างรู้จัก และกำลังมาแรงในโลกธุรกิจ ทำให้องค์กรจำนวนมากมีความพยายามนำ AI มาประยุกต์ใช้เพื่อเพิ่มขีดความสามารถในการแข่ง จะเห็นได้จาก Gartner’s Hype Cycle for Emerging Technology ประจำปี 2020 นั้น มี AI เป็นส่วนประกอบ 1 ใน 3 ของเทรนเทคโนโลยีที่กำลังมาแรงที่สุด
หนึ่งในสาขาของ AI ที่มีการนำมาประยุกต์ใช้ในธุรกิจมากในระยะหลังคือ machine learning หรือการเรียนรู้ของเครื่องจักร เป็นการพัฒนา AI ด้วยการสร้างแบบจำลองสมองหรือ neural network เพื่อเรียนรู้การทำงานจากตัวอย่างข้อมูลที่ถูกป้อนเข้าไป ซึ่งสามารถแก้ปัญหาที่มีความซับซ้อนมากกว่าการพัฒนา AI ในรูปแบบดั้งเดิม
Google Cloud ประกาศพาบริการยอดนิยมของตัวเองอย่าง BigQuery ไปรันบนคลาวด์คู่แข่งทั้ง AWS และ Azure ในชื่อบริการ BigQuery Omni โดยยังใช้คอนโซล BigQuery เดิมบน Google Cloud แต่ไม่ต้องโยกข้อมูลข้ามคลาวด์ไปมา
กูเกิลระบุว่าเทคโนโลยีด้านล่างนั้นใช้ Anthos เป็นเลย์เยอร์สำหรับการรันเอนจิน BigQuery ซึ่งน่าจะแปลว่ากูเกิลไปเปิดคลัสเตอร์ Kubernetes ขึ้นใหม่เพื่อรันคิวรีแม้จะไม่ได้บอกไว้ตรงๆ ก็ตาม
ผู้ใช้ BigQuery Omni สามารถสั่งรันเอนจินบนโซนที่ข้อมูลของตัวเองวางอยู่แล้วคิวรีจากสตอเรจอย่าง S3 ได้จากในโซนของคลาวด์นั้นๆ โดยตรง เมื่อรันคิวรีแล้วสามารถเลือกให้แสดงผลกลับมาที่คอนโซลของ BigQuery บน Google Cloud หรือจะเซฟลงเป็นไฟล์กลับลงสตอเรจเพื่อหลีกเลี่ยงการย้ายข้อมูลข้ามคลาวด์ก็ได้
BlueDot บริษัทสตาร์ตอัพจากแคนาดาที่พัฒนาระบบแจ้งเตือนโรคระบาดด้วย Big Data สามารถแจ้งเตือนการระบาดของไวรัสอู่ฮั่นได้ตั้งแต่วันที่ 31 ธันวาคม ก่อนหน่วยงานของทางการหลายวัน (CDC ของสหรัฐอเมริกา ประกาศเตือนวันที่ 6 มกราคม, WHO ประกาศเตือน 9 มกราคม)
อัลกอริทึมของ BlueDot ใช้การสแกนข่าวสารในภาษาต่างประเทศ 65 ภาษา (ในที่นี้รวมเว็บบอร์ดและบล็อก), ข้อมูลจากเครือข่ายโรคพืชและสัตว์ รวมถึงประกาศจากหน่วยงานรัฐบาลของประเทศต่างๆ จากนั้นส่งต่อให้นักระบาดวิทยา (epidemiologist) วิเคราะห์อีกชั้นว่าข้อมูลถูกต้องไหมในเชิงวิทยาศาสตร์
เมื่อสองวันก่อนไมโครซอฟท์เปิดตัว Azure Synapse บริการคิวรีข้อมูลขนาดใหญ่ ที่อัพเกรดมาจาก Azure SQL Data Warehouse ที่งาน Ignite ผมมีโอกาสพูดคุยกับ John Macintyre ผู้จัดการกลุ่มสินค้า Azure Synapse ได้ข้อมูลเพิ่มเติมถึงบริการตัวนี้
ไมโครซอฟท์อัพเกรดบริการ Azure SQL Data Warehouse และเปิดตัวใหม่ในชื่อ Azure Synapse บริการประมวลผลข้อมูลระดับเพตาไบต์โดยชูความเร็วในการคิวรีในที่เร็วกว่า Google Big Query และ Amzon Redshift อย่างมาก
ในเดโมบนเวทีงาน Microsoft Ignite ไมโครซอฟท์โชว์ว่าการคิวรีทดสอบ Synapse ทำสำเร็จภายใน 9 วินาทีขณะที่ Big Query ใช้เวลาถึง 11 นาที
ค่าบริการคิดเป็นหน่วยเทราไบต์ เริ่มต้นที่ 1.2 ดอลลาร์ต่อเทราไบต์ต่อชั่วโมงรวมค่าประมวลผลแล้ว หากหยุดการประมวลผลจะคิดค่าเก็บข้อมูล 0.17 ดอลลาร์ต่อเทราไบต์ต่อชั่วโมง เทียบกับ BigQuery ที่คิดค่าบริการตามการคิวรีวเป็นครั้งๆ ไป ที่ 5 ดอลลาร์ต่อเทราไบต์
ในยุคที่ทุกองค์กรบอกว่ามีการใช้ข้อมูล Big Data เพื่อปรับปรุงบริการให้ดีขึ้น วิเคราะห์เพื่อหาช่องทางสร้างรายได้ใหม่ๆ ไปจนถึงการใช้ปัญญาประดิษฐ์ (AI) เพื่อเรียนรู้พฤติกรรมของลูกค้า คำถามสำคัญคือ Data เป็นเพียงแค่คำเท่ๆ เพื่อให้ดูดี หรือสามารถนำมาใช้งานได้จริงๆ กันแน่
สุดท้ายแล้วข้อมูลที่แต่ละองค์กรเก็บมา สามารถนำไปใช้ได้จริงอย่างไร มีการเปลี่ยนแปลงอะไรที่มาถึงตัวผู้บริโภคโดยเป็นบทเรียนจากข้อมูลเหล่านั้นบ้าง ส่วนแบ่งปันประสบการณ์จากองค์กรมีประสบการณ์การปรับปรุงสินค้าและบริการจริง พวกเขารู้ได้อย่างไรว่าต้องใช้ข้อมูลอะไร, ได้ข้อมูลเหล่านั้นมาจากไหน และแปลงข้อมูลมาเป็นการปรับปรุงบริการได้อย่างไร
ชะตาชีวิตของ MapR บริษัทสาย Big Data/Hadoop ที่กำลังตกที่นั่งลำบาก ลงเอยด้วยการขายกิจการให้กับยักษ์ใหญ่ Hewlett Packard Enterprise (HPE) โดยไม่เปิดเผยมูลค่า
การซื้อกิจการ MapR ของ HPE ครั้งนี้ไม่ได้เป็นการซื้อบริษัทตรงๆ แต่เป็นการซื้อทรัพย์สิน (business assets) ที่ประกอบด้วยเทคโนโลยี, สิทธิบัตร, ทรัพย์สินทางปัญญา และบุคลากรบางส่วน เข้าไปอยู่ภายใต้ธุรกิจด้านข้อมูลของ HPE ที่ใช้ชื่อว่า Intelligent Data Platform
Antonio Neri ซีอีโอของ HPE ระบุว่าซื้อทรัพย์สินของ MapR เพราะมีเทคโนโลยีด้านระบบไฟล์ขนาดใหญ่ ซึ่งนำไปต่อยอดเป็นธุรกิจด้านวิเคราะห์ข้อมูลได้
MapR Technologies หนึ่งในบริษัทที่พัฒนาซอฟต์แวร์ด้าน Big Data (อิงจาก Hadoop/Spark แต่เพิ่มฟีเจอร์ของตัวเองลงไป) เริ่มออกอาการไม่ค่อยดี หลังบริษัทแจ้งต่อสำนักงานแรงงานของรัฐแคลิฟอร์เนียว่า อาจต้องปลดพนักงานออก 122 คน และปิดสำนักงานใหญ่ที่เมือง Santa Clara หากบริษัทไม่สามารถหาเงินทุนก้อนใหม่ได้ทันวันที่ 14 มิถุนายนนี้
MapR แจ้งว่าก่อนหน้านี้เจรจากับนักลงทุนรายหนึ่ง แต่เมื่อผลประกอบการไตรมาสล่าสุดของบริษัทออกมาแย่ (บริษัทอยู่นอกตลาดหลักทรัพย์ จึงไม่เผยข้อมูลผลประกอบการต่อสาธารณะ) ทำให้นักลงทุนตัดสินใจถอนตัวออกไป ตอนนี้บริษัทกำลังเจรจากับนักลงทุนรายใหม่อยู่
Apache Spark กลายเป็นซอฟต์แวร์มาตรฐานในการวิเคราะห์ข้อมูลขนาดใหญ่แบบเรียลไทม์ แต่ภาษาโปรแกรมที่เชื่อมต่อกับ Spark ได้ยังจำกัดอยู่แค่ภาษา Java, Python, Scala, R, SQL เท่านั้น
ไมโครซอฟท์จึงเอาใจชาว .NET ด้วยการเปิดตัว .NET for Apache Spark เพื่อให้สามารถใช้ภาษาตระกูล .NET (C#, F#) เชื่อมต่อกับ Spark ได้ด้วย
.NET for Apache Spark เป็นซอฟต์แวร์โอเพนซอร์ส เปิดโค้ดบน GitHub ทำงานข้ามแพลตฟอร์มได้ทั้งบนวินโดวส์ ลินุกซ์ แมค โดยตอนนี้ยังอยู่ในสถานะพรีวิว ต้องใช้ร่วมกับ .NET Core 2.1 ขึ้นไป
ใครที่ติดตามข่าวเกี่ยวกับประเทศจีน อาจคุ้นกับระบบ Social Credit ที่รัฐบาลเก็บ Big Data ต่าง ๆ ของประชากร แล้วนำมาให้เป็นคะแนนเครดิตทางสังคมสำหรับแต่ละบุคคล โดยแนวทางคือคนที่ได้คะแนนดีก็จะได้สวัสดิการหรือผลประโยชน์เพิ่มเติม ส่วนคนที่คะแนนไม่ดีก็อาจจะเข้าถึงบริการต่าง ๆ ได้ยากขึ้น
ททท. หรือการท่องเที่ยวแห่งประเทศไทยประกาศความร่วมมือกับบริษัท GrabTaxi ประเทศไทยเพื่อนำ Big Data ในส่วนของนักท่องเที่ยวต่างชาติที่ใช้แพลตฟอร์ม Grab มาประกอบการทำแคมเปญรณรงค์เรื่องการท่องเที่ยวในประเทศ
Grab ระบุว่าปัจจุบันลูกค้าที่ใช้บริการ เป็นนักท่องเที่ยวราว 30% ซึ่งข้อมูลที่ทาง ททท. นำไปใช้ไม่เพียงแต่ข้อมูลเรื่องการเดินทางเท่านั้น แต่ยังมีข้อมูลเรื่องร้านอาหารที่นักท่องเที่ยวสั่งซื้อผ่าน Grab Food ด้วย ซึ่งข้อมูลเหล่านี้สะท้อนพฤติกรรม สถานที่ยอดนิยม ระยะเวลาที่อยู่ในไทย ไปจนถึงไลฟ์สไตล์ของนักท่องเที่ยวหลากหลายชาติที่มาเที่ยวในไทยได้เป็นอย่างดี โดย Grab ยืนยันว่า Big Data ที่ให้กับทาง ททท. เป็นข้อมูลที่ไม่เปิดเผยตัวตน
สำนักข่าว Bloomberg รายงานว่าหน่วยงานของปักกิ่ง เมืองหลวงของจีน ได้กำหนดแผนงานว่าภายในปี 2020 จะเริ่มใช้ระบบให้คะแนนเชิงสังคมประชาชนเป็นรายบุคคล (Social Rating) กับคนในปักกิ่ง 22 ล้านคน โดยระบบดังกล่าวจะเพิ่มหรือลดคะแนนจากข้อมูลพฤติกรรมความประพฤติต่าง ๆ ซึ่งหากคะแนนดีก็จะได้สวัสดิการผลประโยชน์มากขึ้น ขณะที่คนที่คะแนนต่ำก็จะร้องขอสิ่งต่าง ๆ ยากขึ้น
หากแผนงานใช้งานคะแนนเชิงสังคมของปักกิ่งได้ผลลัพธ์ออกมาน่าพอใจ ก็จะมีการนำไปใช้ในเมืองอื่นของจีนต่อไป ซึ่งในการประเมินคะแนนนั้น จะใช้ข้อมูลจากหลายหน่วยงานมาประกอบกัน ซึ่งในจีนนั้นข้อมูลการใช้สื่อออนไลน์ก็ผูกกับบัตรประชาชนอยู่แล้ว อีกทั้งเทคโนโลยีจดจำใบหน้าในจีนก็มีการใช้ที่แพร่หลาย
Cloudera และ Hortonworks สองบริษัทผู้พัฒนาซอฟต์แวร์จัดการฐานข้อมูลขนาดใหญ่บน Hadoop ประกาศควบรวมกิจการกัน โดยบริษัทใหม่คาดมีมูลค่ากิจการราว 5,200 ล้านดอลลาร์
รายละเอียดในการควบรวมนั้นระบุว่า เป็นการรวมกิจการเข้าด้วยกัน (ไม่ใช่ใครซื้อกิจการใคร) โดยผู้ถือหุ้น Cloudera เดิม จะถือหุ้น 60% ในบริษัทใหม่ ส่วนที่เหลือเป็นของ Hortonworks นอกจากนี้ Tom Reilly ซีอีโอ Cloudea จะเป็นซีอีโอของบริษัทใหม่ ส่วน Rob Bearden ซีอีโอ Hortonworks จะย้ายไปเป็นกรรมการบอร์ด
ธนาคารกสิกรไทยประกาศจัดตั้ง 2 ฝ่ายงานใหม่เพื่อดูแลการสร้างความสามารถด้าน Data Analytics กำหนดแผนสรรหาและพัฒนาบุคลากรด้าน Data Alchemist หรือ Data Scientist โดยเฉพาะ
สองฝ่ายงานใหม่ประกอบด้วย Enterprise Data Analytics Department (EA) เป็นศูนย์กลางดูแลการสร้างความสามารถในการวิเคราะห์ข้อมูลเชิงลึกของธนาคาร, สรรหาและจัดสรรทรัพยากรเพื่อสนับสนุนการวิเคราะห์ข้อมูล และ Digital Lending Department (DL) รับผิดชอบการวิเคราะห์ข้อมูลเชิงลึกจากหลายฐานข้อมูล เพื่อนำเสนอสินเชื่อได้ตรงกับความต้องการของลูกค้าในราคาที่เหมาะสมกับระดับความสี่ยงของลูกค้าแต่ละราย ดูแลการปล่อยสินเชื่อผ่าน K PLUS
ในการจัดตั้งฝ่ายงานใหม่นี้ทางธนาคารได้เพิ่มตำแหน่งงาน Data Scientist เข้ามาด้วย
Google BigQuery เป็นบริการ data warehouse ที่กำลังมาแรงอย่างมากในสายงาน analytics, big data และ machine learning ด้วยเหตุผลว่าเราสามารถวิเคราะห์ข้อมูลขนาดใหญ่ด้วยภาษา SQL ที่คุ้นเคย โดยไม่จำเป็นต้องบริหารฐานข้อมูลเอง และจ่ายเงินเท่าที่ใช้งาน
ปกติแล้ว ผู้ใช้ต้องเป็นคนอัพโหลดข้อมูลขึ้น BigQuery เอง (หรือดึงมาจากบริการอื่นๆ ของกูเกิล เช่น Google Analytics หรือ Google Ads) แต่กูเกิลก็เตรียมฐานข้อมูลสาธารณะ (public dataset) ไว้ให้อีกจำนวนหนึ่ง เช่น สำมะโนประชากรของสหรัฐ สถิติจากธนาคารโลก หรือข้อมูลจาก GitHub
วงการค้าปลีกเป็นอีกสมรภูมิที่กำลังเผชิญกับ digital disruption อย่างรุนแรง โดยความท้าทายจากบริษัทอีคอมเมิร์ซเป็นตัวเร่งให้บริษัทค้าปลีกเก่าแก่ต้องเร่งปรับตัวเพื่ออยู่รอด
กลุ่มเซ็นทรัลเป็นอีกหนึ่งตัวอย่างของยักษ์ใหญ่วงการค้าปลีกที่ปรับตัวอย่างมากในช่วงหลัง โดยเฉพาะการร่วมทุนกับบริษัท JD จากประเทศจีน ตั้งเป็น JD Central เพื่อตอบโจทย์ฝั่งอีคอมเมิร์ซ แต่ในฝั่งที่เป็นห้างสรรพสินค้าก็ต้องปรับตัวเช่นกัน และการนำ "ข้อมูล" มาใช้วิเคราะห์พฤติกรรมของลูกค้าก็เป็นเรื่องสำคัญไม่แพ้กัน
John Berns ผู้บริหารตำแหน่ง Chief Data Officer ของ Central Group จะมาเล่าเรื่องนี้ให้ฟังในงาน Blognone Tomorrow ในหัวข้อ Data in the Transformation of Retail
Google ร่วมมือกับหน่วยงานด้านสิ่งแวดล้อมของสหประชาชาติหรือ UN Environmental ภายใต้โครงการวัดผลกระทบของกิจกรรมมนุษย์ต่อระบบนิเวศทั่วโลก โดยจะนำ Big Data มาใช้งานร่วมกับวิทยาศาสตร์ด้านสิ่งแวดล้อม
โครงการนี้จะให้ข้อมูลแบบเรียลไทม์กับองค์กรและประเทศให้เข้าถึงข้อมูลสำคัญเหล่านี้ได้ฟรี เพื่อเป็นเครื่องมือสำหรับการกำหนดนโยบายป้องกันและแก้ไขปัญหา และเปิดโอกาสให้ประเทศเกิดการพัฒนาได้อย่างยั่งยืน
Thoth Zocial OBVOC ผู้ให้บริการวิเคราะห์ข้อมูล ประกาศรีแบรนด์ใหม่เปลี่ยนชื่อแบรนด์เป็น WISESIGHT พร้อมประกาศจะบุกตลาดขยายตลาดสู่ระดับเอเชียแปซิฟิกด้วย โดย WISESIGHT จะแบ่งการให้บริการเป็น 4 กลุ่มหลัก คือ