ข่าวใหญ่ของงาน Google I/O 2018 ที่เป็นข่าวดังไปทั่วโลก คือ Google Assistant สามารถคุยโทรศัพท์ได้ราวกับเป็นมนุษย์ (อ่านบทความเบื้องหลัง ปัญญาประดิษฐ์ Google Duplex) ถือเป็นสัญญาณที่ดีในการบ่งชี้ว่า กูเกิลเอาจริงกับ Google Assistant อย่างมาก
ผมมีโอกาสเข้าร่วมงาน Google I/O 2018 ด้วยตัวเอง และพบว่า "ภาพใหญ่" ของงานก็สะท้อนไปในทิศทางเดียวกันว่า Google Assistant คือโครงการสำคัญอันดับหนึ่งของกูเกิลในตอนนี้ เรียกได้ว่ามันสำคัญกว่า Android ด้วยซ้ำ
ถ้ามองย้อนกลับไปในประวัติศาสตร์ 10 ปีที่ผ่านมาของกูเกิล ต้องบอกว่ากูเกิลตัดสินใจเกาะกระแส mobile ได้ถูกต้องอย่างที่สุด การซื้อบริษัท Android Inc. ของ Andy Rubin ในปี 2005 ด้วยมูลค่าประมาณ 50 ล้านดอลลาร์ (ตัวเลขอย่างเป็นทางการไม่ได้เปิดเผย) ถือเป็นการลงทุนที่คุ้มค่ามากที่สุดครั้งหนึ่งในประวัติศาสตร์ของวงการไอที ปัจจุบันมีผู้ใช้งาน Android มากกว่า 2 พันล้านคน กินส่วนแบ่งตลาดอุปกรณ์พกพา 85% และทำให้กูเกิลกลายเป็นหนึ่งในบริษัทไอทีที่ทรงอิทธิพลสูงสุดในโลกยุค mobile (ถ้าหากตอนนั้นตัดสินใจพลาด ก็คงประมาณ Windows Phone ในทุกวันนี้ อำนาจต่อรองหายไปหมด)
แต่เรารู้กันดีว่า วัฏจักรของ mobile เริ่มใกล้สิ้นรอบของมันแล้ว คำถามที่ทุกคนถามอยู่เสมอคือ What's Next อะไรคือรอบของเทคโนโลยีตัวถัดไป และวันนี้คำตอบของกูเกิลเริ่มชัดเจนแล้วว่ามันคือ Assistant ที่โอกาสทางธุรกิจในอนาคตใหญ่กว่า Android ซะอีก
ศักยภาพของ Google Assistant เหนือกว่า Android ตรงที่ว่า ตัวมันเองไม่ใช่ระบบปฏิบัติการ แต่เป็น "อินเทอร์เฟซ" ที่ครอบอยู่บนระบบปฏิบัติการอื่นอีกที มันจึงไม่ถูกจำกัดอยู่แค่บนสมาร์ทโฟน ซึ่งปัจจุบันยอดขายเริ่มตีบตันและอยู่ตัว ทุกคนบนโลกที่มีศักยภาพซื้อหาสมาร์ทโฟนได้ น่าจะมีสมาร์ทโฟนใช้งานกันหมดแล้ว
โอกาสของ Google Assistant ไปไกลกว่านั้น แน่นอนว่าผู้ใช้ Android หลายพันล้านคนจะถูก "บังคับ" ใช้งาน Google Assistant เพราะเป็นการต่อยอดจุดแข็งของกูเกิล แต่ Google Assistant ยังจะไปอยู่บนอุปกรณ์อื่นๆ ตั้งแต่อุปกรณ์แบบเดียวกันแต่เป็นของค่ายคู่แข่ง (iOS/Windows) ไปจนถึงอุปกรณ์ชนิดใหม่ๆ อย่างเครื่องใช้ไฟฟ้า และรถยนต์ อุปกรณ์เหล่านี้จะเป็น Android หรือไม่ กูเกิลไม่ได้สนใจมันมากนักเท่ากับว่ามันใช้งาน Assistant ได้หรือไม่
ภาพจากหน้าเว็บของ Google Assistant แสดงให้เห็นวิสัยทัศน์ของกูเกิลว่าจะนำมันไปอยู่ที่ไหนบ้าง
สิ่งหนึ่งที่กูเกิลพูดใน Keynote ของงาน Google I/O 2018 และคนอาจไม่ให้ความสนใจมากนัก คือ อุปกรณ์ Google Assistant แบบมีจอภาพด้วย ที่กำลังจะวางขายช่วงกลางปีนี้ (เดือนกรกฎาคมเป็นต้นไป)
ทุกวันนี้เมื่อพูดถึง Google Assistant เรามักนึกถึงอุปกรณ์แบบ Google Home ลำโพงอัจฉริยะที่รองรับการสั่งงานด้วยเสียงเป็นหลัก ปัจจุบันคู่แข่งสำคัญของ Google Home มีเพียงแค่ Amazon Echo เท่านั้น และล่าสุดก็มีรายงานว่ายอดขายของ Home แซง Echo แล้ว
แต่การสั่งงานด้วยเสียงเพียงลำพังก็มีข้อจำกัดหลายอย่าง ถึงแม้มันจะสะดวกในแง่การสั่งงานแบบ hand-free ไม่ต้องใช้มือสัมผัสเลย แต่การถ่ายทอดข้อมูลบางประเภทด้วยเสียงเพียงอย่างเดียว ก็อาจไม่เพียงพอ (เช่น บอกราคาหุ้น ณ ปัจจุบันได้ แต่ไม่สามารถแสดงกราฟเพื่อบอกทิศทางของหุ้นในภาพรวมได้ หรือถ้าใช้งานในรถยนต์ ถามทางแล้วก็ควรแสดงแผนที่เป็นกราฟิกด้วย) นอกจากนี้ มันเหมาะกับการใช้งานในบ้านเป็นหลัก แต่ในชีวิตจริง มีอีกหลายสถานการณ์ที่เราไม่สะดวกใช้เสียง เช่น อยู่บนรถบัสหรือที่สาธารณะ เราก็อาจสะดวกใจกับการแตะสัมผัสหน้าจอโทรศัพท์มากกว่า
อนาคตของ Google Assistant จึงไปในทิศทางนี้ นั่นคือ รองรับทั้งภาพและเสียงในตัวเอง และขึ้นกับสถานการณ์ของผู้ใช้งานว่าจะเลือกสั่งงาน AI ด้วยวิธีไหน
ทางออกของทั้ง Google และ Amazon จึงเป็นการใส่จอภาพเข้ามา (Amazon มี Echo Show) โดยกูเกิลเรียกมันว่า Smart Displays และมีพาร์ทเนอร์บางราย เช่น Lenovo, LG, JBL กำลังผลิตสินค้าออกวางขาย
ประกาศอีกอย่างที่สำคัญมากในงาน Google I/O ที่อาจดูไม่เกี่ยวกันเท่าไร แต่จริงๆ เชื่อมโยงกันมาก คือ ฟีเจอร์ใหม่ของ Android P ชื่อว่า Slices และ App Actions
Slices และ App Actions คือการ "หั่น" เอาบางหน้าจอของแอพ Android ที่ออกแบบมาสำหรับนิ้วสัมผัสเพียงอย่างเดียว (อินเทอร์เฟซซับซ้อน ต้องกดหลายทีกว่าจะได้ผลลัพธ์ แต่ไม่เป็นอุปสรรคมากกับการใช้งานสมาร์ทโฟน เพราะมือของเราอยู่บนสมาร์ทโฟนตลอดเวลา) มาเป็นหน้าจอแสดงผลบนอุปกรณ์ใหม่ๆ อย่าง Google Assistant
จากเดโมของกูเกิลจะเห็นว่า Slices/Actions กลายเป็นชิ้นส่วนของแอพแบบดั้งเดิม ที่นำมาแสดงผลในแอพ Google Assistant บนมือถืออีกต่อหนึ่ง นั่นแปลว่าในอนาคตต่อไปในหลายสถานการณ์ เราอาจไม่จำเป็นต้องเปิดแอพทั้งตัวขึ้นมาอีกแล้ว เพราะเราเปลี่ยนวิธีมาสื่อสารกับแอพตัวนั้นผ่าน Slices/Actions ที่อยู่ใน Google Assistant อีกที
ใครที่ยังไม่เคยดู Slices/App Actions ดูได้จากวิดีโอ Keynote เริ่มประมาณนาที 1:01:00
ในเดโมของกูเกิลโชว์การใช้งาน Slices/Actions บน Google Assistant บนมือถือเท่านั้น แต่เราก็คาดเดาได้ไม่ยากว่า กูเกิลจะยกเอา Slices/Actions ไปอยู่บน Google Assistant บนอุปกรณ์ประเภทอื่นๆ ด้วย โดยเฉพาะอุปกรณ์ประเภท Smart Displays
กล่าวโดยภาพรวมแล้ว Slices จึงเป็นอนาคตใหม่ของแอพแบบที่เราเห็นกันทุกวันนี้ มันเป็นการเชื่อมเอาแอพ Android จำนวนมหาศาล จากโลกเก่าสมาร์ทโฟน ไปอยู่บนโลกใหม่ของ Google Assistant
รายละเอียดเรื่องนี้สามารถอ่านได้จากบล็อก Actions on Google at I/O: More ways to drive engagement and create rich, immersive experiences
ต้องยอมรับตามตรงว่าตอนแรกผมไม่เข้าใจหน้าที่และคุณค่าของอุปกรณ์ประเภท Smart Displays มากนัก ว่าจะมีไปทำไม แต่พอได้ลองเล่นของจริงในงาน Google I/O ก็ทำให้เห็นภาพว่าแผนการของกูเกิลคืออะไร
ตัวอย่างที่กูเกิลนำมาโชว์คือแอพทำอาหาร ซึ่งเป็นการแสดงศักยภาพของ UI ที่ใช้ทั้งภาพและเสียง (แต่ไม่ต้องใช้มือแตะ) เราสามารถวางหน้าจอ Smart Displays แบบนี้ไว้ในครัวแล้วสั่งงานด้วยเสียง เลือกเมนูที่ต้องการ เพื่อทำอาหารตามวิดีโอที่แสดงผลบนจอได้
คำถามคือ เราจะซื้อ Smart Displays ที่เหมือนนาฬิกาปลุกมีหน้าจอใหญ่ๆ แค่เพียงเอามาทำอาหารงั้นหรือ? คำตอบคงไม่ใช่เช่นนั้น ในมุมของผมคิดว่า Smart Displays เป็นเหมือน "อุปกรณ์ต้นแบบ" ให้กับอุปกรณ์ประเภทอื่นๆ ที่จะตามมาอีกในอนาคต ถ้าจะให้เทียบกับโลกของ Android มันก็เหมือนกับ Nexus Player อะไรทำนองนี้
ผมคิดว่าสุดท้ายแล้ว สิ่งที่สำคัญกว่า Smart Displays ในฐานะฮาร์ดแวร์แยกชิ้น คืออินเทอร์เฟซแบบใหม่ที่เริ่มใช้ใน Smart Displays (ซึ่งประกอบด้วยเสียงจาก Google Assistant และภาพจาก Android Slices) จะกลายเป็นมาตรฐาน และถูกยกไป "แปะ" ในอุปกรณ์สมาร์ทโฮมประเภทอื่นๆ แทนต่างหาก
สุดท้ายแล้วเราอาจไม่จำเป็นต้องซื้อ Smart Displays มาตั้งไว้ในบ้าน แต่หน้าจอแบบ Smart Displays จะกลายมาเป็นส่วนหนึ่งของทีวี ตู้เย็น เครื่องซักผ้า รถยนต์ ไปจนถึงอุปกรณ์สำนักงาน (ที่วิธีการใช้งานแตกต่างจากการใช้งานในบ้านอย่างมาก) และนี่จะทำให้ตลาดของ Google Assistant ไปไกลกว่าสมาร์ทโฟนหลักพันล้านเครื่องอีกมาก ขนาดของตลาด (market size) น่าจะครอบคลุมถึงอุปกรณ์ระดับหมื่นล้านชิ้นเลยทีเดียว
และสิ่งที่ไม่ควรมองข้ามคือ อุปกรณ์ Smart Displays เหล่านี้ใช้ระบบปฏิบัติการ Android Things ที่จะกลายเป็นพื้นฐานของอุปกรณ์ประเภทใหม่ๆ ที่ไม่จำเป็นต้องรัน Android ตัวเต็ม ซึ่งออกแบบมาสำหรับสมาร์ทโฟนเป็นหลัก
สิ่งที่กูเกิลกำลังทำอยู่ในตอนนี้ จึงเป็นการเร่งต่อจิ๊กซอให้แผนการ Google Assistant สมบูรณ์แบบมากขึ้น ตั้งแต่อินเทอร์เฟซใหม่ๆ ที่ไม่จำกัดเฉพาะเสียงพูด, การเชื่อมประสานกับ ecosystem ของ Android เดิม, การจับมือกับพาร์ทเนอร์จำนวนมากเพื่อเร่งขยาย ecosystem ให้กว้างขวางที่สุด (อันนี้ยังเป็นรอง Amazon), ขยายจำนวนประเทศที่เปิดให้บริการ (ซึ่งมีไทยด้วย) และปรับปรุงความฉลาดของ Google Assistant ให้มากยิ่งขึ้นไปอีก
ถ้าดูจากเดโมการคุยโทรศัพท์แทนมนุษย์ ก็เป็นสิ่งบ่งชี้ที่ดีว่า หาบริษัทอื่นๆ ไปเทียบชั้นกับกูเกิลได้ยากแล้ว (อาจถึงขั้นผ่าน Turing Test ในบางด้านแล้ว)
แน่นอนว่าในสายตาผู้บริโภค เราคงไม่อยากให้กูเกิลกลายเป็นผู้นำเดี่ยว ผูกขาดตลาดนี้แต่เพียงลำพัง และหวังจะให้มีคู่แข่งรายอื่นๆ (Alexa, Siri, Cortana, Bixby และอื่นๆ) ขึ้นมาเทียบชั้นกันเยอะๆ แต่ถ้าผมเป็นนักพัฒนาที่สนใจความเป็นไปของโลก และต้องการเตรียมตัวเพื่อรับมือกับอนาคตใหม่ที่กำลังจะมาถึง สิ่งที่ผมจะทำในคือซื้อ Google Home มาลองใช้งานให้คุ้นเคย ตั้งแต่วันนี้ครับ (ผมมีทั้ง Home Mini และ Echo Dot แต่มาถึงตอนนี้แล้วคิดว่า Home จะเป็นผู้ชนะ)
Comments
Google Assistant = new google.com
ไม่เคยคิดว่าเจ้าอื่นจะชนะศึกนี้ได้มาแต่ไหนแต่ไรเลยครับ วิสัยทัศน์ต่างกันมากไป
Google และ Apple ใหญ่โตเกินไปแล้ว ดีที่มีอยู่สองแพลทฟอร์ม
ถ้าเรื่อง AI จีนก็น่ากลัวครับ เพราะจะทำอะไรก็ดูเหมือนจะง่ายกว่าในด้านของข้อมูล โดยเฉพาะในเรื่องของ privacy ที่ค่อนข้างมีความยืดหยุ่นมากกว่า ซึ่งถือว่าเป็นข้อได้เปรียบที่ฝั่งตะวันตกอาจจะลำบากกว่ามากในแง่มุมนี้
ไม่ต้องห่วงจ้าวอื่นหรอกครับ เขามาแนวเดียวกันแต่เข้าคนละตลาด ผมเห็น Demo Cortana สำหรับการประชุมแล้ว มันไปได้ไกลกว่า Google อีก ถึงจะเป็น Demo แต่มันจดการประชุมแบบแยกเสียงคนได้ด้วย แถมเชื่อม AR ได้ แต่ Microsoft เน้นตลาด Enterprise เลยดูไม่หวือหวา คู่แข่งตลาด Consumer ของ Google น่าจะเป็น Amazon แล้วก็อีก 1 จัาวจากฝั่งจีน ส่วนทางญี่ปุ่นจะเน้นข้ามไปหุ่นยนต์เลยซึ่งผมมองว่าล้ำเกินไป
ผมก็ว่างั้นแนะ เรื่องทำให้คนหือฮา google มาถูกจุดทำให้คนตื่นเต้นและอยากใช้ จนทำให้ บ อื่นหายไปเลยเลยทำให้คิดว่าน่าห่วง เพราะถ้าคุยเรื่อง ai ผมว่าบาง บ ไปไกลกว่าอีก
เห็นด้วยเลยครับ
ສະບາຍດີ :)
ประโยชน์ในการใช้งานต่างกันครับ แต่ถ้าบอกว่า Microsoft ไปไกลกว่า Google ไม่ใช่แน่นอน แยกเสียงคนได้ก็เป็นฟีเจอร์ปกติของ AI เกือบทุกตัวอยู่แล้ว กับการเอาคำพูดมาหาสาระสำคัญแล้วจดสรุปซึ่งก็มีมานานพอสมควรในวงการ AI Microsoft เอามาทำขายใน solution ของการประชุม แต่ Google Duplex ล้ำหน้าไปกว่านั้นมากแล้ว
ขอความรู้หน่อยครับ ถ้าเกิดเราตั้งค่า Google Home เอาไว้ที่ นาย A แล้วนาย B ขอตารางงานของตัวเอง Googel Home จะตอบเป็นตารางงานของนาย A หรือนาย B ครับ มันจำแนกได้ไหมครับว่าใครสั่ง หรือเอาแบบใน Demo ของ Duplex ก็ได้ครับ ถ้านาย B เป็นคนสั่ง ระบบจะตัดเงินที่ใคร
https://www.blognone.com/node/91777
แยกเสียงคนทำได้แทบทุกตัวครับ โปรเจ็ครุ่นน้องผมยังแยกได้เลยครับ ถือเป็นเบสิคของระบบ Neural Network
ถ้าสังเกต Google จะเน้นเชิงลึกมากกว่าครับ อย่าง Duplex แบบนี้จะยากที่จะเลียนแบบ
ส่วน AI ระดับพื้นฐานใครจะเอาไปประยุกต์กับอะไรได้มากกว่ากันอันนั้นอีกเรื่อง
จดการประชุม แยกเสียงคน ...
มัน basic มากเลยนะเนี่ย :) แค่ไมโครซอฟต์นำมาประยุคใช้กับ solution สำหรับ product ของตัวเองที่ยังคิดว่าเป็นจุดแข็ง และเสริมการทำงาน product ของตัวเองให้ดีขึ้น แค่นั้นเอง ...
ขอยืนยันอีกเสียงว่า Microsoft ไม่ได้ไปไกลกว่า Google แน่ๆ ครับ 555
เห็นด้วยนะครับ AI ไม่ว่าจะเจ้าไหน ผมว่ามันก็ไปไกลพอๆกันนั่นแหละ
แต่ว่าถ้า AI เพื่องาน Enterprise ผมว่า MS ดูน่าจะมีภาษีกว่า
แต่ถ้าว่าด้วยเรื่อง AI สำหรับ User นี่ผมว่า Google ยังไงก็น่าจะนำอยู่เอยะ
สุดท้ายแล้วก็เป็นเรื่อง Product ตอบสนองความต้องการของผู้ใช้งานได้มากแค่ไหนมากกว่าครับ MS เองก็น่าจะมี AI support ใน Product ตัวเองเยอะมากโดยเฉพาะกลุ่ม Office ส่วน Google ผมไม่ค่อยได้ตามเท่าไหร่ แต่ก็ได้ยินชื่อเสียงอยู่ระดับนึง
ผมไม่รู้รายละเอียด Solution ที่ Microsoft ขายใน Enterprise นะ แต่ถ้าเอาที่คุณบอกว่า
พวกนี้ฟีเจอร์เบสิค AI นะครับ เจ้าไหนที่ทำ AI ขาย ก็แยกเสียงคนได้อยู่แล้วครับ ไม่ได้ล้ำหน้าไปไกลกว่าแบบคุณบอกเลย Google Home ก็แยกได้มากกว่า 2 คน ส่วนเรื่อง AR นี่ยิ่งแล้วใหญ่
อการ ?
เมื่อ3ปีก่อนเคยคิดว่ายุคต่อไปของมือถือจะเป็นยังไง ตอนนี้พอนึกออกแล้วครับคงคล้ายๆกระดาษแผ่นใสๆพับได้ แล้วใช้คำสั่งได้เลย เช่น
- อ่านข้อมูลในหน้านี้ แล้วสรุปใจความสำคัญให้ผมด้วย
- ตอนบ่ายสาม โทรไปบอกแฟนผมด้วยว่าวันนี้ไปกินข้าวกัน
- พรุ่งนี้ตอนแปดโมงโทรไปบอกเพื่อนผมด้วยว่าจะมีของไปส่ง
- ชั่วโมงต่อไป โหลดเกม ... เตรียมเอาไว้ให้ผมด้วย
- ตอน5โมงเย็น สรุปข่าวที่น่าสนใจของวันนี้ เตรียมให้ผมด้วย
- หาวิธีทำต้มยำกุ้ง ของปี2018ให้หน่อย
- อีก10วิ ถ่ายรูปแบบ HDR ให้ผมด้วยนะ
ยิ่ง Google อยู่กับเรามากเท่าไร บ่อยแค่ไหน Google ยิ่งได้ข้อมูลส่วนตัวพฤติกรรมเราไปมากเท่านั้น ฉะนั้นหาก Google Assistant อยู่ในทุกที่ทุกจังหวะเวลาแล้วล่ะก็ ข้อมูลที่ Google ได้ไปน่าจะเรียกได้ว่ามหาศาลเลยทีเดียว
That is the way things are.
ฟังดูน่ากลัว
เท่ากับว่าทุกอย่างผ่าน เน็ต & google หมด
อุปกรณ์ที่เราซื้อ เป็นแค่ประมาณ Dumb Terminal
ถ้าเน็ตเดี้ยง หรือ Google ตัดการให้บริการ คือจบ
เห็นปัญญาประดิษฐ์ที่ฉลาดขนาดนี้แล้วผมนึกถึงอะไร
ผมนึกว่า
ถ้าผมเป็นประยุด
ผมจะประกาศโครงการบัตรประชาชนแบบใหม่ หน้าจอด้านหน้าทำด้วย E-Ink อีกด้านเป็นโซลาเซล อีกด้านหนึ่ง ระบบปฏิบัติการก็ทำเป็นแบบระบบปฏิบัติการแห่งชาติ แยกเป็น 2 ประมูลโครงการแยกกันออกมา
จากนั้นยุบ สำนักทะเบียนราษฏร ฝ่ายออกบัตรธนาคาร(รับหน้าที่พิมพ์ธนบัตร) กองสลากกินแบ่งรัฐบาล สัมปทานโทรศัพท์คลื่นความถี่ต่ำ สำนักข่าวกรอง และอีกหลายหน่วยงาน
บัตรประชาชนนี้สั่งงานด้วยเสียง เป็นตัวแทนของระบบธนบัตร ต่ออินเตอร์เน็ทความเร็วต่ำด้วยคื่นความถี่ต่ำได้ฟรี(เฉพาะภายในประเทศ) หากพลังงานต่ำก็ใช้อ่านหนังสือ E-book ได้อย่างเดียว ไม่มีช่องเชื่อมต่อใดๆ กันน้ำสาด ชาร์ตไฟด้วยระบบไร้สาย
ราคาเครื่องและค่าบริการหักจากภาษีมูลค่าเพิ่ม
ยอดภาษีมูลค่าเพิ่มและหมายเลขผู้เสียภาษีถูกใช้ในการออกรางวัลสลากกินแบ่งรัฐบาล
ระบบข่าวกรองให้ผูกเข้ากับ Google Assistant
จากนั้นหากหลบเลี่ยงกันมากๆ ก็ออกนาฬิกาอัจฉริยะแทนบัตรประชาชน
55555555555555 แล้วเลื่อนเลือกตั้งออกไปอีก 20 ปี
เหมือนเห็นแนวคิดนี้กับ bixby
สรุปว่าชวนไปซื้อของ
Apple จะเอาอะไรมาสู้ล่ะเนี่ย เน้น hardware มานานไปละ
+1
รอดูว่า WWDC 2018 จะมีอะไรมั๊ย 5555
ชักจะอยากรู้แล้ว ว่า พิกเซล 3 กูเกิ้ลทำอย่างไร มีอะไรมาโชว