ในงาน Keynote หลักของ Google I/O 2024 เมื่อคืนนี้เป็นเรื่อง AI ล้วนๆ ทำให้กูเกิลเลิกธรรมเนียมการประกาศข่าวเกี่ยวกับของใหม่ใน Android 15 บนเวทีหลักของงาน มีสไลด์โชว์เพียงหน้าเดียวว่า Android 15 Beta 2 จะเปิดให้ดาวน์โหลดกันในวันพรุ่งนี้
กูเกิลยังมีประกาศของใหม่ของ Android 15 และเครื่องมือพัฒนาในเวทีรองอื่นๆ ของ Google I/O รวมถึงประกาศบนหน้าเว็บและช่องทางโซเชียล (เดี๋ยวรายงานเป็นข่าวแยกกันต่อไป) ส่วนเวทีหลักมีเฉพาะฟีเจอร์ AI ของ Android เท่านั้น แต่ไม่มีเรื่องของระบบปฏิบัติการเลย
นอกจากประเด็นเรื่องฟีเจอร์ AI ที่แย่งซีนทุกอย่างแล้ว แนวทางของกูเกิลในช่วงหลังที่แยกตัวแกนของระบบปฏิบัติการ Android ออกจากชุดฟีเจอร์ใหม่ที่อัพเดตให้ทุกไตรมาส เป็นอีกเหตุผลหนึ่งที่ความสำคัญของตัวระบบปฏิบัติการ Android ลดลงจากเดิม (ที่แทบเป็นพระเอกของ Google I/O) ไปมาก
ที่มา - Android Police
Android 15 demoted to I/O Day 2. What a dark age we're in.
— Ron Amadeo (@RonAmadeo) May 14, 2024
Comments
io ปีที่แล้วค่อนข้างหน้าเบื่อมาก ปีนี้คิดถูกที่ไม่รอดูแล้วรอมาอ่านใน blognone ทีเดียว พูดถึงแต่เอไอตั้งแต่ต้นจนจบความสนุกของกูเกิลแทบจะไม่เหลือแล้ว แถมฟีเจอร์บางอันที่เอามาพูดในงานก็นู้นกว่าจะได้ใช้จริงรอจนลืม ไม่เหมือนสมัยก่อนที่พอเปิดตัวในงานปุ๊บก็ today เลย
น่าจะมีการพัฒนา OS ใหม่อยู่แน่ๆ แล้วลดบทบาทของ Android ลงไปเรื่อยๆ เลยถ้ามาแนวนี้ อาจปรับเรื่องการใช้งานให้เข้ากับ Gemini ให้มากขึ้น เพราะโดยพื้นฐานของมือถือยุคปัจจุบันตัว Hardware, Sensor มันยัด AI ลงมาได้แล้ว เพียงแต่ User interface กับ Core OS มันยังเป็นยุคเก่าอยู่ ถ้าจะพัฒนาใหม่ให้ OS เรียกใช้ API ผ่าน Gemini ได้ แล้วปรับให้ Gemini เข้าถึง sensor และ hardware ต่างๆ ได้ตามโจทย์ที่ได้รับเข้ามาผ่านการป้อนข้อมูลไม่ว่าภาพ เสียง หรือข้อมูลจากแหล่งภายนอกได้โดยตรง ก็จะได้ OS coolๆ ใหม่เลย (ถ้านึกไม่ออกให้นึกถึงการเขียน Java ในยุคแรก ที่ต้องเขียน JNI ช่วยในการเข้าถึง Hardware หรือ API ภาษาอื่นที่ไม่ใช่ Java นั่นแหล่ะ แต่เปลี่ยนจาก VM ให้กลายมาเป็น Gemini รับ input เป็น prompt แทน ส่วน Layer ล่างก็ยังคงต้องเขียนเหมือนเดิมด้วยภาษา C หรืออื่นๆ )
สรุปคือ อาจได้เห็น Gemini nano ในเวอร์ชั่นทำตัวเป็น OS ก็น่าสนุกดี มโนไปเรื่อยๆ 555 แต่ในทางปฎิบัติมันทำได้นะ ด้วย Core Gemini ปัจจุบันนี่แหล่ะ ถ้าเขียน prompt ดีๆ บวกกับสร้าง API gateway ที่รับ input มาเป็น prompt แล้วแปลงเป็น input ของ API เพื่อ execute มันทำได้อยู่แล้ว เพียงแต่ยังหน่วงเยอะไปหน่อย (ผมทดสอบใช้ผ่านเครือข่าย 5G) ยังเร็วไม่พอสำหรับการตอบสนองแบบ real-time กับมนุษย์ แต่ก็ใช้งานได้สำหรับคนที่ไม่ได้คาดหวังอะไรกับมันมาก รวมถึงยังมีความแปรปรวนของ output อยู่ และอีกจุดหนึ่งที่ยังคงเป็นปัญหาก็คงเป็นเรื่องการใช้พลังงานนั่นแหล่ะ ถ้ายังแก้ไม่ได้โอกาสที่จะให้ AI ทำตัวเป็น OS ก็ยังต้องยืดออกไปอีกสักระยะ แต่ถ้าดูจากข่าวของคุณ lew ด้านล่าง ก็ดูเหมือนทาง Google ก็กำลังแก้ไขปัญหาพวกนี้อยู่ด้วย Gemini 1.5
โดยส่วนตัวทางเทคนิคผมว่า Google นำ OpenAI อยู่นิดๆ นะ เพราะดูเหมือนทาง Google วางพื้นฐานทางเทคนิคไว้พร้อมแล้วเพียงแต่ยังไม่ได้สร้างส่วนติดต่อผู้ใช้ ส่วนของ OpenAI ผมมองว่ามันแค่กิมมิคที่สร้างได้ไม่ยาก ถ้ามีความรู้เรื่อง AI และมนุษย์ศาสตร์ก็สร้างครอบด้วยเครื่องมือของ Google ได้เหมือนกัน แต่ทาง OpenAI ยังขาดทิศทางในการพัฒนา core และประสบการณ์ในการเชื่อมคนเข้ากับ hardware แต่ถ้าไปจับมือกับ Apple ก็น่ากลัว แต่อย่ามองข้าม Microsoft ไปนะ ในยุคที่ PC มีชิบรองรับ NLP แสดงว่าเขาก็กำลังคิดอะไรอยู่แน่ๆ อะไรก็เกิดขึ้นได้ในยุคนี้ เดาด้วยสัญชาติญาณล้วนๆ 555
เมื่อคืนหุ้น Google ขึ้นแสดงว่าตัดสินใจถูกแล้วที่ไม่เอา Android มาพูดในเวทีหลัก นักลงทุนต้องการฟังเรื่อง AI มากกว่า
นั่งรอดู จนดึก แต่ไม่ได้อะไรเลย
ด้วยกระแสของ AI ที่ต้องตามน้ำ บวกกับ Android เป็นแพลตฟอร์มที่ค่อนข้างนิ่งและมีชุมชนนักพัฒนาที่เข้มแข็งไปแล้ว เลยพอเข้าใจได้ว่าไม่ต้องยกขึ้นมาในเวทีหลัก ที่เอาไว้โชว์เคส (กึ่งๆขายของ)
อันนี้เดาแบบคนนอก ฮ่า
..: เรื่อยไป
13 ไป 14 ก็ดูแค่อััพเกรดประสิทธิภาพ 14 ไป 15 น่าจะเรื่องประสิทธิภาพเหมือนเดิม เพิ่มเติมซอฟแวร์ AI เฉยๆ
เป็นบริษัท AI ที่ทำ OS ได้นิดหน่อย