แอปเปิลอาจจะกำลังเริ่มเอาจริงเอาจังในการพัฒนา AI มากขึ้นเรื่อยๆ ซึ่งเริ่มจากการจ้าง Ruslan Salakhutdinov รองศาสตราจารย์ด้าน Machine Learning จากมหาวิทยาลัย Carnegie Mellon มานั่งตำแหน่งผู้อำนวยการฝ่ายวิจัยปัญญาประดิษฐ์
มหาวิทยาลัย Carnegie Mellon เป็นหนึ่งในสถาบันชั้นแนวหน้าในด้านการวิจัย Deep Learning และเครือข่ายระบบประสาท (Neural Network) ซึ่งงานวิจัยของ Salakhutdinov ล้ำไปกว่านั้น จากความพยายามหาหนทางให้ปัญญาประดิษฐ์ เรียนรู้จากข้อมูลดิบ (raw data) แทน
เอกสารงานวิจัยเรื่องปัญญาประดิษฐ์จากทำเนียบขาว นอกจากมีเนื้อหายุทธศาสตร์เรื่องปัญญาประดิษฐ์ในด้านต่างๆ และการใช้ปัญญาประดิษฐ์ให้ปลอดภัยแล้ว ยังมีเนื้อหาที่น่าสนใจอีกประการคือ ประเทศที่มีชิ้นงานการวิจัยปัญญาประดิษฐ์มากเป็นอันดับแรกกลับไม่ใช่สหรัฐฯ แต่เป็นประเทศจีน
ประธานาธิบดีโอบามา ให้สัมภาษณ์พูดคุยกับเว็บไซต์ WIRED ซึ่งเจ้าตัวก็เป็นบรรณาธิการรับเชิญพิเศษ โดยการสัมภาษณ์ครั้งนี้เป็นเรื่องเกี่ยวกับอนาคตล้วนๆ ทั้งรถไร้คนขับ AI ซึ่ง Blognone ได้สรุปมาให้อ่านประเด็นหนึ่งแล้วคือ ประเด็น AI แย่งงานคน โดยเขามองว่าแรงงานที่มีทักษะขั้นสูงจะใช้ประโยชน์จาก AI และเครื่องจักร ช่วยยกระดับคุณภาพของสินค้าและเพิ่มยอดขายได้อีกมาก แต่แรงงานทักษะต่ำจะเจอปัญหา
ในบทสัมภาษณ์ยังมีน่าสนใจหลายประเด็นเกี่ยวกับทิศทางอนาคตของโลก
ประธานาธิบดีบารัค โอบามา ออกมาให้สัมภาษณ์ในประเด็นร้อน "AI จะแย่งงานคนหรือไม่" เขามองโลกในแง่ดีว่าทุกครั้งที่มีเทคโนโลยีใหม่ๆ งานเก่าจะหายไป แต่จะมีงานแขนงใหม่เกิดขึ้นมา
ส่วนในยุคของ AI เขามองว่าแรงงานที่มีทักษะขั้นสูงจะใช้ประโยชน์จาก AI และเครื่องจักร ช่วยยกระดับคุณภาพของสินค้าและเพิ่มยอดขายได้อีกมาก แต่แรงงานทักษะต่ำจะเจอปัญหาอย่างมาก โดยเฉพาะค่าแรงที่ถูกกดลง
เขาบอกว่าทุกคนในสังคมต้องพูดคุยเพื่อเตรียมพร้อมการเปลี่ยนผ่านครั้งนี้ เราต้องออกแบบสัญญาประชาคม (social contract) กำหนดสายสัมพันธ์ของคนกับรัฐกันใหม่ ว่าโมเดลที่เหมาะสมในอีก 10-20 ปีข้างหน้าคืออะไร สุดท้ายแล้วเราต้องมีกำหนดรายได้ขั้นต่ำให้กับทุกคน (universal income) หรือไม่ เป็นเรื่องที่ต้องถกเถียงกันต่อไป
ที่มา - Wired, ภาพจาก White House
อังกฤษนับเป็นแหล่งบุคคลากรไอทีโดยเฉพาะด้าน AI ชั้นยอดแห่งหนึ่งของโลก หลังจากกูเกิลเข้าซื้อบริษัท DeepMind จนกระทั่งแข่งขันโกะชนะ Lee Sedol ตอนนี้ CSC Group ก็ประกาศลงทุน "หลายล้านปอนด์" ในบริษัทด้านปัญญาประดิษฐ์ของอังกฤษ เบื้องต้น 5 บริษัท
การลงทุนครั้งนี้จะลงทุนผ่าน Founders Factory บริษัท incubator ในอังกฤษ โดยแผนการลงทุนเบื้องต้นจะลงทุนใน 5 บริษัทมีพนักงานรวม 60 คน (เทียบกับ DeepMind ของกูเกิลที่มีพนักงาน 250 คน) และจะลงทุนตั้งบริษัทเพิ่มอีกปีละสองบริษัท
การลงทุนรอบนี้ไม่ระบุมูลค่าโดยรวม แต่ปีที่แล้ว CSC เคยลงทุนในสหรัฐฯ เป็นมูลค่ารวมถึง 400 ล้านดอลลาร์
Eugenia Kuyda วิศวกรสาวปลุกชีวิตเพื่อนของเธอจากความตายด้วยการสร้างปัญญาประดิษฐ์ในรูปแบบ chat bot เป็นตัวแทนของ Roman Mazurenko เพื่อนรักของเธอที่เสียชีวิตจากอุบัติเหตุรถยนต์
กูเกิลเปิดฐานข้อมูล Open Images เป็นข้อมูล URL ภาพกว่า 9 ล้านภาพจากแหล่งต่างๆ เช่น Flickr และข้อมูลบรรยายภาพเหล่านั้น สำหรับใช้ฝึกระบบปัญญาประดิษฐ์
ความยากของการฝึกระบบปัญญาประดิษฐ์ขึ้นใหม่ คือการหาข้อมูลที่บรรยายว่าบนภาพนั้นมีอะไรบ้าง เช่น รถยนต์, คนเดินถนน, ทางเท้า ฯลฯ ปกติแล้วงานวิจัยที่ต้องการพัฒนาระบบปัญญาประดิษฐ์จะต้องใช้ฐานข้อมูลที่มีอยู่จำกัด หรือไม่ก็สร้างฐานข้อมูลขึ้นเองซึ่งมีต้นทุนสูง
ฐานข้อมูล Open Images เป็นไฟล์ CSV ที่ต้องไปดาวน์โหลดรูปมาเอง ตัวฐานข้อมูลมีทั้งแบบบรรยายด้วยมนุษย์ขนาด 9MB รวม 167057 ภาพ และแบบบรรยายด้วยซอฟต์แวร์ขนาดถึง 450MB รวม 9011219 ภาพ
Dag Kittlaus และ Adam Cheyer สองผู้พัฒนา Siri ขายบริษัทให้แอปเปิลในปี 2010, ลาออกเมื่อปี 2012 และเปิดตัวบริษัทใหม่ Viv เมื่อต้นปีนี้ โดยโฆษณาว่าระบบปัญญาประดิษฐ์ของ Viv ฉลาดกว่าปัญญาประดิษฐ์ในท้องตลาด (รวมถึง Siri) มาก
วันนี้ ซัมซุงเข้าซื้อกิจการ Viv Labs เรียบร้อยแล้ว เพื่อนำแพลตฟอร์ม AI ของ Viv ไปสร้างเป็นบริการสั่งงานด้วยเสียงพูดแบบใหม่ๆ ต่อไป ทางทีม Viv จะยังแยกการทำงานเป็นอิสระจากซัมซุง แต่จะทำงานร่วมกับแผนกสมาร์ทโฟนของซัมซุงอย่างใกล้ชิด
ฟีเจอร์เด่นที่กูเกิลเน้นเป็นจุดขายของมือถือ Pixel และ Google Home คือผู้ช่วยส่วนตัว Google Assistant ที่คุยว่ามีความฉลาดกว่าระบบ AI ของคู่แข่งมาก หลายคนอาจคิดว่า Google Assistant จะเปิดให้ผู้ใช้ทุกคนในลักษณะเดียวกับ Google Now แต่รอบนี้ดูเหมือนจะไม่เป็นอย่างนั้นซะแล้ว
เว็บไซต์ 9to5Google ได้รับคำยืนยันจากกูเกิลว่า ฟีเจอร์บางอย่างของ Pixel (ในที่นี้รวมถึง Google Assistant) จะเป็นฟีเจอร์เฉพาะของ Pixel เท่านั้น จนกว่ากูเกิลจะตัดสินใจขยายไปยังอุปกรณ์อื่นๆ ต่อไป
โดยสรุปแล้ว กูเกิลดูจะตั้งใจขยาย Google Assistant ให้กับอุปกรณ์อื่นๆ ในระยะยาว แต่ยังไม่มีแผนว่าเมื่อไร และตอนนี้ Google Assistant จึงมีให้ใช้เฉพาะบน Pixel เพียงอย่างเดียว
ที่มา - 9to5Google
กูเกิลรายงานถึงการใช้เครือข่ายประสาทเทียม (neural network) ที่เรียกว่า Residual Gated Recurrent Unit (residual GRU) เพื่อการบีบอัดภาพแบบสูญเสียรายละเอียด โดยยังคงรายละเอียดเทียบเคียงกับการบีบอัดภาพแบบดั้งเดิมอยู่
การสร้างเครือข่ายประสาทเทียมอาศัยภาพจำนวนมากเพื่อฝึกการบีบอัด โดยใช้ภาพขนาด 720p จำนวน 6 ล้านภาพ ซอยภาพออกเป็นบล็อก 32x32 พิกเซล เพื่อฝึกตัวเข้ารหัสภาพ (encoder) และตัวถอดรหัสภาพ (decoder) กระบวนการบีบอัดภาพจะบีบอัดเป็นรอบๆ แล้วดูว่ามีความผิดพลาดจากภาพต้นฉบับอย่างไรบ้าง จึงนำความผิดพลาดเหล่านั้นมาใส่เป็นอินพุตเพื่อเพิ่มข้อมูลให้ภาพคุณภาพดีขึ้น
Yahoo! สร้างซอฟต์แวร์ deep learning เพื่อการตรวจหาภาพอนาจาร เพื่อการตรวจสอบภาพก่อนแสดง และปล่อยออกมาเป็นโอเพนซอร์สเพื่อให้นักพัฒนาภายนอกสามารถนำไปใช้งาน และแสดงความเห็นว่ามันสามารถทำงานได้ดีเพียงใด
ทีมวิจัยใช้ไลบรารี Caffe และ CaffeOnSpark เพื่อพัฒนาโครงการนี้ โดยตอนแรกทีมงานทดสอบโมเดลหลายแบบ ได้แก่ MS_CTC, Squeezenet, VGG, GoogleLeNet, ResNet-50, และ ResNet-50-thin และสุดท้ายเลือก ResNet-50 เพราะทำงานได้ประสิทธิภาพค่อนข้างดี (ใช้เวลาต่อภาพน้อยกว่า 0.5 วินาที หน่วยความจำ 23MB)
ปัญหาอย่างหนึ่งในวงการ AI คือการหาชุดข้อมูล (dataset) ขนาดใหญ่พอเพื่อใช้เทรน AI ให้สามารถเรียนรู้จากชุดข้อมูลตัวอย่างได้ ในวงการประมวลผลภาพ มีโครงการ ImageNet คอยทำหน้าที่นี้ให้ แต่พอเป็นการประมวลผลวิดีโอกลับไม่มีชุดข้อมูลในลักษณะเดียวกัน
ไมโครซอฟท์ประกาศตั้งกลุ่มงานภายในองค์กรใหม่ชื่อ AI and Research Group เพื่อมาจับงานด้าน AI โดยเฉพาะ กลุ่มงานนี้มีนักวิทยาศาสตร์คอมพิวเตอร์และวิศวกรรวมถึงมากกว่า 5,000 คน โดยรวมฝ่ายต่างๆ ในบริษัท ทั้งฝ่ายวิจัยและฝ่ายพัฒนาผลิตภัณฑ์มาดังนี้
NVIDIA เปิดตัวชิป Xavier ที่งาน GPU Technology Conference Europe เป็นชิปปัญญาประดิษฐ์สำหรับรถอัตโนมัติโดยเฉพาะ
สถาปัตยกรรมภายในของ Xavier เป็นสถาปัตยกรรม Volta ที่จะใช้ในชิปกราฟิกรุ่นต่อไปช่วงปี 2018 ตัวชิปมีซีพียู 8 คอร์และคอร์กราฟิก 512 คอร์ พลังประมวลผลรวม 20 TOPS (trillion operations per second) ขณะที่ตัวชิป Xavier ถูกออกแบบให้กินพลังงานรวมเพียง 20 วัตต์ และผ่านมาตรฐานความปลอดภัย ISO 26262
Xavier จะวางขายจริงปลายปี 2017 โดยเปิดขายผู้ผลิตรถยนต์, สตาร์ตอัพ, และหน่วยงานวิจัยรถอัตโนมัติ
ที่มา - NVIDIA
Facebook, Amazon, Google, IBM และ Microsoft ประกาศจับมือก่อตั้งองค์กรความร่วมมือด้านปัญญาประดิษฐ์ในชื่อ Partnership on Artificial Intelligence to Benefit People and Society (Partnership on AI) ซึ่งเป็นองค์กรไม่แสวงหาผลกำไร ที่เปิดพื้นที่ให้หน่วยงานพัฒนา AI ได้ทำวิจัยและแบ่งปันคำแนะนำ รวมถึงรายงานการวิจัยภายใต้สิทธิบัตรเปิดในด้านต่างๆ ร่วมกัน
Google Translate ประกาศนำอัลกอริทึมแบบ Neural Networks มาใช้แทนการแปลแบบ Phrase-Based เดิม โดยเริ่มจากการแปลจีนเป็นอังกฤษก่อน ช่วยให้การแปลแม่นยำและใกล้เคียงกับมนุษย์แปลมากขึ้น
ที่ผ่านมา ระบบการแปลของ Google Translate ใช้เทคนิคที่เรียกว่า Phrase-Based Machine Translation (PBMT) ซึ่งจะตัดประโยคต้นฉบับเป็นคำๆ หรือวลี แล้วแปลแต่ละส่วนแยกจากกัน คุณภาพของการแปลจึงอาจไม่เป็นธรรมชาติมากนัก ช่วงหลังกูเกิลเริ่มนำเทคนิค Neural Machine Translation (NMT) มาใช้แทน โมเดลนี้จะมองภาพรวมการแปลทั้งประโยค แทนการแปลแบบแยกส่วน
ภาพสาธิตการแปลแบบ NMT จากภาษาจีนเป็นอังกฤษ ที่มองคำในประโยคต้นฉบับต่อกันเป็นเวกเตอร์ (encoder) จากนั้นตอนแปล (decoder) จะถอดความมาทีละคำ แต่จะยังดูบริบทของคำโดยรอบด้วย
บนอินเทอร์เน็ต นอกจากภาพยนตร์ผู้ใหญ่แล้วเราต่างรู้ว่ามีบริการโชว์เว็บแคมออนไลน์ ที่ให้สตรีวาดลวดลายท่าทางต่างๆ ให้ผู้ใช้อีกมุมโลกชมแบบสดๆ ซึ่งสตรีแต่ละนางก็จะมีบุคลิกต่างกันออกไป ล่าสุด เว็บไซต์เสิร์ชเอนจินหาเว็บแคมสดสัญชาติเบลเยี่ยม (ขออนุญาตไม่บอกชื่อ) มีคุณสมบัติการค้นหาคลิปวิดีโอเหล่านี้จากรูปใบหน้าได้แล้ว ในกรณีจำชื่อไม่ได้ เพิ่มเติมจากตัวเลือกการค้นหาอื่น เช่น สัญชาติ สีผม ขนาดหน้าอก กระทั่งรูปแบบการดูแลขนรอบอวัยวะสืบพันธุ์ วิธีการค้นหาคือให้ผู้ใช้อัพโหลดใบหน้าเข้าระบบไปค้นหาได้เลย โดยยืนยันว่าภาพเหล่านั้นจะไม่ถูกเก็บไว้หลังบ้าน
แม้บริษัทรายนี้จะไม่เปิดเผยว่าใช้กลไกใด แต่เท่าที่ TechCrunch พอทราบคือเป็น API นั้นชื่อ Cognitive Services ของ Microsoft ที่สามารถตรวจจับ จดจำ จัดกลุ่มรูปแบบใบหน้ามนุษย์ได้ ซึ่งคิดค่าใช้จ่ายอยู่ที่ใช้ฟรี 30,000 ครั้งต่อเดือน เกินกว่านั้นคิด 1.50 เหรียญสหรัฐฯ ต่อการหา 1,000 ครั้ง รองรับการใช้งาน 10 ครั้งต่อวินาที
บทความนี้มีการทดลองใช้ด้วย ผู้เขียนของ TechCrunch ซึ่งเป็นสุภาพสตรีลองอัพโหลดภาพตนเองขึ้นไป พบว่าเจอผลการค้นหาที่มีความคล้ายคลึงกันถึง 47% เลยทีเดียว
ที่มา - TechCrunch
กูเกิลเปิดซอร์สโครงการ Show and Tell ปัญญาประดิษฐ์สร้างจาก Tensorflow สำหรับการบรรยายภาพถ่ายด้วยข้อความ โดยตัวงานวิจัย Show and Tell ตีพิมพ์ในวารสาร IEEE Transactions on Pattern Analysis and Machine Intelligence เมื่อกลางปีที่ผ่านมา (ดาวน์โหลดได้จาก Arxiv)
โครงการนี้ใช้ชุดข้อมูลจาก MS COCO ของไมโครซอฟท์ที่ปล่อยออกมาเมื่อปี 2015 เมื่อจัดการแข่งขัน ร่วมกับข้อมูลอื่น เช่น Pascal VOC,Flickr, และ SBU รวมภาพกว่าหนึ่งล้านภาพ การเทรนทั้งหมดต้องเทรนประมาณ 3 ล้านครั้ง สำหรับเครื่องที่มีกราฟิกการ์ดใบเดียวจะต้องใช้เวลาหลายสัปดาห์
โค้ดอยู่ใน GitHub ไปโหลดมาลองกันได้
วงการดนตรีคงต้องจับตาดูอีกครั้ง เมื่อนักวิจัยจาก Sony CSL Research Laboratory เปิดตัวบทเพลงแนวป๊อป ที่ถูกแต่งขึ้ทำนองโดยซอฟต์แวร์ปัญญาประดิษฐ์ที่ชื่อ Flow Machines ซึ่งเรียนรู้สไตล์เพลงจากฐานข้อมูลใหญ่ชื่อ LSDB จนได้เพลงออกมาในชื่อ Daddy's Car ที่ฟังแล้วมีกลิ่นของวง The Beatles (หรือเทียบกับวงสมัยใหม่ก็นัวๆ ประมาณ Ducktails, Real Estate ครับ) ส่วนเนื้อเพลงและงานโปรดิวซ์ยังเป็นฝีมือมนุษย์ ซึ่งเพลงนี้จะนำไปรวมในอัลบั้มที่จะเปิดตัวในปีหน้า
ส่วนอีกเพลง ให้ AI ลองเรียนรู้เพลงสไตล์คันทรีอเมริกันอย่างศิลปิน Irving Berlin, Duke Ellington, George Gershwin และ Cole Porter จนได้เพลง The Ballad of Mr Shadow ก็ฟังดูนุ่มแต่ก็ยังขลุกขลักไปอีกแบบ ลองฟังเพลงทั้งสองด้านในครับ
ในโลกยุคที่ใครๆ ก็หันมาทำเรื่อง AI ล่าสุดบริษัท Salesforce เปิดตัว "Einstein" แพลตฟอร์มการใช้ AI มาช่วยปรับปรุงข้อมูลในบริการซอฟต์แวร์ของ Salesforce เอง ไม่ว่าจะเป็นระบบ CRM, Sales, Marketing, Analytics และอื่นๆ เช่น การใช้บ็อตมาช่วยตอบคำถามลูกค้า หรือการวิเคราะห์และพยากรณ์ข้อมูลยอดขาย
Salesforce บอกว่าตนเองมีข้อมูลจำนวนมากจากลูกค้าที่มาใช้บริการอยู่แล้ว การนำ AI มาช่วยวิเคราะห์ข้อมูลจึงเป็นการต่อยอดให้ผลิตภัณฑ์ของตัวเองดีขึ้น
คีย์บอร์ด SwiftKey เปิดตัวความสามารถใหม่ นำเทคนิค neural network มาช่วยให้เดาสิ่งที่ผู้ใช้จะพิมพ์ต่อไปได้แม่นยำขึ้น
SwiftKey ทดสอบความสามารถนี้มาตั้งแต่เดือนตุลาคม 2015 หลักการคือเปลี่ยนโมเดลการเดาคำจาก n-gram ที่ใช้อยู่ในปัจจุบัน (ดูสองคำล่าสุดแล้วเดาคำถัดไป อิงจากความถี่ทางสถิติว่าพบคำไหนบ่อยกว่ากัน) มาเป็นการใช้ neural network ดูข้อความย้อนหลังไปทั้งประโยค แล้ววิเคราะห์แต่ละคำแยกจากกันอย่างละเอียด ดังนั้น SwiftKey จะเลียนแบบการทำงานของสมองมนุษย์ เข้าใจว่าหน้าที่ของแต่ละคำในประโยคคืออะไรกันแน่
SwiftKey ตัวใหม่ใช้งานได้แล้วบน Android โดยยังรองรับเฉพาะภาษาอังกฤษเท่านั้น
ทีมปัญญาประดิษฐ์ DeepMind ของกูเกิล (ผู้สร้าง AlphaGo) โชว์ผลงานใหม่ WaveNet โมเดลปัญญาประดิษฐ์ที่สร้างเสียงสังเคราะห์ได้จากรูปแบบคลื่นเสียงของมนุษย์ สามารถใช้สร้างได้ทั้งเสียงพูด (speech) และเสียงดนตรี (music) จากการเรียนรู้ผ่าน deep learning
เป้าหมายหลักของ WaveNet ต้องการนำมาสร้างเสียงพูดสังเคราะห์ (text-to-speech หรือ TTS) ซึ่งปัจจุบัน ระบบสังเคราะห์เสียงพูด TTS ส่วนใหญ่เก็บเสียงพูดเป็นคำสั้นๆ แล้วนำเสียงมาต่อกันเป็นประโยค (มีชื่อเรียกว่า concatenative TTS) ซึ่งมีข้อเสียคือดัดแปลงเสียงได้ยาก เพราะต้องอัดเสียงใหม่ทั้งหมด
สมาคมเทนนิสของสหรัฐหรือ United States Tennis Association (USTA) ประกาศความร่วมมือกับ IBM ในการนำระบบวิเคราะห์และ Cognitive Computing บนคลาวด์ของ Watson มาใช้งานกับการแข่งขัน US Open เพื่อเพิ่มประสบการณ์การรับชมการแข่งขันของแฟนๆ ดังนี้
คงจะเคยดูหนังหรือละครต่างประเทศแนวสืบสวนสอบสวนกันมาบ้าง หลายครั้งที่เราเห็นฉากการตามหาคนแล้วดึงภาพมาจากกล้องวงจรปิด หรือกล้องมือถือที่ไหนสักแห่งแล้วเห็นภาพบุคคลเป้าหมายเบลอๆ เห็นแค่เม็ดพิกเซลเหมือนภาพโมเสค จากนั้นเจ้าหน้าที่ก็ซูมภาพ ซูมแล้วซูมอีก แล้วใช้ซอฟต์แวร์ปรับแต่งภาพให้มีความคมชัดขึ้น จากภาพเบลอๆ เหลี่ยมๆ ก็กลายเป็นภาพใบหน้าคนที่มีความคมชัดขึ้น วันนี้อยากบอกให้รู้ว่าเรื่องพวกนี้มันไม่ได้ขี้โม้เกินจริงสักเท่าไหร่เลย ตัวอย่างโปรแกรมของชายที่ชื่อ David Garcia พิสูจน์เรื่องนี้ให้เห็นได้อย่างดี
ในเมื่อแวดวงยานยนต์ 4 ล้อนั้นก้าวหน้าไปมาก โดยเฉพาะข่าวรถยนต์ไร้คนขับที่มาพร้อมปัญญาประดิษฐ์เพื่อควบคุมการเดินทาง ไหนเลยที่เทคโนโลยียานยนต์ 2 ล้อจะนิ่งเฉยอยู่กับที่ วันนี้จึงมีข่าวว่า Kawasaki ผู้ผลิตรถจักรยานยนต์รายใหญ่จากญี่ปุ่น ได้ประกาศข่าวว่ากำลังพัฒนาระบบปัญญาประดิษฐ์ไว้เป็นเพื่อนคู่คิดสำหรับนักบิดทั้งหลาย
ระบบปัญญาประดิษฐ์ที่ว่านี้ Kawasaki ตั้งชื่อให้มันว่า Kanjo Engine ซึ่งแปลว่าเครื่องยนต์ที่มีความรู้สึก เป้าหมายในการพัฒนางานนี้คือ ทำให้ Kanjo Engine สามารถเข้าใจและสื่อสารโต้ตอบกับผู้ขับขี่ด้วยภาษาธรรมชาติได้ และจากการสื่อสารนั้นจะทำให้มันเข้าใจตัวผู้ใช้มากยิ่งขึ้น ทั้งเรื่องประสบการณ์การขับขี่ของผู้ใช้, ทักษะการควบคุมรถ และรูปแบบการขับขี่ของผู้ใช้