อินเทลประกาศมุ่งรองรับเทคโนโลยีปัญญาประดิษฐ์เต็มรูปแบบ หลังจากฝั่งซอฟต์แวร์ประกาศร่วมมือกับกูเกิลพัฒนา TensorFlow ฝั่งฮาร์ดแวร์ก็ประกาศแผนการชิปรุ่นต่อไปในปีหน้าอีกสองรุ่น
Lake Crest จะเป็นชิปตัวแรกที่ใช้เทคโนโลยีจาก Nervana ที่อินเทลเพิ่งซื้อมา โดยจะเริ่มทดสอบระดับซิลิกอนในต้นปีหน้า และจะส่งมอบให้กับลูกค้าสำคัญก่อนภายในปี 2017
Knights Crest เป็นชิปรุ่นต่อไป ที่ฝังเทคโนโลยีจาก Nervana เข้าไปในชิป Xeon ยังไม่มีกำหนดส่งมอบสินค้า แต่อินเทลก็ตั้งเป้าว่าชิปของตัวเองจะมีประสิทธิภาพในการฝึกโมเดล deep learning ได้ดีกว่าชิปกราฟิกถึง 100 เท่าตัวก่อนปี 2020
ประโยชน์สำคัญของปัญญาประดิษฐ์คือการใช้อธิบายภาพถ่ายและวิดีโอ ทำให้คอมพิวเตอร์สามารถค้นหาภาพจากคำอธิบายได้อย่างแม่นยำ แต่ผู้ใช้ ryanjay0 บน GitHub ก็เสนอแนวทางการพัฒนาปัญญาประดิษฐ์เพื่อการอธิบายแต่ละช่วงเวลาของภาพยนตร์สำหรับผู้ใช้ ที่ชื่อระบบว่า Miles Deep
Miles Deep เป็นเครือข่ายประสาทแบบ CNN ที่ใช้โมเดลที่ฝึกด้วย ImageNet มาล่วงหน้า จากนั้นจึงสร้างโมเดลเพิ่มเติมด้วยภาพอีก 36,000 ภาพ และข้อมูลทดสอบอีก 2,500 ภาพ โดยภาพที่ใช้ฝึกเป็นภาพ 6 ประเภท ได้แก่ (ขออนุญาตไม่แปล) blowjob_handjob, cunnilingus, sex_back, sex_front, titfuck, และ other
เมื่อต้นปี ไมโครซอฟท์ออกชุดเครื่องมือพัฒนา Deep Learning สำหรับเทรน AI ในชื่อ CNTK (ย่อมาจาก Microsoft Cognition Toolkit) พร้อมเปิดซอร์สขึ้นบน GitHub
ล่าสุดไมโครซอฟท์ออกชุดเครื่องมือเวอร์ชันใหม่ 2.0 Beta แล้ว พร้อมเปลี่ยนชื่อมันจากตัวย่อ มาเป็นชื่อเต็มๆ คือ Microsoft Cognitive Toolkit แทน
ของใหม่ที่สำคัญในเวอร์ชันนี้คือรองรับภาษา Python เพิ่มเข้ามาจากรุ่นแรกที่รองรับแต่ C++ (ในอนาคตจะรองรับภาษาอื่นๆ อย่าง R และ C#), ปรับปรุงประสิทธิภาพ และทำงานร่วมกับ Visual Studio ได้แล้ว
เทคโนโลยีอย่าง AI ไม่ได้จำเป็นว่าจะต้องนำมาแก้ปัญหาที่มีความซับซ้อนแต่จับต้องไม่ได้ แต่เพียงอย่างเดียว อย่าง Makoto Koike นักออกแบบ Embedded System ได้ตัดสินใจนำเอาระบบ Deep Learning บน TensorFlow ของกูเกิลมาใช้ในฟาร์มแตงกวาของพ่อแม่ตัวเอง เพื่อช่วยเรื่องการคัดแยกแตงกวาทั้งเรื่องของขนาด สี ฯลฯ ซึ่งช่วยลดระยะเวลาในการคัดแยกลงไปได้ค่อนข้างมาก
TensorFlow เฟรมเวิร์คสำหรับสร้างโครงข่าย Deep Learning ประกาศเพิ่มไลบรารี TF-Slim สำหรับการสร้างโครงข่ายในระดับสูงได้ทั้งการฝึกโครงข่ายและประเมินผล
TF-Slim เคยเป็นโครงการทดลองสำหรับโมเดล Inception-V3 ที่ TensorFlow ปล่อยออกมาก่อนหน้านี้ แต่ตอนนี้กลายเป็นไบรารีเต็มรูปแบบอยู่ใต้แพ็กเกจ tf.contrib.slim
ในเวอร์ชั่นล่าสุด TensorFlow ยังเพิ่มฟีเจอร์อีกจำนวนมาก เช่น เลเยอร์ของนิวรอนแบบใหม่ๆ, ฟังก์ชั่นเพิ่มเติม, ไลบรารีสำหรับการทำงานร่วมกันระหว่างชิปกราฟิกและซีพียู, ไปจนถึงโมเดลที่ฝึกไว้ล่วงหน้า
ที่มา - Google Research
อินเทลซื้อกิจการบริษัท Nervana Systems สตาร์ตอัพด้าน Deep Learning ที่ก่อตั้งเมื่อปี 2014 โดยไม่เปิดเผยมูลค่า
Nervana Systems สร้างระบบคลาวด์เพื่อให้หน่วยงานที่ต้องการพัฒนาระบบ Deep Learning มาเช่าใช้บริการได้ โดยไม่ต้องลงทุนซื้อฮาร์ดแวร์ด้าน Deep Learning ราคาแพงด้วยตัวเอง ตัวเฟรมเวิร์ค "neon" พัฒนาด้วยภาษา Python และรองรับงานด้าน Deep Learning หลากหลายประเภท
นอกจากนี้ Nervana ยังมีฮาร์ดแวร์ Nervana Engine เป็นวงจรออกแบบพิเศษ (ASIC) สำหรับงานด้าน Deep Learning โดยเฉพาะ
หลังซื้อกิจการแล้ว ทีมซอฟต์แวร์ของ Nervana จะเข้าไปช่วยพัฒนา Intel Math Kernel Library ส่วนทีมฮาร์ดแวร์จะร่วมพัฒนา Xeon และ Xeon Phi
แมวมีเป้าหมายจะครองโลก แต่กว่าจะไปถึงจุดนั้นคงต้องเอาชนะ Deep learning ให้ได้ก่อนล่ะ Robert Bond วิศวกรซอฟต์แวร์ของ NVIDIA พัฒนาซอฟต์แวร์บน Jetson TX1 โมดูลขนาดเล็กของซุปเปอร์คอมพิวเตอร์ ให้เรียนรู้ด้วยวิธี Deep Learning จากภาพแมวที่เข้ามาในสวนหน้าบ้าน เมื่อจับได้ สปริงเกอร์พ่นน้ำจะทำงาน ไล่แมวออกไปจากสวนได้
ในการฝึกซอฟต์แวร์ให้ทำงาน Bond จำเป็นต้องป้อนข้อมูลเรื่องแมวให้มากที่สุด ใส่ภาพแมวเป็นจำนวนมาก ผ่านระบบเดสก์ท็อปที่ใช้กราฟิกการ์ด NVIDIA GeForce GTX TITAN
ต่อเนื่องจากข่าวเมื่อ 2 เดือนก่อนเรื่องป้ายโฆษณาข้างทางด่วนของ Dentsu ที่จะเปลี่ยนเนื้อหาอิงตามผู้ที่ขับรถผ่าน ตอนนี้ก็มีข้อมูลจากการทดลองใช้งานเปิดเผยว่าระบบของป้ายดังกล่าวสามารถแยกแยะยี่ห้อ, โมเดล และปีที่ผลิตของรถที่แตกต่างกันได้ 200 รุ่นแล้ว โดยมีความแม่นยำในการระบุข้อมูลของรถถึง 94%
Couldian ซึ่งเป็นหนึ่งใน 3 บริษัทไอทีที่ร่วมพัฒนาป้ายโฆษณาอัจฉริยะของ Dentsu นี้ เปิดเผยว่าทีมพัฒนาได้ทำการสอนให้ปัญญาประดิษฐ์รู้จักจำแนกภาพของรถยนต์ยี่ห้อและรุ่นต่างๆ โดยใช้ภาพถ่ายรถยนต์จากเว็บขายรถมือสองหลายแสนภาพ โดยมีภาพรถยนต์ที่แตกต่างกันทั้งยี่ห้อ, โมเดล และปีที่ผลิตของรถ ปะปนกันไป (เฉลี่ยแล้วปัญญาประดิษฐ์จะได้เรียนรู้ภาพรถยนต์แต่ละรุ่นประมาณ 4,000 ภาพ)
หลังผ่านการทดสอบมาตั้งแต่ช่วงต้นปี Dentsu จะเปิดใช้งานป้ายโฆษณาอัจฉริยะนี้อย่างเป็นทางการในช่วงปลายปีนี้ โดยจะรับลงโฆษณาแบบเน้นกลุ่มเป้าหมายอิงตามข้อมูลรถของผู้ขับขี่สัญจรไปมา
ที่มา - CNN Money
Andrew Ng หนึ่งในผู้บุกเบิกสายวิชา Deep Learning ที่ปัจจุบันทำงานอยู่ Baidu Research ประกาศเขียนหนังสือเล่มใหม่ Machine Learning Yearning ที่ระบุว่าจะช่วยลดเวลาในการทำความเข้าใจการสร้างระบบคอมพิวเตอร์เรียนรู้ด้วยตัวเอง
ลำพัง Ng เขียนหนังสือเล่มใหม่ก็คงเป็นข่าวอยู่แล้ว แต่เขากลับเปิดตัวหนังสือเล่มนี้ด้วยการเปิดลงทะเบียนรับร่างหนังสือฟรี โดยจะได้รับทีละบทเมื่อเขาเขียนเสร็จไปเรื่อยๆ
เขาระบุว่าหนังสือจะหนาเพียงประมาณ 100 หน้า และแต่ละบทจะสั้นๆ เพียง 1-2 หน้าเท่านั้น
ลงทะเบียนรับหนังสือได้ที่เว็บ mlyearning.org
ที่มา - Facebook: Andrew Ng
ทีมวิจัยจาก Beth Israel Deaconess Medical Center (BIDMC) และ Harvard Medical School (HMS) ร่วมมือกันพัฒนาปัญญาประดิษฐ์ให้สามารถตรวจหาเซลล์มะเร็งจากการอ่านภาพทางพยาธิวิทยาได้ โดยใช้วิธี Deep Learning ซึ่งเป็นวิธีที่ใช้กันในการฝึกให้ปัญญาประดิษฐ์เข้าใจภาษา ศิลปะ และอื่นๆ
ทีมวิจัยป้อนข้อมูลรูปภาพทางพยาธิวิทยาเป็นร้อยๆสไลด์ให้ปัญญาประดิษฐ์วินิจฉัยว่า ภาพใดเป็นภาพปกติ และภาพใดมีเซลล์มะเร็งกำลังก่อตัว ปรากฏว่าปัญญาประดิษฐ์สามารถวินิจฉัยถูกต้องถึง 92% แม้จะยังไม่เทียบเท่าได้กับนักพยาธิวิทยาที่สามารถวินิจฉัยได้มากกว่าคือ 96% แต่ทีมวิจัยระบุว่าถือเป็นสัญญาณที่ดี
ที่มา - Engadget
วันนี้ Blog ของ Facebook เปิดตัวเทคโนโลยีใหม่ชื่อ Deep Text ที่ช่วยให้ Facebook เข้าใจข้อความที่ผู้ใช้โพสต์ และการสนทนาโต้ตอบมากขึ้น Deep Text คือระบบ deep learning ที่เข้าใจข้อความหรือเนื้อหาได้ถูกต้องและใกล้เคียงกับมนุษย์ ใช้เวลาในการทำความเข้าใจกว่า 1,000 โพสต์ต่อวินาที ใช้งานได้มากกว่า 20 ภาษา
เว็บไซต์ The Next Web รายงานว่าทีมงาน Cortex ของ Twitter ร่วมกับ Periscope กำลังพัฒนาระบบค้นหาและรวบรวมวิดีโอที่กำลังถ่ายทอดสด รวมถึงระบบ deep learning algorithm สำหรับการวิเคราะห์เนื้อหาที่กำลังถูกถ่ายทอด
หากสำเร็จการค้นหาคีย์เวิร์ดที่สำคัญบน Twitter จะถูกเชื่อมโยงเข้ากับวิดีโอถ่ายทอดสดที่มีเนื้อหาและสถานที่ตรงกันคีย์เวิร์ดนั้น รวมถึงจะทำให้ Periscope สามารถค้นหาวิดีโอที่ละเมิดกฎการใช้งานได้ง่ายขึ้นด้วย
ที่มา - The Next Web
กูเกิลเปิดซอร์ส SyntaxNet เครือข่ายประสาทเทียมที่สร้างบน TensorFlow สำหรับการวิเคราะห์รูปประโยคโดยเฉพาะ โดยตัวอย่างที่ให้มาเพียงพอที่จะสร้างโมเดลภาษาขึ้นมาเองได้ หรือจะใช้โมเดล Parsey McParseface ที่มาในตัวก็ได้เช่นกัน
ความยากของการวิเคราะห์รูปประโยคเกิดจากความกำกวมของภาษาที่เราใช้กันอยู่ทุกวันนี้ เช่นประโยค "อลิซขับรถไปตามถนน" อาจจะแปลเป็น "อลิซขับรถเพื่อไปตามถนน" หรือ "อลิซขับไปตามถนน" แม้ว่าการแปลแบบแรกจะแปลกๆ สำหรับคนทั่วไปก็ตาม ถ้าใครทันหนังสือเรียนมานีมานะก็อาจจะจำประโยค "ยานี้กินแล้วแข็งแรงไม่มีโรคภัยเบียดเบียน" กันได้
Game of Thrones ซีซั่นนี้สร้างปรากฏการณ์การวิเคราะห์อย่างกว้างขวางบนโลกออนไลน์ ไม่เว้นแม้แต่โปรแกรมคอมพิวเตอร์และปัญญาประดิษฐ์ที่ออกมาวิเคราะห์ตัวละครและทำนายตัวละคร ล่าสุด นักวิทยาศาสตร์ด้านคอมพิวเตอร์สถาบันเทคโนโลยีแมสซาชูเซตส์ (MIT) ก็ขอเข้ามาแจมกับเขาด้วย หัวข้อคือ ตัวละครใดใน GOT น่าจดจำมากที่สุด โดยใช้อัลกอริทึมคอมพิวเตอร์ช่วยค้นหา
ไม่ใช่ Tesla ที่เป็นรถยนต์ แต่เป็น Tesla P100 จาก NVIDIA ที่เป็นผลิตภัณฑ์ชิ้นแรกของค่ายนี้ที่ใช้ชิปตระกูล Pascal ในรูปแบบ HPC Board ไว้ใช้ในซูเปอร์คอมพิวเตอร์เช่น NVIDIA DGX-1 ที่เอาไว้ประมวลผลเรื่อง Deep Learning โดยเฉพาะ ต่อยอดจาก Tesla K40 (Kepler) และ M40 (Maxwell)
Tesla P100 ใช้จีพียู Pascal ผลิตบน 16nm FinFET มีทรานซิสเตอร์ 15 พันล้านตัว ทำงานกับแรมบนชิป HBM2 4096 บิต ด้านความสามารถคุยกันที่ระดับ 21.2 TFLOP/s เมื่อประมวลผลแบบ FP16 และพร้อมทำงานร่วมกันทีละหลายตัวผ่านระบบบัส NV Link ที่แบนด์วิดท์ทั้งสองขารวมกัน 160GB/s มีสเปคความร้อน 300 วัตต์ต่อตัว พร้อมจำหน่ายไตรมาสแรกปีหน้าครับ
ที่มา - NVIDIA
ช่วงนี้เทคโนโลยี deep learning กำลังมาแรง ล่าสุด Salesforce ประกาศซื้อกิจการบริษัท MetaMind สตาร์ตอัพที่ Marc Benioff ซีอีโอของ Salesforce เคยไปลงทุนไว้
MetaMind ก่อตั้งมา 1.5 ปี ต้องการนำเทคโนโลยี deep learning มาช่วยกระบวนการตัดสินใจทางธุรกิจ การไปอยู่กับ Salesforce จะนำระบบ AI ไปเสริมซอฟต์แวร์องค์กรของ Salesforce ทั้งด้านการตลาด การบริการลูกค้า และธุรกิจอื่นๆ
ส่วนบริการของ MetaMind เดิมจะหยุดให้บริการในเดือนพฤษภาคมนี้ ข้อมูลของผู้ใช้ทั้งหมดจะถูกลบ
ก่อนหน้านี้ Salesforce เพิ่งซื้อบริษัทด้าน machine learning ชื่อ PredictionIO และกำลังสร้างทีมด้าน data science ให้แข็งแกร่งขึ้น
โชคดีที่เมื่อวานนี้ผมมีโอกาสเข้าฟังสัมมนาหัวข้อ "AlphaGO: Mastering the game of Go with deep neural networks and tree search" โดยวิทยากรคือ Dr. David Silver จาก DeepMind ซึ่งเป็นบุคคลสำคัญในทีมวิจัยและพัฒนา AlphaGo จาก Google DeepMind
David เป็นหนึ่งในผู้เขียนบทความวิชาการชื่อเดียวกันกับหัวข้อสัมมนา ซึ่งอธิบายเทคนิคเบื้องหลังความสำเร็จของ AlphaGo และได้ตีพิมพ์ในนิตยสาร Nature เมื่อไม่กี่เดือนที่ผ่านมา
การแข่งขันหมากล้อมนัดสุดท้ายระหว่าง AlphaGo และ Lee Sedol กำลังจะเริ่มขึ้นในไม่กี่นาทีข้างหน้า และเมื่อสักครู่ Demis Hassabis ผู้ก่อตั้ง DeepMind ได้ทวีตเปิดเผยว่าทำไม AlphaGo ถึงแพ้ Lee Sedol ในการแข่งขันนัดที่แล้ว
Demis บอกว่า AlphaGo ได้ประเมินความเป็นไปได้ที่ Lee จะวางหมากเทพในตาที่ 78 เพียง 1 ใน 10,000 เท่านั้น ส่งผลให้ "เสียแผน" และวางหมากไม่ถูกไปพักหนึ่ง นี่แสดงให้เห็นถึงช่องโหว่ในความรู้ของ AlphaGo ที่มาจากการฝึกโดยการแข่งกับตัวเอง หรือพูดง่ายๆ คือ AlphaGo "คิดไม่ถึง" ว่า Lee จะวางหมากนั้นในตานั้น
สุดท้ายเขาบอกว่าขณะนี้ Lee รู้ช่องโหว่หรือจุดอ่อนของ AlphaGo แล้ว และเกมสุดท้ายก็น่าสนใจมากว่า Lee จะใช้ประโยชน์จากจุดอ่อนนี้ได้หรือไม่ (AlphaGo ไม่ได้พัฒนาตนเองเลยตั้งแต่การแข่งนัดแรก ใช้เวอร์ชันเดิมมาตลอดครับ)
ที่มา - @demishassabis
เดินทางมาถึงกระดานที่ 4 สำหรับการแข่งขันหมากล้อมระหว่าง AlphaGo และ Lee Sedol โดยผลการแข่งขันวันนี้ Lee Sedol เอาชนะ AlphaGo ไปได้อย่างสวยงาม
Lee ใช้เวลา 2 ชั่วโมงจนหมด ในขณะที่ตอนนั้น AlphaGo ยังเหลือเวลาอยู่ถึง 1 ชั่วโมงกว่าๆ ทั้งคู่แข่งกันไปมาจนฝั่ง AlphaGo เหลือเวลา 54 วินาที ก่อนจะยอมแพ้ในที่สุด
ด้าน Demis Hassabis ผู้ก่อตั้ง DeepMind ทวีตว่า AlphaGo เดินพลาดตอนตาที่ 79 แต่เพิ่งจะรู้ตัวตอนตาที่ 87 ทำให้ความมั่นใจว่าจะชนะของ AlphaGo ดิ่งลงจาก 70% เหลือต่ำมาก (แต่ไม่ได้บอกว่าเท่าไหร่)
จังหวะที่ AlphaGo ยอมแพ้ บนหน้าจอคอมพิวเตอร์ขึ้นว่า "AlphaGo resigns: The result "W+Resign" was added to the game information"
ที่มา - YouTube: DeepMind
การแข่งขันโกะระหว่าง AlphaGo และ Lee Sedol ในวันที่สามจบลงด้วยชัยชนะของ AlphaGo นั่นหมายถึง AlphaGo สามารถเอาชนะการแข่งขันสามตา ถือเป็นผู้ชนะในทันที
วันนี้ AlphaGo เล่นด้วยหมากสีขาว และ Lee เล่นด้วยหมากสีดำ
ช่วงหลังของเกม Lee ใช้เวลาสองชั่วโมงของตัวเองหมดเมื่อเทียบกับ AlphaGo ที่เหลือ 40 นาที ทำให้ Lee ถูกบีบเวลาตัดสินใจเดินหมากเหลือหนึ่งนาทีต่อตา
เกมจบด้วยการยอมแพ้ของ Lee เป็นครั้งที่สาม ขณะที่ AlphaGo เหลือเวลาเล่น 8 นาที
Ke Jie แชมป์โกะของประเทศจีน ออกมาให้สัมภาษณ์ต่อกรณี Lee Sedol พ่ายแพ้แก่ AlphaGo ของกูเกิลในเกมแรก (เขาให้สัมภาษณ์เมื่อวานนี้) ว่าเป็นเรื่องเกินความคาดหมาย เขาประเมินความสามารถของ AlphaGo ต่ำเกินไป แต่ก็บอกว่า "AlphaGo เอาชนะผมไม่ได้หรอก"
Ke Jie ยอมรับว่าตอนแรกเขาคิดว่า Lee Sedol น่าจะชนะใส 5-0 และการเล่นโกะแข่งกับโปรแกรมนั้นไม่น่าสนใจ เพราะถ้าชนะได้ง่ายๆ มันเป็นเรื่องน่าเบื่อ แต่มาถึงตอนนี้ เขาก็คิดว่าการแข่งขันกับ AlphaGo เป็นเรื่องน่าลอง และโอกาสที่เขาชนะคือ 60%
อย่างไรก็ตาม เขาบอกว่าเมื่อ AlphaGo พัฒนาขึ้น ก็คงเอาชนะมนุษย์ได้ทุกคน
เพิ่งจบลงไปกับการแข่งขันหมากล้อมกระดานที่ 2 ระหว่าง AlphaGo กับ LeeSedol โดยชัยชนะตกเป็นของ AlphaGo จาก DeepMind บริษัทวิจัยด้าน AI ซึ่งเป็นบริษัทลูกของกูเกิลอีกที
การแข่งขันนัดนี้เข้มข้นกว่านัดแรกเมื่อวานมาก โดยทั้งสองฝั่งได้ใช้เวลา 2 ชั่วโมงหมด ทำให้ถูกบังคับให้วางหมากภายใน 60 วินาทีในแต่ละตา และสุดท้าย Lee Sedol ได้โยนหมากยอมแพ้ไปอีกครั้ง
ซีอีโอของ DeepMind นาย Demis Hassabis ได้ทวีตระหว่างเกมว่า AlphaGo มั่นใจอยู่ตั้งแต่เข้าช่วงทดเวลาแล้วว่ามันจะชนะ แต่ทางผู้พากย์เกมทั้งสองคน ซึ่งหนึ่งในนั้นเป็นโปรหมากล้อมระดับ 9 ดั้งของสหรัฐอเมริกา กลับมีความเห็นไม่ตรงกัน
หลังจากเกมจบลง เขาก็ทวีตอีกว่า AlphaGo ได้เล่นหมากที่สวยงามในเกมนี้ด้วย
หลังจาก AlphaGo ชนะ Lee ในการแข่งขันโกะวันแรก ขณะนี้การแข่งขันโกะระหว่างทั้งคู่ในวันที่สองจบลงแล้ว ผลคือ AlphaGo ชนะ Lee เป็นครั้งที่สอง (Lee ยอมแพ้ทั้งสองครั้ง)
นั่นแปลว่า Lee ไม่สามารถชนะด้วยแต้ม 4-1 เหมือนที่เคยให้ข่าวไว้ได้ และถ้า Lee ต้องการชนะ สามตาต่อไปต้องชนะรวดเท่านั้น
พรุ่งนี้พักการแข่งขันหนึ่งวัน ก่อนกลับมาแข่งสามนัดที่เหลือต่อในวันเสาร์ อาทิตย์ และอังคาร
ที่มา: Match 2 - Google DeepMind Challenge Match: Lee Sedol vs AlphaGo
ใกล้เข้าไปทุกขณะสำหรับศึกการแข่งขันโกะระหว่างแชมป์โลกโกะคนปัจจุบัน Lee Sedol และปัญญาประดิษฐ์ที่ถล่มแชมป์ยุโรปมาขาดลอยอย่าง AlphaGo กำลังจะเริ่มแข่งขันนัดแรกกันในวันพรุ่งนี้แล้ว
การแข่งขันนัดแรกของ Lee Sedol และ AlphaGo จัดขึ้นที่โรงแรม Four Seasons ในเมืองโซล ประเทศเกาหลีใต้ในเวลาบ่ายโมง หรือ 11 โมงตามเวลาบ้านเรา โดยผู้ที่สนใจดูถ่ายทอดสดสามารถเข้าไปติดตามได้จาก YouTube
เวลาดูภาพถ่ายใดๆ ถ้าในภาพนั้นมีสถานที่สำคัญ เราคงบอกได้ไม่ยากว่าภาพนั้นถูกถ่ายที่ไหน แต่ถ้าเป็นภาพธรรมดาไม่มีอะไรพิเศษ การแยกแยะสถานที่ถ่ายภาพนั้นย่อมยากขึ้นเยอะ ต้องอาศัยบริบทต่างๆ เช่น ต้นไม้ สถาปัตยกรรม ฯลฯ เข้าช่วย (ลองท้าทายความสามารถด้วยการเปิดเว็บ Geoguessr ที่ดึงภาพจาก Street View มาให้เราทายว่าอยู่ที่ไหนในโลก)
ทีมวิจัยของกูเกิลเปิดตัว PlaNet ปัญญาประดิษฐ์ที่เกิดจากการเทรน deep learning ตัวใหม่ สามารถคาดเดาได้ว่าภาพนั้นถูกถ่ายจากที่ไหน ด้วยความแม่นยำที่เหนือกว่ามนุษย์ด้วยซ้ำ