การแข่งโกะของ AlphaGo สร้างความสนใจเรื่อง AI ไปทั่วโลก ถึงแม้เกมจะยังแข่งไม่ครบ 5 แมตช์ แต่หลายคนก็ตั้งคำถามแล้วว่ากูเกิลจะนำปัญญาประดิษฐ์ AlphaGo ไปแข่งอะไรต่อ
Demis Hassabis ผู้ก่อตั้งบริษัท DeepMind ออกมาให้สัมภาษณ์ว่าน่าจะเป็นเกม StarCraft เพราะผู้เล่นถูกบีบให้ตัดสินใจโดยที่ยังมีข้อมูลไม่ครบถ้วน เหตุเพราะมีเรื่องเวลามาเกี่ยวข้องด้วย รูปแบบจึงต่างไปจากการเล่นโกะหรือหมากรุก ที่ผู้เล่นทั้งสองฝ่ายมีข้อมูลครบถ้วน รู้แนวทางที่เป็นไปได้ทั้งหมดตลอดการแข่งขัน
อย่างไรก็ตาม Hassabis ก็บอกว่าทีม DeepMind ไม่ได้สนใจแค่การแข่งเกมเพียงอย่างเดียว เพราะจริงๆ แล้วเกมเป็นแค่ส่วนหนึ่งของการทดสอบอัลกอริทึมของทีมงานว่า AI สามารถพัฒนาไปได้อีกไกลแค่ไหน
ที่มา - The Verge, Tech Insider
Comments
พี่เกาโดนอีกแล้ว
ท่าทางจะชอบเล่นกับคนเกาหลี 555
@mamuang
AI มันสามารถควบคุมการทำงานพร้อมกันได้มากกว่ามนุษย์ ยังไง AI ถ้ามัยเจ๋งระดับ AlphaGo ยังไงก็ชนะ มันสามารถสร้างฐาน ผลิตทหาร จู่โจม แถมตั้งรับได้ภายใน วินาทีเดียวกัน หรือน้อยกว่านั้น
ขณะที่มนุษย์เองไม่สามารถทำได้ เกมแรกๆ เธออาจจะแพ้ แต่เธอได้เรียนรู้สักหน่อยแบบเดียวกับหมากล้อม เชื่อว่าจะเอาชนะเธอต้องใช้วิธีรุมกินโต๊ะอย่างเดียวแแน่ๆ
ประเด็นนี้คิดอยู่เหมือนกัน แต่เขาคงมี Delay ให้ฝั่ง AI ความคุม Units ต่าง ๆ ได้ใกล้เคียงกับมนุษย์ คล้าย ๆ Bot ในเกม คงไม่ปล่อยให้เร็วเวอร์ชนิดมองไม่ทันละมั้ง
คงไม่ถึงขนาดนั้นที่ต้องตั้ง Delay เป็นการเฉพาะ ไม่งั้นปรับ AlphaGo แพ้ไปเลยดีกว่า ถ้าจะต้องตั้งกฎอะไรที่จะดักทางไม่ให้ AI เอาเปรียบมนุษย์ เพราะไม่ว่าจะตั้งอะไรใหม่ยังไงเธอก็ยังได้เปรียบอยู่ดี เพราะเธอไม่มีคำว่าลืม ทุกคำสั่งเป็นขั้นเป็นตอนเรียงลำดับถูกที่ถูกเวลา เก็บแร่ สร้าง โจมตี ป้องกัน อย่างที่คุณ devilblaze ว่าไว้ "มันจะไม่ลืมใช้แร่"
ที่น่าจะปรับคือคงให้ AlphaGo เล่นด้วย UI เดียวกับมนุษย์ ห้ามยิงคำสังตรงไปยังเกมไม่ต้องผ่าน UI แบบนั้นคงเป็นอย่างที่ท่านกล่าวไว้ "เร็วเวอร์ชนิดมองไม่ทัน"
ความเห็นส่วนตัวนะ: ยังไง AlphaGo ก็ชนะอยู่ดีเพราะความซ้ำซ้อนของการเล่นไม่เท่าหมากล้อมด้วยซ้ำ เหมือนเอานักบินขับไล่มาขับเครื่องทำฝนหลวง ความยากมันลดระดับลงมาเลย
ความซับซ้อนของ StarCraft คือเรามองไม่เห็นว่าคู่ต่อสู้ของเราไปถึงไหนแล้วนี่สิครับ
จะเห็นกันอีกทีก็ตอนเผชิญหน้ากันแล้ว แล้วด้วยความที่ไม่เห็นเราจะไม่สามารถคำนวณได้ว่าควรจะสร้าง Unit ไหนก่อนดี คู่ต่อสู้บางคนเน้นรับ บางคนเน้นรุก บางคนบุกไว ความเป็นไปได้ผมว่ามันก็เยอะอยู่มันยากแค่ช่วงที่มองไม่เห็นเนี่ยแหละ
จุดเด่นของคอมคือ มันจะไม่ลืมใช้แร่ ดูการแข่งคนที่เป็นแชมป์ยังหลงๆลืมๆบริหารแร่
ถ้าทุกเสี้ยววินาทีมันประมวลผลมาให้พอดีกับแผนการเล่นในการเก็บแร่ให้ตรงกับยูนิตที่จะใช้ในแผนแบบเป๊ะๆไม่ขาดไม่เกิน แค่นี้ก็น่ากลัวแล้ว
ประเด็นคือ ยังไม่เคยเห็นเค้าแข่ง SC2 หรือคือยังไม่เคยเล่น SC2 ใช่หรือไม่ ยังเป็นผู้เล่นระบเริ่มต้นแน่นอน หรือแค่ดูผ่านๆ
ถ้าคิดทฤษฏีแบบ ที่คุณว่ามา คอมมันชนะทุกอย่างบนโลกนั่นแหล่ะครับ
เกมSC2 มันมี ความซับซ้อนมากกว่านั้นเยอะครับ ถ้ามันง่ายเพียงแค่ไม่ลืมเก็บแร่ กับสร้างยูนิตได้และบุกได้ไปพร้อมกัน
คนคงไม่ดู
ทุกวันนี้AI แบบ Insane Handicap ไปเท่าไหร่ เงินเยอะกว่าคนสองเท่าทำได้ทุกอย่าง ยังเอาชนะ Proไม่ได้เลยครับ
ต้องยอมรับว่าส่วนตัวแค่ได้เพียงสัมผัส SC2 ไม่ถึงขึ้นเจาะลึกขนาดที่ท่านกล่าวไว้
โดยทฤษฏีที่เรากล่าวคือ AlphaGo ได้ศึกษาบักทึกเกมระดับ Pro สัก 30 ล้านเกม เหมือนเช่น เธอได้ศึกษาบันทึกหมากล้อมถึง 30 ล้านกระดาน จึงทำให้เราเชื่อว่าการบริหารทรัพยากรในระดับเสี้ยววินาที ทำให้มีผลต่อการแพ้ หรือชนะได้
เพราะวันนี้เราพูดถึง AlphaGo ที่สามารถเรียนรู้ได้ด้วยตนเองและสามารถพัฒนาความสามารถได้รวดเร็ว เธออาจไม่ชนะในเกมแรกๆ เมื่อถึงเวลาหนึ่งที่ทีมพัฒนาเห็นว่าเธอพร้อมแล้ว เช่นการแข่งหมากล้อมก็มีการให้แข่งกับสูงสุดของ 9 ดั้ง ในทางเดียวกันทีมพัฒนาเห็นว่าเธอพร้อมแล้วใน SC2 ทีมพัฒนาก็คงจะผลักดันให้เธอไปแข่งกับ Pro ระดับต้นๆ ของโลกต่อไป
โกะคือตัวอย่างเกมส์ที่ AI ไม่สามารถเอาชนะคนได้ด้วยวิธีแบบ Brute Force (อนาคตอาจไม่ใช่) เนื่องจากความซับซ้อนของโกะมันมหาศาลมาก ดังนั้นจึงต้องอาศัยวิธีการเรียนรู้อย่างที่คุณว่าไว้ จะเห็นได้จากข่าววันนี้ AlphaGo แพ้ Lee Sedol จากที่ชนะมา 3 ตารวด นั่นเพราะว่าวิธีการคิดของ AI มันไม่ใช่การค้นหาวิธีการชนะแบบทุกทางที่เป็นไปได้ (Brute Force) มันเลยยังมีโอกาสแพ้อยู่ คือไม่ใช่ว่าจะชนะ 100% เหมือนอย่างหมากรุกที่ปัจจุบันคนไม่สามารถเล่นชนะ AI ได้ (อันนี้ 100%)
ใน SC2 ความหลากหลายมีมากกว่าโกะมหาศาล แค่ตัวแปรเวลา นี่ก็ทำให้ความหลากหลายเยอะจนประมาณการไม่ได้ละ
นั่นหมายความว่า อย่างเก่งที่สุดก็คือ AI สู้ได้เท่าคนที่เก่งที่สุด
กลับมามองในมุมมองของคน คนพัฒนาตัวเองจากหลายอย่าง มันไม่ใช่แค่การเลียนแบบคนที่เก่งที่สุด ความซับซ้อนของการเรียนรู้คนมันมากกว่าโมเดล Neural Network ที่เราพัฒนาหลายเท่าตัว จุดนี้แหละที่คนยังต้องวิจัยให้ศาสตร์ด้าน AI พัฒนาขึ้น
สรุปคือการเก็บแร่ให้ Optimum ไม่ใช่วิถีในการเป็นเลิศใน SC2 มันยังมีหลายปัจจัยที่ตอนนี้เรายังไม่เข้าใจ ซึ่งมันยังทำให้ AI ยังไม่สามารถชนะคนได้ 100% อย่างแน่นอน
อย่างไรก็ดี SC2 คือเกมส์ที่มีวิธีการเล่นตายตัว ผมคิดว่าช่วงปีสองปีนี้ AI จะยังไม่ชนะคน แต่ถ้าในอีก 10 ปีนี่ก็ไม่แน่
ผมเข้าใจความหลากหลายของเกม SC2 แต่มีคำถามข้อเดียว ตอนนี้มีโปร SC2 ที่เทียบได้กับ โปรโกะ 9 ดั้ง หรือยังครับ
ถ้า 9 ดั้ง โปร คือระดับของคนที่เก่งที่สุดในโกะ
คนเก่งระดับสูงของ SC2 ก็ต้องมีอยู่แล้วครับ :)
ส่วนหนึ่งที่แพ้วันนี้อาจเป็นเพราะ AlphaGo ถูกแช่แข็งให้คงความสามารถเท่ากับก่อนวันแข่งวันแรกไว้ ไม่ได้ศึกษาหมากของกระดานที่ชนะมา 3 กระดาน ส่วน Lee Sedol เองได้ศึกษาจุดอ่อนของ AlphaGo จาก 3 วันที่ผ่านมาโดยเอาชัยด้วยรูปแแบบหมากขั้นบันได (ใน SC2 อาจเจอเหตุการณ์เดียวกันคือ AlphaGo แพ้เพราะไม่ได้ปิดจุดอ่อนตัวเอง)
ส่วนวิธีการคิดของ AlphaGo คือ "AlphaGo จะเลือกวางหมากที่มีเปอร์เซ็นต์ชนะสูง มากกว่าเลือกวางหมากที่ได้คะแนนสูง และ AlphaGo แพ้ได้" (จากคำพูดของผู้พัฒนาเข้ามาอธิบายในกระดาน 2 ช่วงต้นเกม)
DeepMind มีเป้าหมายคือ "พัฒนาขึ้นเพื่อให้สามารถเรียนรู้และแก้ปัญหาทางวิทยาศตร์ที่ศักยภาพของมนุษย์ยังไม่สามารถทำได้ การผลิตองค์ความรู้ใหม่ ทฤษฎีใหม่ทางๆวิทยาศตร์ หรือแม้กระทั่งไขปริศนาความลับความซับซ้อนของจักรวาล"
ที่มา: Youtube
ดังนั้น DeepMind เองคงไม่หวังแค่ให้ AlphaGo "สู้ได้เท่าคนที่เก่งที่สุด" เป็นแน่ แต่ต้องเก่งกว่าคนที่เก่งที่สุด นั่นคือเป้าหมายของ DeepMind จะพยายามพัฒนา AlphaGo ให้ไปให้ถึงจุดๆ นั้น
สุดท้าย 10 ปีเป็นเวลาที่ค่อนข้างมากยังไง AI ก็ไม่จำเป็นต้องพักผ่อน และไม่มีการเมื่อยล้า สามารถเรียนรู้ได้ทั้งวันทั้งคืนการศึกษาจากบันทึกการแข่ง SC2 สัก 30 ล้านเกม จนพัฒนาตนเองให้สู่การแข่งได้ไม่น่าจะถึง 10 ปี เพราะไม่จำเป็นต้องชนะ 100% เหมือนการแข่งหมากล้อมที่ AlphaGo ก็ไม่ได้ชนะ 100% (Lee Sedol ไม่ใช่มนุษย์คนแรกที่ชนะ AlphaGo ได้)
ประเด็นแช่แข็ง ลองอ่านคอมเม้นนี้ครับ https://www.blognone.com/node/79034#cid-893376
ประเด็นป้าหมายของ DeepMind นี่ผมเข้าใจครับ ผมจึงบอกว่าในอีก 10 ปีนี่ไม่แน่ ที่ว่าไม่แน่นี่ไม่ได้หมายถึงจะปล่อยให้ AI มัน Reinforcement Learning จนมันเก่งโดยใช้เวลา 10 ปีอย่างที่คุณว่านะครับ แต่จะเป็นนักวิจัยพัฒนาโมเดลการเรียนรู้ให้สูงขึ้น จนถึงขั้นที่สามารถเอาชนะได้ครับ
ที่ต่างกับโกะแน่ๆคือ AI มันไม่รู้ว่าเราสร้างฐานแบบไหน กองทัพแบบไหน ซึ่งมันมีรูปแบบชนะทาง-แพ้ทางอยู่ มันจะท้าทายตอนการปรับรูปแบบกองกำลังเนี่ยแหละ
มันน่าจะต้องใช้ ตาเล่น ผ่านการมองจอ อาจจะช่วยได้
ปัจจุบัน Blizzard เปิด API ให้โปรแกรมฃายนอกเฉพาะ StarCraft ภาคแรกเท่านั้นครับ เพราะป้องกันเอาไปพัฒนาเป็น bot เล่นแทน ซึ่งในเกมภาคสองมีส่วนจัดเก็บประวัติเอาไปทำ Ranking ซึ่งถือว่าเป็นพฤติกรรมที่เอาเปรียบผู้เล่นคนอื่นๆ
เท่าที่ทราบ AI สำหรับเกม SC เองปัจจุบันเอาชนะมืออาชีพยังไม่ได้ครับ
มีค่า handicap ด้วยมั้ยครับ
ถ้าเล่นแบบใช้ API หรือแฮกเพื่อเอาข้อมูลมา ยังไงก็โกงชัดๆ และคิดว่า DeepMind ไม่น่าจะทำแบบนั้นด้วยเพราะจะไม่ได้แสดงศักยภาพของ AI ที่เทียบเคียงกับมนุษย์ได้ครับ
AI SC เล่นไม่ค่อยเก่งครับ ไม่สิ ต้องบอกว่าผู้เล่นเจ้าเหล่กว่าเยอะ
AI มักจะชนตรงๆออก Unit แพ้ทางออกมาสู้
แต่ผู้เล่นมักจะซุ่ม และเล่นตัวเก็บแร่ก่อนเลย บางทีมาแบบไม่หวังทำลาย
แต่เน้นก่อกวนให้เก็บแร่ไม่ได้ = ="
มีการซ่อนฐานไว้ตามมุม map เอาเป็นว่า อยากเห็น AlphaGo เล่น VS เกรียน SC จริงๆ
อยากรู้ว่าจะรับมือเกรียนไหวไหม :P
Deepmind = Cyberdine
AlphaGo = SkyNet
Confirmed
ผมมองว่าจะแข่งจริงจะต้องต่อสาย USB จากตัว AkphaGo ไปเข้าเครื่องคอมพิวเตอร์ที่เปิดเกมนี้ โดยทำงานเลียนแบบเมาส์กับคีย์บอร์ดครับ ถึงจะดูยุติธรรม
I need healing.
อันนี้เห็นด้วยอย่างแรงครับผมครับ ถ้าเครื่องกดเมาส์ได้ทีละ 100 ครั้งในวินาทีเดียว กดคีย์บอร์ดได้ 100 คีย์ ในวินาทีเดียว ผมว่าเกรียน SC ถ้าจะรอดยากครับผม... แต่ถ้าทำเลียนแบบคนกดเมาส์กับคีย์บอร์ดล่ะก็ พอฟัดพอเหวี่ยงนะ ผมว่านะ...
ส่งสัญญาณผ่าน USB ก็ยังเร็วกว่ากดคีย์บอร์ด, เลื่อนเมาส์จริงๆ
น่าจะต้องทำเป็นหุ่นที่มี 2 มือ บังคับคีย์บอร์ดและเมาส์ของจริงเลยครับ
ส่วน input ก็ใช้กล้องถ่ายภาพหน้าจอเอา
จุดประสงค์คือประมวลผลแข่งกันมากกว่าหรือเปล่าครับผม ไม่ได้ทำระบบ Automatic
oxygen2.me, panithi's blog
Device: ThinkPad T480s, iPad Pro, iPhone 11 Pro Max, Pixel 6
ส่วนตัวผมไม่ซีเรียสนะ แล้วผมก็คิดว่า Pro Player ก็ไม่ซีเรียสด้วย
คือต่อให้บอทใช้ API ส่งข้อมูลตรงๆเลย เอาชนะ Pro Player ให้ได้เถอะ
SC2 นี่น่าจะชนะมนุษย์ง่ายนะ แต่อาจจะต้องใช้เวลา learning นานกว่า
ลองคิดดูว่าทุกๆ unit เต็ม pop cap เกือบ 100 ตัวโดน micro โดย cpu ระดับ server ควบคุมแยกกัน เวลาโจมตีหรือเปิด FOG ก็กะระยะได้แม่นในระดับ pixel
คนทำได้อย่างเก่งก็ micro unit ได้พร้อมกัน 2-3 ตัวเท่านั้นเอง
ผมเคยดูแข่ง Pro Player บางคนตอนบวกกันควบคุมเกมส์ได้ 700 คำสั่งต่อวิครับ ตอนแข่งจะมีตัวเลขให้ดูด้วย ถ้ากล้องซูมไปที่เมาส์กับคีบอร์ดนี่ต้องอ้าปากค้างเลยครับ ดังนั้นการควบคุมยูนิต 10 ตัวไปเดินล้อมยูนิตตัวเดียวนี่ทำได้ง่ายยิ่งกว่าปั่นจักรยาน แต่ต้องย้ำกว่านี่คือ Pro Player นะครับ
โดยส่วนตัวผมคิดว่า AI จะยังไม่ชนะคนใน 3-4 ปีนี้ครับ
lewcpe.com, @wasonliw
ถ้าคอมพิวเตอร์มี สัญชาตญาณ เมื่อไหร่ SKYNET คงอยู่อีกไม่ไกล
พอสำเร็จทั้ง 3 ก็จับมารวมกันกลายเป็น Transcendence ไปเลย (จะบอก Skynet ก็หาว่าเบื่อกัน)
อยากให้มี DOTA 2 ด้วย คงสนุกน่าดู
สนามสอบสุดท้ายของ strong AI + state of art hardware ผมอยากให้เป็น game of humanity ครับ นั่นคือฟุตบอลนั่นเอง
ทุกวันนี้ คอมฮาร์ดผมก็โดนหลายลูกอยู่น่ะ ถึงจะตีคืนได้บ้างก็เถอะ
แต่ถ้าจะเอาไปประยุกต์ใช้กับหุ่นยนต์นักฟุตบอลจริงๆมันจะยากกว่าในเกมมากไงครับ
การที่จะเล่น SC2 ให้เก่งได้ ผมว่ามันขึ้นกับหลายอย่างนะ อย่างน้อย ต้องเก่ง คือ
ความสามารถด้านความจำ ต้องจำรายละเอียดของ unit ให้ได้ให้หมด อันนี้ คนกับเครื่อง ผมว่าสูสี
ความสามารถด้าน physical ต้องไว ควบคุม unit ทุกอย่างได้เหมือนอย่างที่ใจต้องการ อันนี้ เครื่องค่อนข้างเป็นต่อเล็กน้อย ถึงปานกลาง เพราะว่าไม่เมื่อย คนมันเมื่อยได้ บางทีก็หลง ๆ ลืม ๆ ว่าจะทำ แล้วก็ทำไม่ได้ทำ เพราะลืม หรือทำไปแล้ว ดันไปทำอีก เป็นต้น
อันนี้สำคัญ ต้องมีกลยุทธ์ อันนี้แหละ จะวัดกันตรงนี้ ว่า คนกับเครื่องอะไรกลยุทธ์มันดีกว่ากัน เกมส์ SC2 แพ้ชนะกันได้เยอะแยะวิธีครับ และที่สำคัญ แต่ละคนมันก็คิดต่างกันไป ผมว่า เครื่องเล่นคนยากครับ คนมันเจ้าเล่กว่าเห็นๆ เพราะคนก็รู้ว่ามนุษย์ถูกเรียนรู้โดยคอมพิวเตอร์เหมือนกัน ใครมันจะยอมอยู่ในกรอบเดิม ๆ กันล่ะครับ ต้องหาเรื่องแหวกแนว เปลี่ยนทางกันไปแหละ
ส่วนคิดนอกกรอบ ของผมขออนุญาตให้ความเห็นดังนี้
AlfaGo มี CPU หลายคอร์ เราให้หลายคนแข่งกับ AlfaGo อันเดียวได้ป่าวครับ เช่น ทีมมนุษย์มี 5 คน คอยช่วยกันดู ช่วยกันคิด ช่วยกันจำ ช่วยกันวางแผนและกดเมาส์กับคีย์บอร์ได้ 2 คนพร้อมกันครับ ประมาณนี้ แบบนี้ ถือว่าโกง AlfaGo ป่าว
อีกอันคือ อนุญาตให้คนสร้าง Macro ได้ เช่น พอสร้าง unit ปุ๊บ สร้าง macro ให้มันอัพเกรดเองตลอดในทันที ไม่ต้องมากดซ้ำ ๆ เป็นต้นครับ หรือสร้าง macroให้ unit สามารถพลีชีพได้ถ้าอยู่ในแดนศัตรู หรือจัดการตัวที่พลังอ่อนสุดก่อน เป็นต้น แล้วอย่างนี้ ถือว่าเอาเปรียบ AlfaGo ป่าวนี่..
ก็นาน ๆ จะได้ออกความเห็น เพราะไม่ค่อยจะมีโอกาสมากนัก
สุดท้าย อยากเห็น AlfaGo แข่ง SC2 กับมนุษย์เหลือเกิน... เชียร์มนุษย์แน่นอน ไม่เชียร์เครื่องครับ และทิ้งท้ายที่หลาย ๆ คนว่า AI มันจะทำลายมนุษย์น่ะ ผมอยากให้ความเห็นส่วนตัวว่า ไม่ต้องห่วงนักหรอกครับเรื่องนี้ อันที่จริงถ้ามองดี ๆ จะเห็นว่า ไอ้ที่ทำลายล้างมนุษย์ได้นี่ มีแต่มนุษย์ด้วยกันเท่านั้นแหละครับ และตอนนี้ก็กำลังทำลายอยู่เรื่อย ๆ อย่างเงียบ ๆ รู้ตัวบ้าง ไม่รู้ตัวบ้าง ดูดี ๆ สิครับ ขอบคุณครับผม...
ลองทำความเข้าใจคร่าวๆเกี่ยวกับ Deepmind ก่อนนะครับ
https://www.youtube.com/watch?v=rbsqaJwpu6A
มนุษย์ไม่ได้มีแค่ core เดียวนะครับ.....
การแข่ง หมายถึง AI จะบังคับแขนกลควบคุม mouse/keyboard
และใช้กล้อง sensor เพื่อรับข้อมูลภาพ/เสียง ใช่ไหมครับ
ถ้าแบบนี้ถือว่าแฟร์
แต่ถ้าเป็นลักษณะเขียน bot รับข้อมูลจาก network หรือ memory
ถือว่าไม่แฟร์
เชื่อได้ว่าเป็นแบบไม่แฟร์ครับ แต่ถ้ามันทำได้คนจะต้องยกย่องแน่นอน เพราะมันไม่ได้ทำงานด้วยระบบแบบ bot ปกติ
https://www.youtube.com/watch?v=YZX58fDhebc
วินาทีที่ 23 ครับ แบบนี้ถึงจะเรียกว่าแฟร์?
ใช่ครับ ยังไงก็ช้ากว่ายิงคำสั่งตรง ๆ ผ่าน network หลาย ๆๆ เท่า
การรับภาพและเสียงจาก sensor ก็ต้องผ่านการประมวลผล ตีความอีก
ซึ่งช้ากว่ารับข้อมูลจาก network ว่ามีอะไรเกิดขึ้นบนหน้าจอบ้าง
เพราะการรับข้อมูลผ่าน network
ถ้า server ปล่อยข้อมูลฝ่ายตรงข้ามา
แต่หน้าจอไม่ได้แสดง (แสดงในม่านหมอก)
คนปกติมองไม่เห็น แต่ bot มองเห็น ก็เหมือนกับการโกง
จาก youtube present deepmind
เป็นเกมส์โบราณ ผู้บรรยายบอกว่า ให้ sensor ดูหน้าจอ
ไม่ได้ hack memory เพื่อดูว่า pixel ไหนมีอะไร
แต่ไม่ได้บอกว่าควบคุม keyboard ยังไง
ใช้ api ยิง keyboard event หรือใช้แขนกลกดปุ่มบน keyboard
DeepMind อาจไม่มองถึงความแฟร์ก็เป็นได้ จากคำกล่าว "เกมเป็นแค่ส่วนหนึ่งของการทดสอบอัลกอริทึมของทีมงานว่า AI สามารถพัฒนาไปได้อีกไกลแค่ไหน"
พวกเขาแค่ต้องการ "ทดสอบอัลกอริทึม" ถ้าการทดสอบต้องไปพัฒนา ขนกลควบคุม mouse/keyboard เพิ่มเติมเพื่อให้สามารถแข่งแบบแฟร์ๆได้ แบบนั้นคงผิดวัตถุประสงค์หลักที่ต้องการ ทดสอบอัลกอริทึม นั่นเอง
เชื่อว่าผู้ที่จะลงแข่งในอนาคตอาจเข้าใจข้อจำกัดตรงนี้ และถือว่าเขานั้นเป็นผู้เสียสละผู้ยิ่งใหญ่ เทียบเท่า Lee Sedol ที่ยอมแข่งกับ AI เพื่อพัฒนา AI โดยที่ตนเองอาจเสียเปรียบในการควบคุม
แต่ถ้าเป็นแบบท่านกล่าวมีการพัฒนาแขนกล แบบนั้นจะกลายเป็น Boston Dynamics + Deepmind มีร่ายการมีสมอง เหลือแต่แหล่งพลังงานเท่านั้น อีก 13 ปี จะถึง 2029 ช่วยพัฒนาแบตเตอรี่เซลส์ปฏิกรณ์ไฮโดรเจนสำเร็จสักทีเถอะ(ฝันไกล)
ตอนดูภาค1 นึกว่า ค.ศ. นั่นมันอนาคตมากๆ
แค่ลากพอตย์เตอร์ได้แม่นแป๊ะไม่คาดสักพิกเซลคนก็แพ้แล้วครับ ความคาดเคลื่อนต่อการตอบสนองเป็นศูนย์ ไอกลยุทธ์ยากก็จริงแต่สมัยนี้ระบบจำลองกลยุทธ์ในการรบแทบจะมีใช้ทั้งโลก ทำไมจำเอามาทำเกมสักเกมจะทำไม่ได้
แต่ยังไง AlphaGo ไม่มีทางเป็นชนะ Hearthstone ได้แบบ 100 เปอร์เซนต์ RNG มันแรง
ถ้า AI ชนะนี่ เปลี่ยนชื่อเป็น Alphaขงเบ้ง แล้วเตรียมไปคุมทหารตอนทำสงครามได้เลย
มาถึงเกมแรก เจอ SCV ruch รับน้องแน่ๆ
Shut up and ヽ༼ຈل͜ຈ༽ノ raise your dongers ヽ༼ຈل͜ຈ༽ノ
ผมว่าก่อนมาแข่งกับมนุษย์ มันคงฝึกเจอ SCV rush มาแล้ว 100,000 เกมส์ แน่ๆ
มีแต่คนพูดถึง Skynet แฮะ ผมว่า Deepmind ทำงานคล้ายๆกับ Eagleeye มากกว่า
go มันคำนวนตาหมากได้ฮะ
แต่เกมแบบนี้คนจะใช้ไม้ไหนมันจะเอาอะไรไปคำนวน
Starcraft จะเล่นเก่งได้มีสองปัจจัย
APM (Action per minute) คือความไวในการกดอะแหละ ยิ่งคุณป้อนคำสั่งในเกมส์ได้ไวเท่าไร คุณยิ่งได้เปรียบคู่แข่ง ปัจจุบัน AI ของ Blizzard มีค่า APM เหนือมนุษย์อยู่แล้ว เพราะงั้นปัจจัยข้อนี้ ยังไงคนก็แพ้ ในรายละเอียดปลีกย่อย ตัวนี้จะส่งผลต่อการ macro ของผู้เล่น อารมณ์เหมือนเราบังคับยูนิทหลายตัวพร้อมกันได้ ให้กระจาย กดสกิลไรแบบนี้ ซึ่งจุดนี้คอมพิวเตอร์เลียนแบบมนุษย์ไม่ได้เนื่องจากไม่มีจินตนาการพอ ยังไงตัวนี้ต้องมีมนุษย์มาป้อน pattern สอนบ้าง เนื่องจากผมไม่เชื่อว่าคอมจะรู้จัก harass หรือ macro ยูนิทได้เทียบเท่ากับมนุษย์ควบคุมยกเว้นจะสอนให้มันลอกเลียนแบบคนที่ชนะมัน
การอ่านเกมส์ คนที่เล่น Starcraft เก่งจะพึ่งแต่ค่า APM สูงๆเพียงอย่างเดียวไม่ได้ ไม่งั้นคอมพิวเตอร์คงชนะคนตลอดไป แต่ต้องรู้จักสเก้าท์ หรือไปสอดแนมดูว่าคู่แข่งกำลังสร้างอะไร มาแนวใหน และจะรับมือยังไง สร้างยูนิทแก้ทางยังไง ซึ่งสำคัญกว่าข้อ 1 มาก ถ้ายูนิทชนะทางอยู่แล้ว หรือมีการผสมผสานยูนิทได้ดีกว่าโอกาศชนะในการปะทะก็สูง Starcraft มันคำนวนความน่าจะเป็นของแนวการเล่นคู่ต่อสู้ได้จากสิ่งก่อสร้างที่เห็น จำนวนยูนิทที่สร้าง ลำดับการสร้าง (ซึ่งตรงนี้ผมเชื่อว่าคนสามารถหลอก AI ได้ง่ายๆ เพราะคอมพิวเตอร์ไม่รู้จักสัญชาติญาณ คำนวนด้วยคณิตศาสตร์เพียวๆ) และในการปะทะกันจริงๆ การบังคับยูนิทก็มีผลมาก มันต้องตอบโต้แบบ real time กับสิ่งที่คู่ต่อสู้ทำ เพราะงั้นมันจะเป็นอีกระดับนึงของ AI เลยทีเดียว
ผมคิดว่า CEO Deepmind เลือกได้ถูกต้องมากๆ ที่ใช้เกมส์นี้เป็นก้าวต่อไปในการทำ Deep Learning
AlphaGo ตอนแข่ง sc นี่
มันต้องมีแขนกล เพื่อขยับ mouse เพื่อกด keyboard
มีกล้องคอย capture หน้าจอ แล้วไปประมวลผล เองด้วยนา
มันจะได้ยุติธรรม
เค้าไม่ได้แข่งทำแขนกล หรือแข่งทำ Computer Vision นะครับ :p
แต่เห็นด้วยครับว่าต้องจำกัดอะไรบ้าง อย่างส่งข้อมูลให้แค่เท่าบนหน้าจอผู้เล่นปกติ (ต้องเลื่อนจอมอง) และต้องสั่งเมาส์ลากเอาเอง
เนอะ
มันต้องมีอะไรมาจำกัด บ้าง
ทักษะ เกม มันไม่ได้มีแต่วางแผน อย่างเดียวนา
ความแม่นยำในการกด ก็มีผล สุด ๆ
ตัวAlphaGo สามารถเข้าใจกฏและวิธีการเล่นผ่านscreen capture ได้อยู่แล้วครับไม่ต้องถึงขนาดแฮกเมมโมรี่หรือเอากล้องมาถ่ายจอแค่ต่อ DVI อีกเส้นแบบ dupplicate เพื่อเป็น Input ให้มันอะไรประมาณนี้เป็นพอ
การควบคุมถ้าให้เท่าเทียมมนุษย์ก็ต้องเห็นแค่ใน resplution(เช่น1920*1080เหมือนกัน) เดียวกับมนุษย์กดสั่งได้แบบเดียวกันไม่ใช่ 4k 8k 16k
เรื่อง macro หรือ APM คงไม่มีปัญหาไม่สำคัญเท่าไรหรอก
ปล.งานนี้คงไม่ต้องให้คนมาคอยรับคำสั่งแล้วเล่นตามแบบตอนแข่งโกะนะเฟ้ยไม่ทันกินแน่ๆ
The Last Wizard Of Century.