คนแถวนี้คงคุ้นกับข่าวการแข่งขันหมากรุกระหว่างคอมพิวเตอร์ Deep Blue ของ IBM กับแชมป์โลก Garry Kasparov ในปี 1997 ซึ่งจบลงด้วยชัยชนะของ Deep Blue
ข้ามเวลามาอีกสิบกว่าปี IBM กำลังจะแข่งในลักษณะเดียวกัน โดยส่งซูเปอร์คอมพิวเตอร์ Watson (ตั้งชื่อตามผู้ก่อตั้งบริษัท Thomas J. Watson) แข่งเกมโชว์ตอบคำถามความรู้รอบตัว Jeopardy! กับแชมป์ตลอดกาลของรายการนี้ 2 คน
การแข่งขันจะมีขึ้น 14-16 กุมภาพันธ์นี้ แต่ในรอบทดสอบที่จัดเพื่อให้แชมป์ลองแข่งกับ Watson ปรากฎว่า Watson สามารถเอาชนะแชมป์ทั้งสองคนไปได้ (รายการนี้คิดคะแนนตามเงินรางวัล Watson ได้ 4,400 ดอลลาร์ เฉือนแชมป์ Ken Jennings ที่ได้ 4,300 ดอลลาร์ ส่วนแชมป์อีกคนได้แค่ 1,200 ดอลลาร์)
Watson เป็นคอมพิวเตอร์ขนาด 10 racks ใช้ซีพียู POWER7 จำนวน 2,880 คอร์ มีเนื้อที่เก็บข้อมูล 15TB สำหรับเก็บข้อมูลที่เขียนด้วยภาษาธรรมชาติ 200 ล้านหน้า และไม่เชื่อมต่อกับแหล่งข้อมูลภายนอก
การทำงานของ Watson จะประมวลผลคำถามจากเสียงพูดของพิธีกร แล้วค้นข้อมูลในหน่วยความจำของตัวเอง และตอบคำถามออกมาเป็นเสียงพูด ทั้งหมดเกิดขึ้นภายใน 3 วินาที
ที่มา - The Register
วิดีโอโฆษณา Watson
เทปการแข่งของ Watson กับผู้เข้าแข่งขันคนอื่นๆ ของรายการ Jeopardy!
Comments
ประเด็นมันอยู่ตรงการวิเคราะห์คำพูดพิธีกร มากกว่าการหาคำตอบนะครับเนี่ย ผมว่า
การหาคำตอบของ Watson จะเป็นการประมวลผลจาก unstructured data เหมือนกันครับ (เหมือนโหลด นสพ. ย้อนหลัง 20 ปีไปเก็บเอาไว้)
ลองดูวิดีโอ Building Watson - A Brief Overview of the DeepQA Project
โอ้ กำลังจะเข้ามาแนะนำให้ดูคลิปนี้พอดีเลยครับ ผมดูไม่ค่อยรู้เรื่องนะ แต่ดูจบก็ได้ไอเดียว่า การหาคำตอบนี่มันไม่ใช่เรื่องง่ายเลยจริงๆ
คิดว่าไม่น่าจะประมวลผลจาก unstructured data นะ data น่าจะจัดเกบอยู่ในรูปแบบของ KR ซักรูปแบบนึง source นี่ unstructure .. แต่ที่ store คง extract ละ
คุ้นๆ ว่าเคยเหนสไลด์ที่มีภาพคล้ายๆ EAV model อยู่ แต่ภาพแบบนี้ก้อ generic เกิน ไงมีเวลาจะคุ้ยๆ อีกที จำไม่ได้ละว่าดูจากไหน (เปิดใน incognito อีก ซวย)
หรือใครมีข้อมูลละเอียดเรื่อง KR ก้อวานชี้แนะทีหนอ อยากรุเหมือนกันว่า KR ของ watson มันเกบไว้ยังไง
ปล. ยังไม่ได้ดู video .. ถ้าพูดไว้ช่วงไหน ช่วยบอกเวลาที จุดที่ยันว่าประมวลผลจาก unstructured data ก้อได้ หรือถ้ามีจุดที่เค้าแจงเรื่อง KR ของ watson ด้วยยิ่งดี
มีอยู่ช่วงหนึงในคลิป (ประมาณนาทีที่ 7) บอกว่าแปลงเป็น semantic graph ครับ แล้วก็มี learning algorithm แต่ไม่ได้ยินพูดถึงรายละเอียด
ขอบคุณมากมายค้าบ.. อย่างไรหากมีข้อมูลอะไรเพิ่มเติม รบกวนช่วยๆ กันแชร์ทีน้า
มึนกับ KR สุดๆ มีหลาย model มาก.. ไม่รุจะใช้ RDF เปน main หรือแค่ staging ดี
ถ้ามองว่ามี wolfram alpha มาพักใหญ่ๆ แล้ว
ก้อเหนด้วยแหะ แถมต้นฉบับเองก้อเน้นเช่นกัน
ว่าที่แปลกใหม่จิงๆ คือการวิเคราะห์คำพูดพิธีกร
ต้องแยกความกำกวมของพิธีกร ไร joke ไรจิง
ใครที่จำ bicentennial man ได้ คงพอนึกออก
เสด speech recog ปุ้บ .. ก้อต้อง extract ปั้บ
เผลอๆ ต้อง recog voice อีก ห้องส่งมิได้เงียบ
จบวิเคราะห์คำพูดพิธีกรก้อ wolfram alpha ละ
เพราะฐานข้อมูลที่เกบๆ ไว้ เกบเปน KR ไว้แล้ว
ระบบ A.I. ไปไกลดีแล้วนะครับเนี่ย >//<
ภาษาธรรมชาติมีใช้กันแล้วเหรอเนี่ย
I need healing.
ภาษาไทย ภาษาอังกฤษ ไงครับ
May the Force Close be with you. || @nuttyi
ม่ายยยยย
คอมฯ แรง
แถมรูปลักษณ์ภายนอกสวยงามมาก
เจ๋งเลยครับ
ถ้าเทียบขนาดกับความเร็ว สมองคนเรายังน่าทึ่งอยู่ดี...
เห็นด้วยครับ
ใช่ครับ สมองคนเราน่าทึ่ง น่าทึ่งจนเป็นปริศนาให้ค้นคว้าได้เรื่อยๆ
ผมว่าเราเข้าใจสถาปัตยกรรมของระบบคอมพิวเตอร์ได้มากกว่าสมองคนเรา และเราก็เข้าใจความสามารถแท้จริงของคอมว่ามันมีขีดสูงสุดถึงไหน เราเลยดึงความสามารถของคอมพิวเตอร์ได้จนถึงที่สุด(เท่าที่คอมทำได้) ... สมองคนเราแม้เห็นเป็นรูปธรรม แต่ก็ผสมกับนามธรรมบางอย่าง (เช่น อารมณ์ รัก โลภ อคติ มิจฉาทิฐิ) บวกกับข้อจำกัดบางอย่าง (เช่น ความขี้เกียจ ความเหนื่อยล้า โรค) ก็เลยเป็นผลพลอยให้เราควบคุมมันยากและไม่เต็มที่อยู่ครับ
My Blog
เห็นด้วยครับ ทำงานแค่ไม่กี่ Hz แต่ตอบสนองต่อความรู้สึกได้เร็วกว่าคอมอีก
refer จากที่ @javaboom ตอบไว้ข้างล่างว่ายังใช้ die แบบเก่า
อีก 5 ปี .. แค่ใช้ tile processor กับ die ใหม่ + storage ใหม่ๆ ปริมาตรน่าจะลดได้อย่างน้อย 100 เท่า แถมได้ความเรวเพิ่มอีก
ถ้าพ่วง microarchitecture กับ algo ใหม่อย่าง parallel เข้าไป เผลอๆ จะลดปริมาตรได้ 1000 เท่า .. และเมื่อยิ่งเลก ก้อยิ่งเรว
แล้วอีก 10 ปี .. 3D circuit น่าจะเปนรูปเปนร่างพอหยิบมาใช้ได้ ลดปริมาตรได้อีก 10-100 เท่า.. คูณเรตเดิม รวมๆ ก้อ 10 ล้าน
ยุบมันลง notebook ได้สบายๆ .. เผลอๆ ลง handheld ได้เลย คิดคร่าวๆ ให้เหนถึงศักยภาพเทคโนโลยี หวังกระตุ้นไรนิหน่อย
แต่ไงยังห่างคนแยะ.. แม้ watson เลือก optimal answer ได้ ก้อยังขาดวิจารณญาณเลือก src .. garbage in/garbage out ไม่นับว่าสมองคนมี function อื่นอีกมาก แต่ใช้พลังงานน้อยก่า
ปล1 ช่วงแรกๆ ที่อ่านเรื่อง watson .. แอบสงสัยต่อเรื่อง 3D vision ว่าคอมทำได้เท่าคนรึยัง หรือใครมีตัวเลขบ้าง ว่าต้องใช้กี่ flop
ปล2 เหน reply ข้างล่างแล้วสงสัย.. ว่าสมองคนทำงานเปน Hz หรอ
ลง Laptop, Handheld ก็อย่าลืมแบตนะครับ
งืม นั่นดิ.. รุสึก batt นี่พัฒนาช้าเหลือเกิน
แต่อีกตั้ง 10 ปี.. หวังว่าจะพัฒนาขึ้นแล้ว
ตลาด mobile โตงี้ น่าจะจิงจังกันแล้นล่ะ
เรื่อง nano ที่ก้าวไปมาก คงช่วยได้เยอะ
ทั้งเรื่องความหนาแน่นประจุหรือ fuelcell
รวมถึง eff การอัด/คายประจุที่ภาวะต่างๆ
wireless charger ก้อเปนตัวเปนตนแล้ว
จะมีคน port android ไปลงไหม ;P
^
^
that's just my two cents.
จาวาเร็วซ์ .... แซวครับแซว ;)
ไม่รู้ว่าส่วนโปรแกรมที่เป็น core inference engine เป็น platform ไหนกันแน่ แต่ คลิปแรก ที่ 3:13
มีการเขียนโปรแกรม java ด้วย eclipse. ( แน่นอนมันอาจจะเป็นแค่ plugin ระดับบน )
ผมกำลังคิดว่าเราจะทันได้เห็น HAL ก่อนเราตาย ? คนอื่นคิดว่าเป็นยังไงบ้างครับ?
ปรากฎว่า Watson แพ้ในการแข่งจริง เพราะเขียนโปรแกรมตอบคำถามด้วย applet
กร๊ากกก
แฟนพันธุ์แท้สตีฟจ็อบส์ | MacThai.com
ได้คำตอบแต่ หน้าจอ freeze แสดงผลไม่ทันเค้า 555
ซีพียูประสิทธิภาพสูงจากค่ายนี้ทำไมแอปเปิ้ลถึงเลิกใช้ ถ้าตัดเรื่องการผลิตไม่ทันออกไป จำได้ว่าแรกๆ ก็แอนตี้กันน่าดูถึงความเสถียรภาพ
จำนวน 2,880 คอร์ เชียวนะเนี่ย
ในฝั่ง IBM Power7 ยังใช้ die shrink แบบ 45 นาโน ฝั่ง Intel Sandy Bridge เป็น 32 นาโน ต่อไป Invy Bridge จะใช้ 22 นาโน ซึ่งมันมีผลต่อการลดต้นทุน ทำให้ราคาชิปต่ำกว่า ผลิตได้มากกว่า(ต่อเวเฟอร์หนึ่งชุด) และก็ยังประหยัดไฟในขณะที่ได้ความเร็วเพิ่มขึ้น มองอีกแง่คือ Intel เขาใช้แผน Tick Tock ในการผลิตชิป ดังนั้น ความก้าวหน้าในการส่งผลิตภัณฑ์ใหม่ๆป้อนตลาด มันไปได้เร็วกว่าด้วย
เรื่องประสิทธิภาพนั่นคือส่วนหนึ่งครับ แต่โปรเซสเซอร์ X86/X64 ก็ไม่ได้ยิ่งหย่อนกว่าเมื่อใช้กับแอพพลิเคชันทั่วไป และความต้องการในท้องตลาดแล้ว X86/X64 ป้อนตลาดได้ทัน(โรงงานเยอะกว่า)และต้นทุนต่ำกว่า(ผลิตมากกว่าในแง่ economies of scale และ die shrink) ความง่ายในการพอร์ตหรือพัฒนาซอฟต์แวร์ลง X86/X64 ก็กว้างกว่าเยอะครับ (เช่น Mac ก็รัน Windows ได้โดยไม่พึ่ง VM)
My Blog
นั่นเรื่องหนึ่ง แต่ที่ผมได้ยินมาอีกอย่างก็คือ เรื่องการใช้พลังงานและความร้อนมั้งนะ
IBM ชนะในตลาดซูเปอร์คอมประหยัดไฟครับ โดยเฉพาะตระกูล BlueGene P อย่างไรก็ดี การใช้ die shrink ก็มีส่วนในเรื่องนี้เช่นกัน ผมเขียนใน reply แล้วด้านบนนิดหน่อย
เราจะสังเกตได้ว่าโปรเซสเซอร์ clock สูงย่อมกินไฟเพิ่มขึ้นและเกิดความร้อนมากเป็นธรรมดา เราเลยเห็นโปรเซสเซอร์ตระกูล X86/64 ที่ยังรันต่ำกว่า 4 GHz แต่เน้นเพิ่มจำนวนคอร์ด้วย clock ที่ไม่สูงมากแต่สามารถได้ throughput เพิ่มขึ้น (หรือจำนวนผลลัพธ์ที่เสร็จมากขึ้น) และหากใช้การเขียนโปรแกรมแบบขนานที่มีประสิทธิภาพเข้าช่วยก็สามารถเพิ่มความเร็วในการประมวลผลได้ ส่วนการใช้ die ที่เล็กลง ก็สามารถลดปัญหา current leakage อันส่งผลให้ประหยัดไฟได้ในขณะที่ยังรักษาความถี่ clock ความเร็วสูงได้อย่างสม่ำเสมอ
My Blog
ขอแอบนอกเรื่องนิดนึง.. ไม่แน่ใจว่าคุณ @javaboom พอจะช่วยหาให้ได้มั้ย
อยากได้ผัง power supply ใน supcom อ่ะ (รึว่ามันเหมือนใน rack ปกติ ?)
เจอแต่ของที่เปน cluster-based (แต่ก้อสารภาพว่ายังไม่ได้คุ้ยจิงจังเท่าไร)
สวัสดีครับคุณ tontpong คือ ผมไม่มีผัง power supply แสดงให้ดูน่ะครับ อธิบายให้ฟังคร่าวๆได้ ถ้าหาภาพชัดเจนได้จะส่งไปให้ดูนะครับ
ปัจจุบันนี้ ซูเปอร์คอมพิวเตอร์มันเป็นคลัสเตอร์หรือ cluster-based อย่างที่คุณกล่าวถึง ซึ่งเป็นกลุ่มของเซิร์ฟเวอร์น่ะครับ และก็เป็นเซิร์ฟเวอร์ที่ใช้กันในองค์กรทั่วๆไปนี่แหละ ดังนั้น power supply ก็เป็นอย่างเดียวกันที่เราใช้กันในเซิร์ฟเวอร์ทั่วไป เช่น เป็นแบบ rack server ไม่ก็ blade
ถ้าซูเปอร์คอมที่เป็น SMP + NUMA และพวกที่ใช้ vector processor ก็มีสถาปัตยกรรมแตกต่างกันและก็แล้วแต่ผู้ผลิตแต่ละเจ้าด้วย ถ้าเป็น IBM Blue Gene ผมเคยเห็นภาพสถาปัตยกรรม (น่าจะเป็น Blue Gene L ไม่ก็ P) โดย power supply คล้ายๆกับพวก blade chassis ที่ใช้กับเซิร์ฟเวอร์ที่เห็นทั่วไป แต่ของซูเปอร์คอมมันใหญ่กว่าเยอะ และน่าจะมีมากกว่า 1 หน่วยเพื่อ redundant ลักษณะของ chassis ใหญ่จนเรียกว่า cabinet ที่บรรจุบอร์ดของโปรเซสเซอร์หลายๆบอร์ด แต่ละบอร์ดก็มีการ์ดของโปรเซสเซอร์อยู่หลายใบ จากนั้นบอร์ดจะถูกจัดกลุ่มยัดลง rack (เป็น rack ไม่มีเคส) แล้วหลายๆ rack ก็ยัดลงตู้ cabinet แล้วก็แชร์ระบบ cooling และ power supply ร่วมกัน และการออกแบบของ Blue Gene (หรือแม้แต่ซูเปอร์คอมรุ่นอื่น)ที่เห็นเป็นแนวเอียงๆเหมือนคอมจะหงายหลัง (คล้ายหอเอน Pisa) จริงๆไม่ใช่เพราะมันสวย แต่เพราะเอาไว้ถ่ายเทความร้อน/ระบายอากาศ โดยส่วนเอียงหน้าไว้สำหรับอากาศเย็น ส่วนเอียงหลังสำหรับอากาศร้อนครับ
My Blog
ขอบคุณค้าบ.. ที่อยากได้ก้อพวก non-commodity cluster นี่แหละคับ
อ้อนินึง รุสึกที่ถามไว้มันกำกวม.. ที่อยากรุคือ power supply system อ่ะ
ไม่ต้องเจาะ psu .. พวก rack dpu นี่พอคุ้น แต่พอหลาย rack นี่เริ่มสงสัย
อย่างนี่ขนาด 10 rack .. คงไม่ใช่มีสายไฟต่อ 20 เส้น อาจมีซัก 2-4 เส้น
ที่อยากรุคือ ข้างในเค้ากระจายไฟไงต่อ.. ของระบบอื่นที่คล้ายๆ กันก้อได้
แถมนี่ใช้ DC ได้อีก คิดว่าไม่น่าจะต่อทั้ง AC/DC คู่กันไปทั้ง 10 rack แน่ๆ
จิงๆ ข้างในเปน 10 rack เท่ากันเป้ะมั้ยก้อไม่แน่ใจ แต่ก้อน่าจะใกล้เคียงมั้ง
คือดูๆ เรื่อง DC Data Center อยู่ คิดว่าน่าจะ apply ระบบไฟของพวกนี้ได้
เหนคุณ @javaboom พูดเรื่อง HPC บ่อย.. คิดว่าอาจมีข้อมูลเลยถามๆ นิด
ปล.
ถามเรื่อง power แต่ได้ความรู้เรื่อง cooling แถมด้วย ใจดีสุดๆ ขอบคุณคับ
IBM Power7 cpu แต่ละคอร์ มีความเร็ว 3.0 GHz ถึง 4.25 GHz
มีทั้งหมด 2,880 คอร์ O
IBM มีเทคโนโลยีล้ำโลกอยู่ในมือแต่ค้าขายไม่เก่ง
Linux เป็นสุดยอดโอเอสที่ซัพพอร์ตเป็นแสนคอร์/64 บิตมานานๆๆๆๆๆๆๆ แล้วแต่ก็ยังไม่บูม แต่พอวินโดว์เริ่มทำ 64 บิตและซัพพอร์ตแค่ไม่กี่คอร์แต่สร้างความอลังการได้มาก
ถ้ามีใครสักคนจับความสามารถนี้คู่กันแล้วทำโปรแกรมดีๆ สร้างเป็นเครื่องเฉพาะได้ละก็เจ๋ง เช่น เครื่องมือแพทย์ วงการหนัง โปรแกรมกราฟิกส์แรงๆ น่าจะขายดี แล้วก็นึกถึงหนังของสปีลเบิร์กที่โฆษณาการเรนเดอร์ด้วยคอมพิวเตอร์ AMD/Intel
ปล.แอบนึกถึง Dr.watson ในวินโดว์ตอนที่มันแฮงค์
ความจริง ระบบที่คุณกล่าวมามันก็มีอยู่แล้วนะครับ IBM เน้นลูกค้าองค์กร ไม่ได้เน้นลูกค้าทั่วไป
ลูกค้าทั่วไป ไม่เน้นของที่มีราคาสูง เครื่องส่วนบุคคลเกินหมื่นเหรียญ (เมื่อเทียบค่าเงิน)มักไปไม่รอด (จำ Lisa, NeXT ได้รึเปล่าล่ะ) ต่อให้เทพขนาดไหน ก็ไปไม่รอด
เพราะตามหลักเศรษฐศาสตร์ ใครจะไปซื้อเครื่องหมื่นเหรียญมา แต่ไม่สามารถทำเงินจากมันได้ ปล่อยไว้สาม-ห้าปีก็ตกรุ่น
เน้นขายองค์กรที่มีศักยภาพในการซื้อสูงไง ในโรงพยาบาลอุปกรณ์แต่ละชิ้นแพงมาก อุปกรณ์บางอย่างก็ไม่ได้อยู่ในรูปของเครื่องคอมฯ ถ้าใช้เครื่องแรงการวิเคราะห์ผลก็จะเร็วด้วย เช่น ผลตรวจ DNA และทุกวันนี้เข้าสู่ยุคดิจิตอลแล้ว อะไรหลายๆ อย่างก็จะใช้การประมวลผลสุง อย่างที่โฆษณาหนังของสปีลเบิร์กเขาบอกว่าใช้คอม .... ตัว หน่วยประมวลผล .... ตัว .... คอร์ อะไรแบบนี้ ซึ่งถ้าซื้อ 100 เครื่องราคาเท่ากับซื้อสุดยอดคอมฯ 1 ตัวยังไงก็คุ้ม ผมว่างั้นนะ ผมทำงานในองค์กรก็เลยมีมุมมองแบบองค์กรน่ะ ตามบ้านนี่มองข้ามเลย
กรณีสถานพยาบาลมันก็เปรียบเทียบไม่แฟร์เท่าใดนัก
กรณีที่ยกมันเป็นคอมฯเฉพาะทางด้านการแพทย์ เช่น ช่วยตรวจเลือด, นับเม็ดเลือด
หรือวิเคราะห์์์์์ข้อมูล MRI สร้างภาพ 3d ซึ่งเป็นไปไม่ได้ที่สถานพยาบาลระดับพรีเมี่ยมจะไม่ใช้
เพราะยิ่งใช้อุปกรณ์พวกนี้ยิ่งเสริมการทำงาน อีกทั้งสามารถชาร์ตคนไข้ได้โดยง่าย
ทั้งๆที่สถานพยาบาลเอกชนที่มีการจัดการแบบใหม่
กลับมองคนที่เข้ามาโรงพยาบาลต้องมีรายได้ต่อหัวเท่าไร
เคยไหมหมอถามว่า นี่คุณเบิกค่ารักษารึเปล่า ก่อนเสนอการทดสอบทางการแพทย์ราคาสูงให้
แฟนผมเส้นเลือดที่ตาขาวข้างขวานูน
หมอที่ไทยเสนอให้ตรวจไทรอยด์ ผลรึ เป็นลบ ค่าตรวจ สามพันกว่าๆ
ใครบ้างเข้าโรงพยาบาลแล้วไปนั่งต่อรองราคาแบบในตลาดสด
อันนี้ความเห็นส่วนตัวนะ เกี่ยวกับการรักษา เจอมาเหมือนกัน ค่าตรวจ+ค่าพักหมื่นสาม จนไปเลย
บางทีค่ารักษาที่เราบอกว่าแพงแค่ตรวจอย่างเดียวเอง ยกตัวอย่างของคุณละกัน 3 พันกว่า สาเหตุคือค่าอุปกรณ์แพง+ค่าหมอ มองอีกมุมหนึ่ง ถ้าเราไม่ตรวจแล้วเกิดความกังวลนี่มันก็เล่นเอาเสียวสันหลังเหมือนกันนะ มันจะวิตกไปอีกนานเลยล่ะ และถ้าตรวจเจอโรคร้ายก็ยังมีโอกาสรักษาทัน ครั้นจะหวังพึ่งโรงพยาบาลรัฐรึก็ไม่แน่ใจว่าจะมีเครื่องมือและการตรวจหาได้ละเอียดหรือเปล่า โดยเฉพาะโรงพยาบาลอำเภอหรือจังหวัดเล็กๆ
อันนี้ผมนึกเอาเฉยๆ กับเครื่องมือแพทย์
เวลาที่ใครสักคนไปตรวจ DNA หรือการพิสูจน์ที่ต้องอาศัยอุปกรณ์การแพทย์ ทุกวันนี้มันรอผลนานมาก
กว่าที่จะจับผู้ร้ายได้มันใช้เวลานาน ซึ่งกฏหมายฝากขังได้ไม่เกิน 24 ชั่วโมง (มั๊ง) ช่องว่างระหว่างเวลามันจะเกิดการเปลี่ยนแปลงเยอะ ถ้าได้สุดยอดคอมหลายคอร์มาใช้มันจะช่วยย่นเวลาลงมา อาจจะเหลือไม่กี่ชั่วโมง
Watson ถ้าเจอความกำกวมและการตีความของภาษาไทยก็จอดสนิทแน่
เล่นคำผวนไปเลยท่าน
"สวดยอดไปเลยนะฮ๊าฟว์"
มาลองทำ O-Net ดีกว่า
+1 ถ้าจับ Watson มาทำ PAT1 คงจะเสร็จในไม่ถึงวินาที...
กลับกันถ้า Watson เจอข้อสอบโอเน็ตผ้าปูโต๊ะเข้าไป อาจจะ error ได้ : P
แต่ถ้ามันทำได้ขึ้นมาจริงๆ จะหน้าซีดกันเป็นแถบ หาข้ออ้างไม่ขึ้นเอานะครับ เพราะงั้นผมว่าอย่าลองเลย T-T
ฉะนั้น อย่าให้ รัฐฯ นำเข้าเครื่องนี้...
ขนาด GT-200 ยังเงียบเป็นผีเฝ้าป่าช้าไปเลยหงะ...
อ้าว ไหงเข้าเรื่องการเมือง ? ชู่วๆๆๆ
เป็นซูเปอร์คอมที่ดูดีมากอ่ะ
เรื่องแบบนี้คอมน่าจะทำได้ดีกว่ามนุษย์อยู่แล้ว
มนุษย์มีขีดจำกัดมากในการจำข้อมูลจำนวนเยอะๆ
การที่มันจะชนะมนุษย์ได้ก็ไม่แปลก ไม่ต้องลุ้นเท่าการเล่นหมากรุก
แต่ยังไง การสร้างระบบอย่างนี้ก็เป็นความท้าทายอย่างนึง
ย้อนไปเรื่องการแข่งขันหมากรุก Deep Blue ก็ยังไม่สามารถชนะขาด Kasparov ได้ทุกตา
ยังผลัดกันแพ้ผลัดกันชนะ แต่ครั้งนั้นเป็นครั้งแรกที่ชนะมากกว่าแพ้
จากที่มันแพ้มากกว่าชนะมาตลอด
ไม่ใช่แค่จำนะ.. เรื่องความจำนี่เรื่องเลกด้วยซ้ำ
เพราะโจทย์ในเกมนี้จะแยกเปนหมวดๆ อยู่แล้ว
ต้องวางกลยุทธ์ด้วย ว่าหมวดไหนจะเล่นเช่นไร
ไม่ได้ดูว่าใครตอบได้มากสุด.. ดูยอดเงินสะสม
แถมหมากรุกยังมี branch แน่นอน.. brute ได้
แต่ reasoning นี่ ถึงวิ่งครบทุก path ก้อไม่แน่
path ที่หยิบมาตอบยังมีโอกาสสูงที่จะเลือกผิด
ต้องแยกความกำกวมของพิธีกร ไร joke ไรจิง
ใครที่จำ bicentennial man ได้ คงพอนึกออก
ไม่ถึง 3,000 คอร์ ทำได้ขนาดนี้ถือว่าไม่ธรรมดามากๆ