แผนกวิจัยของ DeepMind ขึ้นชื่อเรื่องการนำโมเดล machine learning ไปใช้กับงานวิจัยแขนงต่างๆ ตัวอย่างที่ชัดเจนคือ AlphaFold ใช้ช่วยงานวิจัยโปรตีนจนได้รับรางวัลโนเบลสาขาเคมี
ล่าสุด DeepMind เผยแพร่งานวิจัย AlphaQubit ในวารสาร Nature เป็นการนำเทคนิค machine learning ของ DeepMind ไปช่วยงานวิจัยด้านควอนตัมคอมพิวเตอร์ของทีม Google Quantum AI
ข้อจำกัดของเทคโนโลยีควอนตัมคอมพิวเตอร์คือ เมื่อเพิ่มจำนวน qubit มากขึ้นเรื่อยๆ การทำงานจะเริ่มไม่เสถียรจากสารพัดปัจจัย เช่น ความร้อน การสั่นสะเทือน คลื่นแม่เหล็กไฟฟ้า หรือแม้กระทั่งรังสีคอสมิก เมื่อสถานะของ qubit เปลี่ยนแปลง ก็ส่งผลให้การประมวลผลผิดเพี้ยนไป
แนวทางแก้ปัญหานี้ของวงการควอนตัมคือ ใช้ qubit หลายๆ ตัวมารวมกัน แล้วมองเป็น logical qubit ตัวเดียว หากมี qubit บางตัวเพี้ยนไปก็ยังอ่านค่าจาก qubit ที่เหลืออยู่ได้ กระบวนการนี้จำเป็นต้องกลับมาเช็คสถานะของ qubit อยู่เรื่อยๆ ว่ายังมีค่าถูกต้องอยู่ไหม
ภาพตัวอย่างชุด logical qubit 1 ชุดที่มี qubit 9 ตัว สีเทาคือสถานะถูกต้อง หากเปลี่ยนเป็นสีฟ้าหรือชมพูแปลว่าสถานะเริ่มเพี้ยนไป
ก่อนหน้านี้ วงการควอนตัมมีอัลกอริทึมในการพยากรณ์ logical qubit อยู่บ้างแล้ว คือ วิธี correlated matching ที่ทำงานได้เร็ว แต่อาจไม่แม่นมากนัก และวิธี tensor network ที่แม่นยำกว่าแต่ทำงานช้า
AlphaQubit เป็นการนำสถาปัตยกรรมของโมเดลตระกูล Transformer มาประยุกต์ใช้กับการพยากรณ์ logical qubit ว่าสถานะในอนาคตจะเปลี่ยนแปลงไปอย่างไร ยิ่งพยากรณ์แม่นก็จะทำให้การประมวลผลควอนตัมสามารถทำงานต่อได้นานขึ้น (มั่นใจได้ว่าที่ประมวลผลอยู่นั้น ข้อมูลไม่ผิดเพี้ยน)
DeepMind ทดลองนำ AlphaQubit ไปทดสอบกับขิปประมวลผลควอนตัม Sycamore ของกูเกิลเอง ด้วย qubit จำนวน 49 ตัว เพื่อประเมินผลว่า AlphaQubit พยากรณ์สถานะได้แม่นยำแค่ไหน ผลออกมาว่าแม่นยำกว่าทั้ง correlated matching และ tensor network อีกทั้งทำงานได้เร็วมากพอ ถือเป็นสัญญาณที่ดีของการพยากรณ์ qubit ที่ดีขึ้นกว่าเดิม
DeepMind บอกว่าหลังจากประสบความสำเร็จกับการทดสอบแบบ 49 qubit (ระยะห่างระหว่าง qubit = 5) ก็ขยายการทดสอบกับระบบ 241 qubit (ระยะห่าง 11 qubit) ในซิมูเลเตอร์ ผลการทดสอบออกมาดี คือ แม่นยำกว่าวิธี correlated matching ซึ่งเป็นสัญญาณว่ามัน "น่าจะ" ทำงานได้ดีกับคอมพิวเตอร์ควอนตัมขนาดกลางๆ ในอนาคต
อย่างไรก็ตาม DeepMind ชี้ว่า AlphaQuantum ยังทำงานได้ช้าเกินไปสำหรับหน่วยประมวลผลควอนตัมที่ทำงานบน superconductor ที่วัดค่าของ qubit ได้หนึ่งล้านครั้งต่อวินาที ดังนั้นหากคอมพิวเตอร์ควอนตัมสเกลขนาดไปจนถึงระดับหลักล้าน qubit เราก็ต้องหาวิธีการพยากรณ์ที่เร็วขึ้นกว่านี้อยู่ดี
ที่มา - DeepMind