มีข้อถกเถียงน่าสนใจเกี่ยวกับ Google Assistant ที่สามารถคุยโทรศัพท์แทนคนได้ ว่าการที่ให้ AI คุยกับปลายสายที่คน โดยคนนั้นไม่รู้ตัวว่ากำลังคุยกับอะไรนั้นเป็นเรื่องน่ากังวล สร้างความสับสนแก่มนุษย์ และ AI อาจถูกใช้ในทางที่ผิด
การที่ Google Assistant เริ่มมีความใกล้เคียงมนุษย์มากขึ้น มาจากเทคโนโลยี Google Duplex ที่สามารถรองรับความซับซ้อนของภาษาได้มากกว่า Assistant ตามปกติ ผ่านการฝึกฝนจากบทสนทนาในคลังเป็นจำนวนมาก
บล็อกของ Lauren Weinstein นักกิจกรรมเรียกร้องประเด็นต่างๆ ที่เกี่ยวข้องกับอินเทอร์เน็ต (ผู้ร่วมก่อตั้ง PFIR - People For Internet Responsibility) ตั้งคำถามถึงเรื่องนี้ว่า การที่คนคุยกับ AI โดยไม่รู้ว่าปลายสายไม่ใช่คนนั้น ถูกต้องตามหลักจริยธรรมหรือไม่ ที่ผ่านมามนุษย์สื่อสารกับ AI ได้อย่างสบายใจตราบใดที่พวกเขารู้ว่ากำลังคุยกับอะไร และไม่ว่าผู้สร้างเทคโนโลยีจะตั้งใจหรือไม่ การที่คนไม่รู้ว่าคุยกับ AI นั้นดูคล้ายกับการหลอกลวง
ที่งาน Google I/O ปีนี้การเปิดตัวบริการใหม่ๆ ที่น่าตื่นเต้นที่สุดตัวหนึ่งคงเป็นฟีเจอร์เลขาของ Google Assistant ที่สามารถโทรศัพท์จองร้านอาหารหรือบริการแทนเจ้าของได้โดยอัตโนมัติ ตอนนี้กูเกิลก็เปิดรายละเอียดของฟีเจอร์นี้เพิ่มมา โดยเรียกปัญญาประดิษฐ์เบื้องหลังว่า Google Duplex
เก็บตกประกาศข่าวจากงาน Google I/O 2018 กูเกิลเปิดตัวหน่วยประมวลผล Tensor Processing Unit (TPU) รุ่นที่สาม รุ่นอัพเกรดจาก TPU v2 ที่เปิดตัวในช่วงเดือนนี้ของปีที่แล้ว
TPU v3 มีสมรรถนะดีขึ้นกว่า v2 ถึง 8 เท่า และ TPU หนึ่งชุด (64 ตัวเรียกเป็น 1 pod) มีพลังประมวลผลถึง 100 petaFLOPS เพิ่มขึ้นจาก 1 pod ของ TPU v2 ที่ทำได้เพียง 11.5 petaFLOPS tops
อีกประเด็นที่น่าสนใจคือ TPU v3 ใช้ระบบระบายความร้อนด้วยของเหลวด้วย ซึ่งเป็นครั้งแรกที่กูเกิลนำระบบแบบนี้มาใช้งานกับ TPU
Google ประกาศฟีเจอร์ใหม่ใน Google Maps ออกแบบเฉพาะตัวผู้ใช้มากขึ้น ดังนี้
กูเกิลเปิดงาน Google I/O ด้วยการแถลงถึงงานวิจัยปัญญาประดิษฐ์ด้านการแพทย์ที่กำลังตีพิมพ์ ทำให้สามารถทำนายข้อมูลของคนไข้ได้ละเอียดและแม่นยำมากขึ้น
รายงานแรกเป็นการอ่านข้อมูลจากภาพดวงตา กูเกิลสร้างโมเดลทำนายข้อมูลคนไข้จากภาพเรตินาอย่างเดียว ได้ข้อมูลถึง 6 อย่าง ได้แก่ อายุ, เพศ, สูบบุหรี่, เบาหวาน, อัตราส่วนน้ำหนักและส่วนสูง, ความดันเลือด
ก่อนหน้านี้ Gmail เพิ่มฟีเจอร์ใหม่มากมาย หนึ่งในนั้นคือ Smart Reply ล่าสุด Google ประกาศในงาน Google I/O ว่าจะใช้ AI เข้ามาช่วยเขียนอีเมลให้ด้วย ในชื่อฟีเจอร์ว่า Smart Compose
ในระหว่างเขียน AI จะช่วยแนะนำคำ วลี ที่สามารถใช้ในการเขียนอีเมลได้ เมื่อต้องการใช้คำที่ระบบแนะนำมาให้ก็สามารถกดได้ภายในครั้งเดียว ช่วยให้เขียนอีเมลเร็วขึ้น และแก้ไขเรื่องการใช้ไวยากรณ์ผิดได้ AI ยังรับรู้สภาพแวดล้อมอื่นๆ เช่น ถ้าวันที่เขียนอีเมลเป็นวันศุกร์ ระบบจะแนะนำคำว่า “Have a great weekend!” มาให้ เป็นต้น
ฟีเจอร์ใหม่ใช้ได้ช่วงไม่กี่สัปดาห์ข้างหน้า
Sundar Pichai เผยในงาน Google I/O ว่า AI จะเข้ามามีบทบาทในแอพพลิเคชั่นต่างๆ มากขึ้น หนึ่งในนั้นคือ Google Photos เช่น
ฟีเจอร์ดังกล่าวจะสามารถใช้ได้ภายใน 2-3 สัปดาห์ข้างหน้า
หน่วยงานวิจัยปัญญาประดิษฐ์ของกูเกิลเดิมมีหลายทีม เช่น Google Brain, Google Research ที่มักตีพิมพ์งานวิจัยและเผยแพร่โค้ดออกมาสู่โลกภายนอกเรื่อยๆ หรือบางครั้งก็ออกมาเป็นสินค้าของกูเกิลเอง เช่น AutoML ที่มาจากทีม Google Brain ตอนนี้กูเกิลก็ประกาศรวมทีมทั้งหมดเป็น Google AI
ในแง่ทีมวิจัยของกูเกิลอาจจะไม่ต่างจากเดิมนัก แต่ช่องทางสื่อสารกับคนภายนอกจะถูกรวบไว้ภายใต้ เว็บ, Google+, Twitter, และบล็อกเดียวกัน ขณะที่เว็บ Google Research เดิมจะถูกเก็บไว้ให้เข้าถึงโพสเดิมได้ หากเนื้อหาถูก redirect มาที่ใหม่ได้ก็จะถูก redirect มา
ที่มา - Google AI
นักพัฒนาที่ใช้ Visual Studio คงรู้จักฟีเจอร์ช่วยเติมโค้ด IntelliSense กันเป็นอย่างดี ล่าสุดไมโครซอฟท์ยกระดับมันอีกขั้น และเปลี่ยนชื่อเป็น IntelliCode
จุดแตกต่างสำคัญของ IntelliCode คือไมโครซอฟท์เทรน AI ให้อ่านโค้ดคุณภาพระดับ 100 ดาวบน GitHub กว่า 2,000 โครงการเพื่อศึกษาว่าโค้ดที่ดีเป็นอย่างไร จากนั้นนำโมเดลที่เรียนได้มาประยุกต์ใช้กับโค้ดที่เรากำลังเขียนอยู่
สิ่งที่ IntelliCode จะทำให้เราคือช่วยแนะนำโค้ดจาก API อย่างแม่นยำมากขึ้น เหมาะกับบริบทและสถานการณ์ของโค้ดในแต่ละบรรทัดที่แตกต่างกันออกไป แถม IntelliCode จะยังช่วยเราเขียนคอนฟิกไฟล์ .editorconfig ให้เหมาะกับสไตล์การเขียนโค้ดของเรา เพื่อให้โค้ดออกมาเป็นระเบียบและสม่ำเสมอด้วย
ไมโครซอฟท์ประกาศความร่วมมือกับอินเทล นำชิป FPGA ของอินเทลมาให้บริการปัญญาประดิษฐ์ในชื่อ Project Brainwave
บริการนี้จะสามารถใช้งานได้ทั้งบนคลาวด์และในอุปกรณ์ปลายทาง (edge device) โดยใช้ FPGA เป็นตัวเร่งความเร็วในการฝึกและการทำนายผลจากโมเดล deep neural network โดยตอนนี้ Project Brainwave ยังทำงานได้กับ Tensorflow เท่านั้น และกำลังพัฒนาให้ใช้งานได้กับ Microsoft Cognitive Toolkit ต่อไป
การใช้งานบนคลาวด์จะต้องขอโควต้า Azure ML Realtime AI เสียก่อน ตอนนี้ตัวอย่างคือการปรับแต่งโมเดล ResNet-50 เพื่อใช้งานจัดหมวดหมู่ภาพตามที่ต้องการ
ไมโครซอฟท์ประกาศในงาน Build 2018 ว่า Windows 10 อัพเดตตัวหน้า (Redstone 5 ช่วงปลายปี) จะมีฟีเจอร์ใหม่คือ Windows AI Platform สำหรับประมวลผล machine learning ด้วยจีพียู
ตัวอย่างการใช้งานที่ไมโครซอฟท์นำมาเสนอคือการใช้งานในภาคอุตสาหกรรม เริ่มจาก Azure Machine Learning บนคลาวด์เพื่อเทรนโมเดล จากนั้นส่งโมเดลไปดีพลอยในอุปกรณ์ IoT ผ่านกระบวนการของ Azure IoT Edge
การประมวลผลจะเกิดขึ้นที่อุปกรณ์ปลายทาง (ซึ่งรัน Windows 10) เมื่อบวกกับพลังของจีพียูรุ่นใหม่ๆ และ Windows AI Platform ทำให้สามารถรันโมเดลได้อย่างมีประสิทธิภาพที่ตัวอุปกรณ์ปลายทางได้เลย (Intelligent Edge) ไม่ต้องส่งกลับมาประมวลผลบนคลาวด์อีกครั้ง
ไมโครซอฟท์ประกาศความร่วมมือกับอเมซอนเปิดทางให้ Cortana และ Alexa สามารถเรียกใช้งานข้ามกันไปมาได้
การเรียกข้ามกันเช่นนี้ บอตอีกตัวจะกลายเป็นบอตย่อยของอีกแพลตฟอร์ม เช่นเมื่อใช้ Echo จะต้องเรียก Cortana ขึ้นมาก่อน กลับกันเมื่อผู้ใช้กำลังใช้วินโดวส์ก็สามารถเรียก Alexa ขึ้นมาใช้งานผ่าน Cortana เช่นกัน
ฟีเจอร์นี้ยังอยู่ในสถานะเบต้าแบบปิด ผู้ใช้ทั่วไปสามารถลงทะเบียนขอแจ้งเตือนเมื่อฟีเจอร์เปิดให้ใช้งาน
ในงานประชุมสามัญผู้ถือหุ้นประจำปีของบริษัท Berkshire Hathaway บริษัทด้านการลงทุนของนักลงทุนชื่อดัง วอร์เรน บัฟเฟตต์ เมื่อสุดสัปดาห์ที่ผ่านมา มีการตั้งคำถามจากผู้ถือหุ้นกับ วอร์เรน บัฟเฟตต์ และ Charlie Munger รองประธานบอร์ด เกี่ยวกับการลงทุนและเทคโนโลยี ซึ่งมีประเด็นน่าสนใจ หากถือว่าเป็นมุมมองของนักลงทุนรายใหญ่ที่สุดของโลก
Yann LeCun หัวหน้าฝ่ายวิจัย AI ของ Facebook เผยว่าจะเปิดแล็บวิจัย AI เพิ่มอีกสองแห่งที่ ซีแอตเติลและพิตส์เบิร์ก โดยจ้างผู้เชี่ยวชาญ AI สามคนจากมหาวิทยาลัยวอชิงตันและ Carnegie Mellon มาร่วมงานด้วยแบบพาร์ทไทม์
The New York Times รายงานว่า การสร้างแล็บวิจัยใหม่นี้เกิดขึ้นท่ามกลางความกดดันที่บริษัทเทคโนโลยีมีต่อสถาบันการศึกษาที่กำลังต่อสู้กับการรักษาครูบาอาจารย์ให้ทำงานสอนต่อ เพราะในปี 2015 Uber จ้างนักวิจัยและวิศวกรด้านเทคนิค 40 คนจากห้องปฏิบัติการหุ่นยนต์ของมหาวิทยาลัย Carnegie Mellon เพื่อไปดูงานด้านรถไร้คนขับ และในสัปดาห์ที่ผ่านมา JPMorgan Chase ก็จ้าง Manuela Veloso หัวหน้าฝ่าย Machine Learning ของมหาวิทยาลัย Carnegie Mellon ไปอีก
ผู้เชี่ยวชาญเทคโนโลยีสายนี้เป็นที่รู้กันว่าหาตัวจับยาก ค่าจ้างแพง และแต่ละบริษัทต่างก็พยายามเฟ้นหาบุคคลที่ดีที่สุด Dan Weld ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์มหาวิทยาลัยวอชิงตันบอกว่า ปรากฏการณ์นี้เป็นเรื่องน่ากังวล เพราะถ้าเราสูญเสียอาจารย์ทั้งหมด มันจะส่งผลกระทบต่อการสอนนักศึกษาและนักวิจัยในรุ่นต่อๆ ไป
คนที่ติดตามเรื่อง AI คงทราบว่าปัญหาใหญ่อย่างหนึ่งของวงการนี้ในโลกคือการขาดแคลนบุคลากร ล่าสุดจีนมีแผนแก้ปัญหานี้ที่จริงจังขึ้นอีก โดยนำหลักสูตร AI มาใส่เป็นวิชาหนึ่งในระดับมัธยมศึกษาเลย เพื่อสร้างบุคลากรกันตั้งแต่เยาวชน ไม่ต้องรอให้ถึงระดับมหาวิทยาลัย
โดยตำราเรียนวิชานี้ชื่อว่า Fundamentals of Artificial Intelligence มีผู้แต่งหลักคือ Tang Xiaoou ซึ่งปัจจุบันเป็นอาจารย์สาขาวิศวกรรมสารสนเทศที่ Chinese University of Hong Kong และเป็นประธาน SenseTime สตาร์ทอัพสาย AI ที่มีมูลค่ากิจการสูงสุดในโลก ร่วมกับทีมอาจารย์จาก East China Normal University และอาจารย์จากโรงเรียนมัธยม 5 แห่งในเซี่ยงไฮ้
กูเกิลเปิดชุดข้อมูล Open Image ข้อมูลสำหรับการฝึกปัญญาประดิษฐ์มาตั้งแต่ปี 2016 ปีนี้กูเกิลก็เปิดตัว Open Image v4 ชุดข้อมูลสำหรับตรวจจับภาพ (ปัญหา bound box) โดยใช้ภาพรวม 1.7 ล้านภาพ ข้อมูลวัตถุในภาพรวม 12.2 ล้านรายการ
นอกจากภาพที่ใส่ข้อมูลในภาพโดยมนุษย์แล้ว ชุดข้อมูลยังมีภาพ 5.5 ล้านภาพ ข้อมูลในภาพ 30.1 ล้านรายการ โดยตรวจสอบโดยมนุษย์แล้ว
หน่วยวิจัย Facebook AI Research (FAIR) ประกาศโอเพนซอร์ส ELF OpenGo บ็อตเล่นโกะคู่แข่งของ AlphaGo แต่เป็นผลงานของ Facebook
OpenGo พัฒนาขึ้นบนเฟรมเวิร์ค Extensible, Lightweight Framework (ELF) สำหรับงานวิจัยด้าน Reinforcement Learning Research โดยประกาศตัวชัดเจนว่าได้แรงบันดาลใจจากงานของ DeepMind และพยายามสร้างบ็อตแบบ AlphaGoZero ขึ้นมาใหม่โดยเทียบกับผลงานของ AlphaGo แต่กระบวนการทำงานใช้ ELF ของตัวเองแทน (เรียกว่าเป็น reimplementation ของ AlphaGo ก็ได้)
ผลคือ OpenGo สามารถเอาชนะบ็อตโกะที่เก่งที่สุดในตอนนี้ LeelaZero (เพราะ AlphaGo ไม่เปิดให้คนอื่นใช้งาน) และเอาชนะแชมป์โกะรวม 4 คนด้วยคะแนน 14:0 เกม
Guy Rosen ผู้จัดการผลิตภัณฑ์ Facebook เขียนบล็อกเรื่อง AI กับการจัดการเนื้อหาไม่ดี ระบุว่าใช้ AI เข้ามามีบทบาทมากในการจัดการสแปม hate speech บัญชีปลอม คนฆ่าตัวตาย อยู่แล้ว พร้อมกับชี้ว่า ความสามารถ AI ยังอีกห่างไกลที่จะจัดการเนื้อหาไม่ดีในทุกรูปแบบอย่างรวดเร็ว
Rosen กล่าวเพิ่มเติมว่า ผู้คนมักจะสงสัยว่าทำไมถึงไม่ทำเทคโนโลยีนี้ให้ก้าวหน้ารวดเร็วกว่านี้ นั่นเปนเพราะ AI ยังมีข้อจำกัดเรื่องการเข้าใจภาษาเกลียดชัง และบริบทที่ใช้ การจัดการจึงยังต้องใช้คนอยู่ นอกจากนี้ AI ยังต้องการการฝึกเทรนนิ่งอีกเยอะมาก เพื่อจะเข้าใจรูปแบบพฤติกรรม และความหมายที่ส่งออกมา ในขณะที่ตอนนี้ Facebook ยังขาดการฝึก AI ในหลายภาษา มีเพียงภาษาอังกฤษเนื่องจากเป็นชุดข้อมูลใหญ่ที่ Facebook มี
Rosen บอกว่าตอนนี้ Facebook กำลังลงทุนในด้านเทคโนโลยีเพื่อเพิ่มความแม่นยำในภาษาใหม่ๆ ยกตัวอย่างเช่น Facebook AI Research (FAIR) ทำให้บางคนเห็นโพสต์และมีคำถามที่ Facebook แนบมาด้วยว่าเนื้อหาในโพสต์นี้เป็น hate speech หรือไม่ ซึ่งการที่ผู้ใช้ให้ความร่วมมือตอบคำถาม Facebook จะช่วยได้
Facebook พยายามผลักดัน ONNX ในฐานะฟอร์แมตกลางสำหรับงานด้าน Deep Learning โดยที่ผ่านมามี Microsoft Cognitive Toolkit และ Amazon MXNet เข้าร่วม
ล่าสุดในงาน F8 2018 ทางโครงการ ONNX ก็ประกาศพันธิมตรเพิ่มเติมอีก 4 รายคือ
เฟซบุ๊ก "เปิดตัว" PyTorch 1.0 รุ่นสำหรับโปรดักชั่น โดยเฟซบุ๊กประกาศฟีเจอร์ใหม่ๆ ในงาน F8 ก่อน และโค้ดจริงจะปล่อยออกมาในอีกไม่กี่เดือนข้างหน้า
ฟีเจอร์สำคัญคือการรองรับ ONNX ฟอร์แมตกลางสำหรับการเก็บโมเดลปัญญาประดิษฐ์ ตัวอย่างของเฟซบุ๊กคือการใช้งาน PyTorch ในงานพัฒนา ไปรันในระบบโปรดักชั่นที่ใช้ Caffe2 โดยใน PyTorch 1.0 การเซฟโมเดลจะใช้ ONNX เป็นหลัก
นอกจาก ONNX แล้ว PyTorch 1.0 ยังเพิ่มเครื่องมือ, ไลบรารี, และโมเดลสำเร็จรูปมาให้อีกจำนวนหนึ่ง แต่เฟซบุ๊กไม่ได้ระบุชัดเจนว่าจะมีอะไรบ้าง
เฟซบุ๊กประกาศความสำเร็จในการสร้างปัญญาประดิษฐ์เพื่อจัดหมวดหมู่ภาพ (image labelling) และทดสอบความแม่นยำด้วยชุดข้อมูล ImageNet ได้ความแม่นยำสูงสุด 85.4% สูงกว่าโมเดลที่ทำคะแนนดีที่สุดอยู่ 2%
ความพิเศษของโมเดลใหม่นี้คือการใช้ชุดข้อมูลขนาดใหญ่มหึมาสำหรับการฝึกโมเดล เฟซบุ๊กอาศัยภาพจากอินสตาแกรมจำนวน 3.5 พันล้านภาพ ที่มีแฮชแท็กในกลุ่มที่เฟซบุ๊กสนใจ จำนวน 17,000 แฮชแท็ก
การใช้ข้อมูลจากภาพที่โพสสาธารณะเช่นนี้ไม่สามารถนำมาใช้ได้ตรงๆ โดยเฟซบุ๊กต้องรวบแฮชแท็กที่เป็นคำใกล้เคียงกันเข้าด้วยกัน จัดความสมดุลแฮชแท็กบางคำที่มีการแท็กสูงมาก ทำให้เหลือภาพที่ใช้งานได้จริงพันล้านภาพ และแฮชแท็ก 1,500 แท็ก
ในงาน Dell Technologies ที่ลาสเวกัสวันที่สาม เนื้อหาหลักเป็นการสนทนาในหัวข้อที่ต่อเนื่องจากสองวันแรก นั่นคือภาพรวม และผลิตภัณฑ์ โดยหัวข้อว่าด้วยเรื่องของเทคโนโลยีหรือแนวโน้มเทรนด์ใหญ่ที่จะเปลี่ยนโลกได้
คีย์โน้ตวันนี้เปิดโดย Allison Dew หัวหน้าฝ่ายการตลาดของเดลล์ โดยชี้ให้เห็นว่าเทคโนโลยีใหม่ อาทิ AI, Machine Learning หรือ Blockchain กำลังมีบทบาทมากขึ้นเรื่อยๆ ซึ่งทั้งหมดล้วนต้องการข้อมูล (data) เป็นตัวขับเคลื่อน และทำให้ธุรกิจทำงานได้รวดเร็วมากขึ้น ซึ่งมีการยกตัวอย่าง Walmart ที่สามารถตรวจกลับต้นทางของอาหารได้ จากเดิม 7 วัน เหลือเพียงไม่กี่วินาที หรืออีกกรณีคือ Nasdaq ที่พัฒนาระบบจนสามารถตรวจจับความผิดปกติได้ในระดับเรียลไทม์
NVIDIA เปิดตัวโดครงการโอเพนซอร์ส OpenSeq2Seq ชุดเครื่องมือ (toolkit) ที่สร้างบนฐานของ TensorFlow เพื่อการฝึกโมเดลนิวรอนแบบ sequence-to-sequence โดยงานกลุ่มนี้เช่น การแปลภาษาอัตโนมัติ, การแปลงเสียงเป็นข้อความ, หรือข้อความเป็นเสียง
ตัว encoder/decoder ที่ติดมากับโครงการเพียงพอสำหรับอิมพลีเมนต์โมเดลดังๆ เช่น DeepSpeech2, NMT, GNMT, Transformers และการออกแบบน่าจะทำให้การใส่ encoder/decoder แบบใหม่ๆ ทำได้ง่าย
ตัวซอฟต์แวร์ปรับแต่งสำหรับชิป NVIDIA Volta โดยเฉพาะ รองรับการทำงานแบบ mixed precision สามารถรันบนชิปกราฟิกหลายชุด หรือกระทั่งกระจายหลายโหนดก็ยังได้
แม้ว่าเราจะใช้งานแอปแผนที่อย่าง Google Maps หรือแอปนำทางต่างๆ จนเคยชิน แต่สิ่งหนึ่งที่หลายคนไม่ตระหนักคือแผนที่เป็นงานที่ต้องอาศัยคนนั่งวาดถนนตามภาพถ่ายที่ได้มาทีละเส้น นับเป็นงานที่ใช้แรงงานสูง และการใช้คอมพิวเตอร์ช่วยเหลือก็ทำได้จำกัด ตอนนี้ห้องแลป CSAIL (Computer Science and Artificial Intelligence Laboratory) จาก MIT ก็เตรียมนำเสนอปัญญาประดิษฐ์ RoadTracer สำหรับวาดแผนที่จากภาพถ่ายทางอากาศ
เทคนิคการแปลงภาพเป็นแผนที่โดยคอมพิวเตอร์ทุกวันนี้อาศัยเทคนิค segmentation ที่พยายามหาว่าพิกเซลใดในภาพเป็นถนนบ้างเพื่อวาดเส้นถนนออกมา แต่กระบวนการนี้ขาดความแม่นยำเป็นอย่างมาก เพราะภาพถนนอาจจะไม่ชัดเจน ถูกต้นไม้หรืออาคารบัง
สำนักข่าวรอยเตอร์อ้างแหล่งข่าวไม่เปิดเผยตัวตนสี่คนระบุว่ารัฐบาลทรัมป์กำลังพิจารณาสั่งห้ามบริษัทเอกชนสหรัฐฯ ร่วมมือพัฒนาเทคโนโลยีปัญญาประดิษฐ์กับบริษัทและรัฐบาลจีน
ฝ่ายบริหารของสหรัฐฯ มีอำนาจสั่งห้ามความร่วมมือกับบริษัทต่างชาติผ่านทางกฏหมาย International Emergency Economic Powers Act และหากมีการสั่งการมาจริงอาจทำให้ความร่วมมือต่างๆ ที่บริษัทสหรัฐฯ เคยร่วมมือกับจีนอาจจะหยุดชะงัก
ตัวอย่างเช่น NVIDIA ส่งมอบชิปตัวอย่างให้กับนักวิจัยเพียง 30 ราย ในจำนวนนั้น 3 รายเป็นเจ้าหน้าที่ของรัฐบาลจีน หรือบริษัทต่างๆ ที่มีศูนย์วิจัยและลูกค้าในจีนอยู่ตอนนี้ก็อาจจะต้องตัดความสัมพันธ์กันไป