การปะทะคารมระหว่างอินเทลและ NVIDIA ยังมีอยู่อย่างต่อเนื่องหลังจากที่ทางอินเทลได้เปิดตัวแผนการรวมส่วนประมวลกราฟิกเข้าไปเป็นส่วนหนึ่งของซีพียู แล้วประกาศว่า "ชิปกราฟิกกำลังจะตาย" ทาง NVIDIA ก็ออกมาโต้ตอบด้วยท่าทีที่รุนแรงพอๆ กันว่าซีพียูต่างหากที่กำลังจะตายไป
พนักงานของ NVIDIA ที่ออกมาพูดเรื่องนี้คือ Roy Taylor ในอีเมลของเขาระบุว่าที่จริงแล้วผู้ใช้ไม่ได้ต้องการซีพียูที่เร็วกว่าในตอนนี้ไปสักเท่าใหร่นัก โดยชิปที่ผู้ใช้ต้องการให้เร็วขึ้นจริงๆ คือ GPU หรือชิปกราฟิกนั่นเอง เพราะงานที่ผู้ใช้ต้องการเช่น การชมภาพยนตร์, เร่งความเร็วเกม, และการเข้าบีบอัดภาพยนตร์จากแผ่นดีวีดีก็ตามที
พอดีทำงานกับเซิร์ฟเวอร์อยู่หลายเครื่อง อีกหน่อยถ้าการ์ดจอในเซิร์ฟเวอร์แรงๆ จะได้แอบเล่นเกม
ที่มา - the INIQUIRER
Comments
ผมก็ยังพอใจกับ i945G ต่อไป
เพราะงานของผมมันไม่ใช่ SIMD นอกจากรัน BOINC เป็นงานอดิเรก
อีกอย่างไม่ชอบเล่นเกมด้วย
ไม่ตายไม่เลิก
ระหว่าง T8100 + GMA X3100 กับ T5500 + Geforce Go 8400GS
...ถ้าราคาเท่ากันผมเลือกอย่างหลังนะ
เห็นด้วยนะครับนั่น
ถ้าสองตัวเลือกนี้ ผมเลือกอย่างหลังเหมือนกัน
ผมไม่ใช่คนเล่นเกมส์นะครับ (เล่นแต่ The sims ฮา) แต่ยอมรับว่า GPU มันมีประโยชน์มากกว่าไว้เล่นเกมแน่นอน
ผมเองก็คิดว่าทุกวันนี้ CPU มันพัฒนาถึงจุดน่าพอใจแล้ว แต่ GPU มันไปต่อได้อีก
ถึงยังไง...กัดกันไปเหอะ ยังไงมันก็ต้องมาคู่กันอยู่ดี เห็นหลายเครื่องยังไงก็ Intel + NVIDIA อยู่ดี (อย่างน้อยก็เครื่องผมเครื่องนึงอ่ะ)
ว่าแต่ผมคนนึงอ่ะที่ไม่เลือก notebook ประเภทมาแบบว่า X3100 เด็ดขาด เห็นชื่อปั๊บตัดทิ้งออกทันที เหอะๆๆ
ปล. ความต้องการแต่ละคนไม่เท่ากันไงครับ :)
เอ๊านัง nvidia เปงบ้ารึไง CPU หากมะมีจำทำงานได้ยังไง ใช้สมองส่วนไหนคิด กราฟฟิกการ์ดจะตายก่อนตะหาก
เขาไม่ได้บอกว่าไม่ต้องใช้ CPU แค่บอกว่าทุกวันนี้มันเร็วมากพอแล้ว
งั้นงานนี้ไม่ Intel ก็ nVidia ต้องตายกันไปข้างสินะ
แล้ว AMD + ATi ก็อยู่รอดต่อไป ... หรือเปล่าหว่า //555+
ด่าไปด่ามา สุดท้ายกลายเป็น Intelvidia
@TonsTweetings
ต้องให้ฮากว่านั้น AMD ATi จับมือ Nvidia ถล่ม Intel :p
สาวกเชื่อว่า CPU ที่เร็วที่สุดในโลกคือ CPU ของ Apple 555
+1 สรรเสริญศาสนา
กำ แล้ว CPU ของ Apple มันก็ของ Intel ม่ายช่ายเหรอ จับโน่นยัดนี่ปะแป้งแต่หน้าใหม่ใช้ชื่อใหม่
"เพราะงานทที่ผู้ใช้ต้องการเช่น การชมภาพยนต์"
แก้คำผิดด้วยครับ งานท, ภาพยนต์ เป็น งานม, ภาพยนตร์
แก้ไขเรียบร้อยครับ
LewCPE
lewcpe.com, @wasonliw
ผมว่าไม่แปลกนะ เพราะฝั่งที่ Intel นำ AMD อยู่ก็ตรง Desktop เนี่ยแหละ ซึ่งคน "ส่วนใหญ่" ก็มีไว้เพื่อเล่นเกมกันทั้งนั้น ดังนั้นการ์ดจอเลยเป็นปัจจัยสำคัญมากไงครับ
Desktop ไม่ทราบ แต่ Laptop นี่เห็น ๆ
ถ้าดูในสายตาคนที่เล่นเกมส์กระแสหลักบน PC นี่ ที่ NVIDIA พูดนี่ไม่ผิดนะครับ
คือตอนนี้ embedded graphic ของ Intel แม้แต่รุ่น GMA X3100 ล่าสุดที่ว่ารองรับ DirectX 10 ก็ทำงานได้ดีเฉพาะสองมิติเท่านั้นนะครับ พอเล่นสามมิติขนาด 1024x768 นี่ ซึ่งเป็นขั้นต่ำที่นิยมเล่นในปัจจุบัน ต่ำกว่า 15 FPS เล่นไม่ค่อยจะได้นะครับ
ผู้เล่นเกมส์พีซีทั่วไป คงไม่เลือก CPU แรงๆแล้วใช้กราฟฟิคการ์ดออนบอร์ด แต่ยอมที่จะเจียดเงิน ซื้อ CPU ที่แรงน้อยลงมานิดหน่อย แล้วเอาส่วนต่างไปซื้อการ์ดจอแรงๆหน่อย จะเล่นเกมส์ได้มากกว่านะครับ
ปล. NVIDIA มีแบบ Server แล้วจริงๆนะเออ
See also
http://www.notebookreview.com/default.asp?newsID=4154
http://www.nvidia.com/page/servers.html
กรี้ดสลบ ... ขอบคุณมากสำหรับ link กำเวงน้อ - -'' เป็นงงครับงานนี้
แก้ตัวครับ แก้ไม่ทัน
See also
GMA X3100's 3D performance review
NVIDIA's Server
GPU ตอนนี้ถูกนำไปใช้แทน CPU ในการประมวลผลเลขทศนิยมแล้วนะครับเพราะว่า GPU ทำงานได้ดีกว่า CPU เยอะครับ ลองดูในเว็บ nVidia, AMD ดูครับ ซึ่งเทคโนโลยีด้านนี้มี Intel ที่ตามหลังเพื่อนอยู่ Intel เลยค่อนข้างโวยวายไงครับ
สนุกสนานดี ผมเชียร์ AMD+ATI
ถ้าซื้อโน้ตบุ๊คใหม่ ผมก็เลือก X3100 นะ เพราะผมไม่เล่นเกม แถมประหยัดแบตมากกว่าพวก Dedicated Graphics ทั้งหลายแหล่ด้วย
ผมใ้ช้งานกับ SketchUP 6 มีปัญหาเรื่องไดรเวอร์ ต้องปิดฟังก์ชั่นการใช้งานกราฟิคอะ OpenGL ไม่เก่งแฮะ แต่ก็ประหยัดไฟจริงนะ \(@^_^@)/ M R T O M Y U M
สาธุ ขอให้เป็น AmdTiVidia
Lastest Science News @Jusci.net
Lastest Science News @Jusci.net
Roy Taylor เป็น VP ของซัก section นึง nvidia นี่ครับ เรียกพนักงานดูเป็นระดับล่างเลย
เป็นถึง VP แต่ตอบคำถามแบบเด็กทะเลาะกันมากๆ
ที่ Intel บอกมันก็พอเป็นไปได้นะครับ ถึงว่ามันจะยากมาก
แต่ที่ Nvidia บอกนี่ ไร้สาระสุดๆ
มี desktop อีกครึ่งค่อนโลกที่ใช้ทำงาน โดยไม่สนใจว่าใช้การ์ดจออะไรอยู่
ความเห็นผม ถ้ามองไปไกลๆ ผมว่าอีกหน่อยคนจะ upgrade คอมช้าลง บริษัทอย่าง intel รายได้สำหรับ cpu desktop ระดับสูงคงลดลง
ส่วนบริษัทอย่าง nvidia คงอยู่ได้ด้วยรายได้จากทำ chip ให้ game console
console แต่ละ gen ออกมาก็ก้าวกระโดดกันทั้งนั้น อีกซัก 2 gen console คงเล่นเกมส์ได้เหนือกว่าคอม ในราคาถูกกว่าการ์ดจอตัวแรงๆซะอีก
+1 informative ในเรื่องของตำแหน่งของ Roy Taylor ครับ
LewCPE
lewcpe.com, @wasonliw
จากย่อหน้ารองสุดท้าย ยังไงๆ nvidia ก็ยังขายได้น้อยกว่า amd(ati) นะครับ
เพราะชิปของ nvidia ลง ps3 เครื่องเดียว แต่ amd(ati) ลงให้ทั้ง xbox360 กับ wii นะ
กำไรต่อหน่วยเท่าไรไม่รู้ แต่ถ้าเรื่องจำนวน amd ฟาดเรียบ(เพราะงี้มั้งที่ทำให้กำไรฝั่ง ati มันพุ่ง แม้ตลาด cpu ของ amd จะร่วง)
ผมเห็นหลายความเห็นบอกว่าไม่ใช้ CPU แปลก
สำหรับผมไม่แปลก เพียงแต่เราจะเรียกว่าอะไร(ที่ใช้ในการประมวลผล)
ลองดูที่นี่ดูครับ แล้วจะรู้ว่าคนที่ผลิต CPU ทำไมถึงกลัวคนผลิต GPU กันนัก(ก็มันทำงานเร็วกว่ากันมาก)
=> General-Purpose Computation Using Graphics Hardware
http://www.ThaiBuddy.com
ฟรี T<->E dictionary แค่ชี้ mouse
ผมผิดเองที่ใช้คำว่า CPU
ที่จริง CPU มันคือคอมทั้งเครื่อง แต่เดี๋ยวนี้ใช้แทนคำว่า Processor กันหมดแล้ว
จะ CPU GPU มันก็ processor กันทั้งนั้น
และ GPU มันก็เร็วกว่าแค่งานเฉพาะทางเท่านั้น เหมือนเอารถ 4WD มาแข่งกับ F1 ดูสนามแข่งก็รู้แล้วว่าใครจะชนะ
ถ้าจะบอกว่า
nvidia เอา CPU มาใส่ใน GPU (ผมใช้คำผิดๆคงไม่ว่ามัน เพราะว่ามันสื่อเข้าใจกว่า)
intel เอา GPU มาใส่ใน CPU
แล้วมันจะต่างกันตรงไหน???
CPU = Central Processing Unit
GPU = Graphics Processing Unit
CPU=central processing unit,GPU=graphic processing unit
มันมี processor ทั้งคู่แหละครับ
เพียง CPU ถูกออกให้เป็นงานแบบทั่วๆไป(general purpose)
ส่วน GPU ถูกออกแบบให้ประมวลผลทางด้านกราฟฟิคเป็นหลัก แต่ GPU จะมีความเร็ว/ความแรงมากกว่า CPU เยอะ(ลองดู bus/speed/memory/transistors) แต่ไม่ได้ถูกออกแบบสำหรับงานทั่วๆไป
แต่ก็มีคนนำ GPU ไปทำงานทั่วไป(ตาม link ที่ผม post ไว้) ซึ่งทำได้ดีซะด้วย(คนทำ CPU โดนแย่งตลาดไปบางส่วนแน่ๆ)
Nvidia คงไม่ทำ CPU , ส่วน Intel นั้นใช้ Core ของ PowerVR มาใส่ใน Chipset และ อาจอยู่ใน die เดียวกับ CPU..
ผมว่าประเด็นของข่าวนี้ น่าจะมาจากคำว่า “ชิปกราฟิกกำลังจะตาย” จึงมีการตอบโต้กันมากกว่า ผมว่าเป็นธรรมดาของ Nvidia ที่ต้องโต้กลับ และ ไม่ได้เป็นคำพูดที่แปลกเพราะมีแนวโน้มที่มีหน่วยประมวลแนวใหม่ๆมากขึ้น (งานนี้น่าจะเป็นการเล่นคำของ CPU/GPU ด้วย)
เดิมทีนึกว่าจะรวมกันซะอีก(ตอน AIT รวมไปอยู่ AMD)หรือเป็นแค่เกม?
http://www.ThaiBuddy.com
ฟรี T<->E dictionary แค่ชี้ mouse
CPU ไม่ใช่คอมทั้งเครื่องนะครับ(ข้างบนบอกความหมายไปแล้ว)
ส่วน CPU กับ GPU สองตัวนี้จะเรียกว่าเป็น Processor ไม่ผิดครับ แต่ทำงานคนละด้าน เหมือน ครูคณิต กับ ครูอังกฤษ เก่งคนละด้านกัน แต่ก็ยังเป็นครู
Priesdelly Blog
รอ amd ฟิวชั้นต่อไป ... ^^
samsung ใหญ่แค่ใหน ?
https://youtu.be/6Afpey7Eldo
NVIDIA เปิดประเด็นได้น่าสนใจมาก
ก็อย่างที่คุณ ThaiBuddy กล่าวไว้ สิ่งที่เราใช้ประโยชน์ทุกวันนี้ก็คือ "การประมวลผล"
CPU ทั้งของ Intel เอย, AMD เอย มันก็คือ "ตัวประมวลผล" ที่มีความสามารถในการ "ประมวลผล" นั่นเอง
สถาปัตยกรรม ARM ที่ใช้กันอยู่ในอุปกรณ์เคลื่อนที่ขนาดเล็กทั้งหลาย ก็มีความสามารถในการ "ประมวลผล" เช่นกัน
หาก Graphic Card มีความสามารถในการประมวลผลได้สูง ก็จะเป็นอะไรที่อันตรายที่สุดสำหรับ Intel
ความสามารถในการเล่นเกมในระดับความละเอียดสูงไปพร้อมๆกับคอยคุมงานของ OS
หรือแม้แต่นำความสามารถสูงๆนี้ มาใช้เพื่อคุมงานทางฝั่ง OS อย่างเดียว หรือแม้แต่นำไปใช้กับทางฝั่ง Server
สงครามนี้เป็นอะไรที่น่าติดตามอย่างมาก เพราะผู้บริโภคอย่างพวกเราได้ประโยชน์ไปเต็มๆ 555
แต่ว่า...ทางฝั่ง AMD จะอยู่เฉยอย่างนั้นหรือเนี่ย
ได้เทคโนโลยีของ ATi ทั้งที น่าจะใช้ให้คุ้มนะ
สามก๊กอีกแล้วละสิ
555
สงสัย nVidia เตรียมพัฒนา cpu รวมเข้ากับ vga คราวนี้เวลาการติดต่อระหว่าง
อุปกรณ์จะลดลงอย่างเห็นได้ชัด เผลอๆ แนวคิดนี้อาจจะถูกใจเกมเมอร์ทั้งหลายก็ได้นะเออ
เหมือนสามก๊กอ่ะนะผมว่า
Intel ==> วุยก๊ก ผู้นำดี,มีอำนาจ แต่ขาดกุนซือและขุนพลเจ๋งๆ
AMD ===> ง่อก๊ก ชัยภูมิดี ผู้นำก็โอเค(ออกแนวตั้งรับ) อย่างอื่นปานกลาง
nVidia ===> ผู้นำห่วย กุนซือ+ขุนพล ระดับพระกาฬ
Lastest Science News @Jusci.net
Lastest Science News @Jusci.net
อ่านข่าวนี้แล้วมีใครนึกถึงพวก x87 บ้าง
---------- iPAtS
iPAtS
โอ๊ะ ... คำถามวัดอายุหรือเปล่านี่
แต่ผมเกิดไม่ทันนะ ไม่รู้จัก มันคืออะไรหว่า //ฮาๆ :P
คุ้นๆมาก มันกำลังจะเป็นจริง ถ้าเป็นจริงพลิกเลยนะ เพราะว่าปัจจุบน Intel ประมวลผลทางคณิตศาสตร์ดีกว่าเพราะว่าพื้อนฐาน x87 ดีกว่า AMD แต่ที่นี้พื้นฐาน GPU ฝั่ง AMD เหนือกว่าเห็นๆ
เหอ เหอ math coprocessor เก๋าจริงๆ ครับ
หลังๆ nvidia เหมือนจะหักกับ intel เลยแฮะ
ก่อนหน้านี้ก็ให้ข่าวโปรโมท embedded platform ของตน (ที่ไปทำ chipset ให้ via เป็น EPIA mini-ITX รุ่นใหม่)
บอกว่า embedded platform ของตัวเองเหนือกว่าของ intel ที่ใช้ celeron (จำไม่ได้ว่าบอกว่ากี่เท่า แต่ถ้าจำไม่ผิดน่าจะบอกว่า 10 เท่า)
เลยทำให้พาลคิดว่า ต่อไปตูจะได้เห็น chipset nvidia สำหรับ intel ไหม
8200 ท่เพิ่งออกมาก็รองรับเฉพาะ AMD ส่วน nvidia version เขาว่ามาเดือนมิถุนายน
ถึงตอนนั้นคงจะรู้ว่า nvidia กล้าหักจริๆหรือเปล่า
CPU ไม่ใช่คอมทั้งเครื่องนะครับ
เพียงครู เค้าสอนเด็กแบบง่าย ๆ เรียกแบบเหมา ๆ เอา
แล้วก็ติดปากติดพันกันมาเป็นปกติ
มองง่าย ๆ เลยครับ
ถ้าใครเรียกคอมทั้งเครื่องว่า CPU แสดงว่าไม่ค่อยรู้เรื่อง (ส่วนใหญ่นะครับ)
ถ้าคุยกับพวกรู้เรื่อง ๆ จะเรียก Case มากกว่า (ไอกล่อง ๆ ที่ใส่ CPU นั่นแหล่ะ)
แต่บางครั้งผมคุยกับลุง ป้า น้า อา นี่ก็ cpu ไปแหละ บางครั้งเค้าได้ความรู้มาแบบนั้น แต่ถ้ามีเวลาค่อยอธิบายเพิ่มเติมทีหลัง แต่ส่วนใหญ่มักจะลืม หลัง ๆ เลยไม่ค่อยสนใจเท่าไหร่แล้ว เอาให้เข้าใจทั่วกันเป็นพอ
Ford AntiTrust’s Blog | PHP Hoffman Framework
เคยคิดมั้ยครับว่า เอ๊! บางที่ครูเค้าอาจจะสอนถูกแล้วก็ได้
เอ๊!พวกที่มั่นใจเรียกว่า case มาตลอดอาจจะผิดก็ได้
ผมถึงบอกแล้วไง คนทั่วไปเรียกผิดกันหมดแล้ว แถมไปบอกว่าคนที่เรียกถูกแล้วผิดอีกตั้งหาก เอาเข้าไป!
ผมก็ไม่เสียเวลามาเถียงเหมือนกันว่า CPU ไม่ใช่ processor ผมก็ยินดีเรียกผิดๆตามเพราะมันสื่อกันง่ายกว่า แต่ไหนๆพูดเรื่องนี้โดยตรงก็เอาซักหน่อยละกัน
ไปหาหลักฐานมาให้เลยนะ อันนี้เอามาจาก britannica นะครับ คงเชื่อถือได้นะ
central processing unit (CPU)
principal part of any digital computer system, generally composed of the main memory, control unit, and arithmetic-logic unit. It constitutes the physical heart of the entire computer system; to it is linked various peripheral equipment, including input/output devices and auxiliary storage units
(ไม่แปลนะครับ)
P.s.แล้วไอ้ข้างล่างเนี่ยทำไมต้องมาบอกว่า "ถ้าใครเรียกคอมทั้งเครื่องว่า CPU แสดงว่าไม่ค่อยรู้เรื่อง" เวลาเรา discuss เรื่องอะไรก็ตาม
ยกหลักฐาน ข้อมูล มาอ้างอิง ทำได้
อ้างเครดิตให้ตัวเอง เช่น ผมจบวิศวะคอมมา ทำได้
แต่การดิสเครดิตที่ตัวผู้พูดของอีกฝั่งเผื่อทำให้ความน่าเชื่อถือเค้าลดลง ไม่สมควรครับ
เรียกทั้งเครื่องว่า cpu ไม่ได้ไม่ค่อยรู้หรอกครับ บางทีอาจจะแก่ก็ได้ คนที่พอจะมีอายุหน่อยจะเรียกแบบนั้น บางคนก็คุยกับคนแบบนั้น (เช่นผมคุยกับพ่อ) ก็จะติดเรียกแบบนั้นเวลาคุยกับคนที่ไม่ค่อยรู้เรื่องคอม แต่ถ้าคุยกับ Geek เหมือนกันผมก็เรียกคอม เรียกเคส ซีพียูมันก็หมายถึง intel กับ amd แค่นั้นแหละ (สำหรับ desktop นะ via ไม่นับ ^^) เซนทรัลโพรเซสซิ่งมันก็บอกชัดเจนในความหมาย หน่วยประมวลผลกลาง ไม่ใช่หน่วยประมวลผลทั้งหมด หรือหน่วยประมวลผลรวม
โปรดอ่าน CPU
แล้วไอ้ Britannica ที่คุณบอกมาผมก็ไปค้นมาแล้ว ในนั้น Main memory ก็ไม่ได้อยู่ใน CPU แต่เขาบอกว่า Main Memory มัน linked กับ CPU
ข้างล่างนั้นตัดแปะมาจากเว็บ Britannica
in full central processing unit
Principal component of a digital computer, composed of a control unit, an instruction-decoding unit, and an arithmetic-logic unit.
The CPU is linked to main memory, peripheral equipment (including input/output devices), and storage units. ........ Larger computers may have two or more CPUs, in which case they are simply called “processors” because each is no longer a “central” unit. See also multiprocessing.
อยากรู้จริงๆคุณไปค้นมาจาก Britannica ที่ไหน เนื้อหาถึงได้ต่างกันขนาดนี้
ของผมเป็นอัน full ของคุณมาจาก concise นะครับ งงเหมือนกันครับว่าทำไมของ concise เนื้อหาขัดกันเอง
ส่วนของผมมาจาก link นี้ครับ บอก britannica ก็เอามาจริงๆครับ จะโกหกไปทำไม :)
http://www.britannica.com/eb/article-9022087
central processing unit (CPU)
principal part of any digital computer system,generally composed of the main memory, control unit, and arithmetic-logic unit. It constitutes the physical heart of the entire computer system; to it is linked various peripheral equipment, including input/output devices and auxiliary storage units
P.s. wiki ที่ให้มากำลังอ่านอยู่ครับ
P.s. พึ่งเห็นว่าอัน concise ตรง compose of ไม่มี main memory แหะ แล้วจะเชื่ออันไหนละ
ทั้ง instruction-decoding unit, control unit, และ arithmetic-logic unit (ALU) ก็อยู่ในส่วนประมวลผลนี่ครับ ทำไมถึงแปลว่ามันเป็นเครื่องทั้งเครื่องไปได้หรือครับ?
ส่วนที่พูดถึงว่า composed of the main memory นั้นน่าจะเป็นได้ได้ในบางกรณี หรือคอมพิวเตอร์สมัยแรกเริ่ม หรือไม่เขาก็กำลังหมายความถึง cache แต่ถ้าให้ถูกต้องน่าจะเป็น linked to มากกว่า เพราะไม่เช่นนั้นแล้วเราคงเรียก main memory ว่าส่วนประกอบของ CPU
ดูคำว่า memory ใน Britannica Online
ไม่รู้ว่าส่วนที่เหลือของ full มันเขียนต่อว่าอย่างไรบ้าง เพราะผมไม่มีบัญชีที่จะดูได้ทั้งหมดซะด้วย แต่ถ้ามีความขัดแย้งกันแบบนี้ผมก็ไม่ค่อยเชื่อถือมันเท่าไหร่นะครับ
PoomK
คิดว่า Main Memory คงเป็นตามที่คุณ ABZee บอกแหละครับ
สรุปแล้วยังไงๆ CPU ก็คือ Processor นั่นเองครับ ไม่ใช่เคส
จะง่ายกว่าไหม ถ้าจะยอมรับว่า cpu คือ processor ที่ intel , amd ผลิตมาแปะแหมะอยู่ในเครื่อง ส่วนไอ้ที่กดเปิดปิดเรียกว่าเคส ... ไม่ใช่คุณครูอาจจะสอนผิด ไม่ใช่เรียกตามกันมา แต่ในนี้มีแต่คนที่เรียกได้ว่า geek พอควร ไม่มีคำว่า "เพื่อความเข้าใจของคนทั่วไปที่ไม่เก่งคอมพิวเตอร์" เพราะส่วนใหญ่ที่มาคอมเมนต์ต่อๆนี่ก็ geek กันพอตัวทั้งนั้น
ผมว่าคนจบสายคอมแล้วยังเรียกเคสว่า CPU ก็แปลกๆอยู่นะ - -*
arthuran.net :: a tools
ถูก ภาษาเป็นแค่เครื่องมือสื่อสาร
ถ้าจะสื่อสารกับยูสเซอร์หรือคนที่ไม่ค่อยรู้เรื่องข้างใน
ก็ต้องใช้คำให้ถูก มิฉะนั้นท่านอาจเป็นฝ่ายมึนเอง
แม้แต่ britannica หรือ ดิคชันนารีก็ยังอาจเพี้ยนไปได้
เพียงเพราะคนกลุ่มใหญ่กว่าใช้อย่างนั้น
จะว่าไปสุดท้ายอาจจะรวมกันจริงๆก็ได้นะ
---
Khajochi Blog : It's not a Bug ... It's a Feature
แฟนพันธุ์แท้สตีฟจ็อบส์ | MacThai.com
AMD ก็แย่ซิ T_T
ที่เถียงกันมาทั้งหมดนี้เราก็อาจจะได้เพียงประหยัดค่าการ์ดจอเพิ่มหรือไม่ เท่านั้นเองมิใช่ฤๅครับใยสาธุชนท่านจึงจุดประเด็นจนเป็นเรื่องใหญ่กันไปได้เล่า
เสียน้อยเสียยาก เสียมากเสียง่าย มากกว่ามั้งนี่
ประหยัดค่าการ์ดจอ? อ้ะ... DirectX 12 ออกมาแล้ว จีพียูที่รวมไว้ในซีพียูไม่รองรับ ต้องอัพเกรดซะแล้ว
แต่เอ๊ะ... ซีพียูที่รองรับ DirectX 12 คนละซ็อกเก็ตใส่กะบอร์ดเราไม่ได้นี่ ต้องเปลี่ยนบอร์ดด้วยสิ
อ้าว... บอร์ดใหม่ใช้แรม DDR6 อย่างเดียว ไม่รับ DDR5 ของเราซะแล้ว ต้องซื้อเพิ่มอีก
งบบานปลายซะแล้น ... กรรม - -"
^
^
สมมุติเล่นๆนะ :P
ถ้ามันรวมจริงๆมันก็จะกลายเป็นมาตรฐานครับเหมือน x87 มีไหมที่ Framework ตัวใหม่ออกมาแล้ว Hardware ไม่ซัพพอร์ท
หรือมองอีกมุมครับ ตอนนี้ GPU ไปอยู่ใน NB ของ nVidia, ATI ตัว Topๆ แล้วนะ แต่ก่อนจะมีแค่ตัวราคาถูก เหตุผลนั้นก็คือเราไม่ได้เล่นเกมส์หรือใช้งาน GPU หนักๆตลอดเวลานี้ครับ งานหนักค่อยเอา Onboard มา SLI, Crossfire กับ Card ทีหลังซึ่งผลดีกว่าการ์ดเดี่ยวๆ งานเบาๆก็ Onboard รับไปเพื่อประหยัดพลังงาน
ดังนั้น On CPU ก็ต้องสามารถทำงานร่วมกับ Card ได้ครับ
555+ แหม... ผมก็สมมุติเล่นๆ น่า
ก็ในข่าวนี้ อินเทลประกาศว่า “ชิปกราฟิกกำลังจะตาย”
หากเป็นเช่นนั้น ก็ไม่เหลือการ์ดแยกออกมาแล้วสิ เอิ้กๆ
อ่า ก็จริงนะครับ
พึ่งสังเกตุว่า link ที่ผมใส่ไปมัน click ไม่ได้ ขออภัยด้วยครับ
General-Purpose Computation Using Graphics Hardware
เห็นประเด็นไป CPU
ผมเติม Microcontroller ให้ครับ เพื่อความสุกสนาน จะได้มีประเด็นคุยกันอีก :)
http://www.ThaiBuddy.com
ฟรี T<->E dictionary แค่ชี้ mouse
Intel บอก GPU จะหมดไปเพราะ CPU สามารถทำงานแทนได้ แต่ว่ามันอีกนานขนาดไหนหล่ะกว่าจะเร็วจนทำงานแทน GPU
์Nvidia บอกไม่ต้องการ CPU เร็วกว่านี้ผมว่าก็จริงนะ เพราะทุกวันนี้ก็เราพอแล้ว
สรุปผมว่า ยังไง CPU ก็ไม่มีวันตาย GPU อ่ะจะตายแต่เมื่อไหร่หล่ะ อีก 20 ปีมั้ง
GPU คงตายเมื่อ FPU ของ CPU เร็วกว่าได้ละมั้ง เอิ้กๆ
ขนาดเก่าๆ อย่าง Radeon X1900 XTX ต่อ CrossFire ยังได้เกิน 1 teraflop ไปแล้ว
ยังงี้เมื่อไร CPU จะตามทันละเนี่ย 555+
http://crave.cnet.co.uk/desktops/0,39029426,39195931,00.htm
ยกตัวอย่างข้ามค่ายไปหน่อย แต่หาข้อมูลตัวอื่นแบบมีแหล่งอ้างอิงไม่ได้นะ
พักๆนี้ Blognone เริ่มจะร้อนแรงแฮะ
ผมว่าดีนะ เปิดประเด็นให้มีการแลกเปลี่ยนความคิดเห็นกัน
แต่เหนืออื่นใดก็อยู่บนพื้นฐานของเหตุผลมาหักล้างกันนะคับ
อย่าเอาอารมณ์เป็นที่ตั้ง เด่วจะมาแนวๆพันทิป-ราชดำเนิน
555
เป็น เพราะ +, - รึปล่าว
คุยกันในบริบทของข่าว CPU กับ GPU
ดันมาเถียงกันเรื่อง CPU กับ Case - -"
กรรม...(ไม่มีแบ)
Rerng®IT
ถ้ารวมกันแล้วถูก ก็อยู่ลอด
ถ้ารวมกันแล้วแพง ก็คงยาก
ตอนนี้คนเน้นของถูก หรือไม่ก็ต้องไปขาย hi-end เลย
MyFri3nd.com - เว็บ social network ของคนไทย.
ผมว่า การรวม คือการทำให้เล็กลง น่าจะเป็นการก้าวหน้าของการพัฒนา ไปอีกขั้น
ตัว NVIDIA เองต่างหาก ต้องพัฒนา ไม่ไช่ทำแค่การ์ดจอ
ลองคิดดู อีกหน่อย cpu รวม ทุกอย่างไว้เหลือนิดเดียว เราอาจเห็นคอมพิวเตอร์ อยู่บนนาฬิกาข้อมือ และเวลาใช้คอม ก็แค่เปิดจอมอนิเตอร์ที่มีตัวรับwifi ในตัวเอง และคีย์บอรด+เมาส์ ที่พ่วงต่อจอ
เมื่อมีการแข่งขันจะทำให้เกิดการพัฒนา NVIDIA ควรสร้างcpu ของตัวเอง และเน้นโชว์การ์ดจอ แล้วแข่งกับทาง intel จะได้มี ผู้ผลิตcpu เพิ่มอีกราย ถ้าโต้ตอบแบบนี้เหมือนกับว่่า ยอมแพ้ไปแล้วครึ่งทาง
อนาคตเราจะได้เห็นคอมพิวเตอร์ที่กดปุ่มดูภาพในอากาศเหมือนในหนัง สักที (ยิ่งเล็กยื่งกินไฟน้อย)