Cloudflare รายงานถึงการบล็อคการโจมตี DDoS ขนาดใหญ่ที่สุดที่เคยมีการรายงานต่อสาธารณะ แบนวิดท์ที่ใช้สูงถึง 3.8Tbps และอัตราการยิงสูงถึง 2.14 พันล้านครั้งต่อวินาที โดยรวมการยิงครั้งนี้กินเวลานาน 65 วินาที
การโจมตีครั้งนี้คนร้ายยิงเข้า UDP พอร์ตหนึ่ง โดยอาศัยกองทัพเราท์เตอร์ เข่น ASUS ที่เคยมีรายงานช่องโหว่ร้ายแรงสูง, MikroTik, ตลอดจนอุปกรณ์อื่น เช่น เครื่องบันทีกกล้องวงจรปิด
OpenAI ปล่อยโมเดลแปลงเสียงเป็นข้อความ whisper-large-v3-turbo
ปรับย่อโมเดลโดยลดชั้น decoder ลงจาก 32 ชั้นเหลือ 8 ชั้น ทำให้พารามิเตอร์เดิม 1,550 ล้านพารามิเตอร์เหลือเพียง 809 ล้านพารามิเตอร์เท่านั้น
หลังจากปรับย่อลงแล้ว ทีมงานนำข้อมูลฝึกของโมเดล large-v3
เดิมมาฝึกซ้ำอีกสองรอบแล้ววัดประสิทธิภาพรวม พบว่าโมเดลกลับไปมีคุณภาพค่อนข้างดีใกล้เคียงกับโมเดลต้นทาง ยกเว้นภาษาไทยและกวางตุ้งเท่านั้นที่ประสิทธิภาพลดลงชัดเจน ในกรณีชุดข้อมูล Common Voice นั้นอัตราคำผิดภาษาไทยสูงขึ้นเกือบ 4 เท่าตัว
หลังจาก Redis ประกาศเปลี่ยนสัญญาอนุญาตเมื่อต้นปีที่ผ่านมา ตอนนี้ก็มีหลายโครงการแยกโค้ดที่โอเพนซอร์สแบบ BSD มาพัฒนาต่อเอง โดยเดือนที่ผ่านมาโครงการ Valkey ของ Linux Foundation ก็ออกเวอร์ชั่น 8.0 มาแล้ว ขณะที่โครงการ Redis เดิมก็เตรียมออกเวอร์ชั่น 8.0 เหมือนกัน
ประเด็นสำคัญคือซอฟต์แวร์ทั้งสองตัวนั้นต่างกันอย่างมาก Redis 8.0 นั้นโชว์ความสามารถใหม่ๆ เช่น JSON, ข้อมูแบบ time series และการค้นหาแบบใหม่เช่น vector search เพิ่มเข้ามา โดยฟีเจอร์เหล่านี้เดิมเคยเป็นโมดูลแยกออกจากโครงการหลัก
OpenAI ปิดรอบการรับเงินลงทุนรอบใหม่ด้วยเงินลงทุน 6,600 ล้านดอลลาร์ หรือประมาณ 220,000 ล้านบาท มูลค่าบริษัทล่าสุดอยู่ที่ 157 พันล้านดอลลาร์หรือประมาณ 5.2 ล้านล้านบาท
ผู้ลงทุนเดิมอย่างไมโครซอฟท์และ NVIDIA ยังคงเพิ่มเงินลงทุนในรอบนี้ รวมถึงกองทุน venture capitals อย่าง Thrive Capital ที่ลงทุนก่อนหน้านี้แล้ว ขณะที่กองใหม่เข้ามาเพิ่มเติม เช่น SoftBank, Fidelity ที่หายไปคือแอปเปิลที่เคยแสดงความสนใจจะลงทุน โดยเงินลงทุนรอบนี้เป็นการลงทุนแบบตราสารหนี้แปลงสภาพ และจะแปลงกลายเป็นหุ้นต่อเมื่อบริษัทแปลงร่างให้กลายเป็นบริษัทแสวงหากำไรเต็มตัวสำเร็จ ไม่ถูกอั้นกำไรและถูกควบคุมโดยฝั่งมูลนิธิตามโครงสร้างเดิมอีกต่อไป
OpenAI ประกาศฟีเจอร์ฝั่งนักพัฒนาชุดใหญ่ โดยฟีเจอร์สำคัญคือการเปิด API รับข้อมูลเสียงโดยตรงเปิดทางสร้างแอปพลิเคชั่นคุยแบบธรรมชาติใน Advanced Voice Mode จากเดิมที่นักพัฒนานอก OpenAI ไม่สามารถทำแอปเหมือนกันได้
การรับเสียงจะสามารถใช้งานได้ทาง Realtime API ที่เชื่อมต่อกับเซิร์ฟเวอร์ผ่าน WebSocket แทน HTTP แบบเดิม แม้จะออกแบบมาเพื่อคุยเสียงเป็นหลักแต่ที่จริงก็ใช้คุยแชตข้อความปกติได้ พร้อมกันนี้ Chat API เดิมก็จะรองรับข้อมูลเสียงและโมเดล GPT-4o สามารถตอบกลับเป็นเสียงได้เหมือนกัน แม้จะไม่ตอบกลับทันทีเหมือน Realtime API
Raspberry Pi เปิดตัวกล้อง Raspberry Pi AI Camera กล้องที่สามารถรันโมเดลปัญญาประดิษฐ์ได้ในโมดูลโดยตรง ทำให้ใส่ฟีเจอร์ประมวลผลภาพได้โดยโหลดซีพียู หรือหาการ์ดเร่งความเร็วปัญญาประดิษฐ์มาใส่อีก
ตัวโมดูลพัฒนาร่วมกับโซนี่ที่ช่วยพัฒนาโมดูลและซอฟต์แวร์สำหรับแปลงโมเดลปัญญาประดิษฐ์เข้าไปรัน ตอนนี้รองรับโมเดลทั้ง TensorFlow และ PyTorch ภายในโมดูลมีชิป RP2040 ช่วยจัดการคำสั่งการรันโมเดล เบื้องต้นมีโมเดลที่แปลงมาให้แล้วจำนวนหนึ่ง รองรับงานสามประเภท ได้แก่ การจัดหมวดหมู่รูปภาพ, การตรวจจับวัตถุ, และการตรวจจับท่าทางบุคคล แม้ตัวกล้องจะมีความละเอียดสูงแต่โมเดลต่างๆ ก็มักทำงานที่ความละเอียดต่ำกว่า สูงสุดไม่เกิน 640x640 เท่านั้น
RHEL เปิดตัว RHEL AI แพลตฟอร์มสำหรับองค์กรที่ต้องการฝึกโมเดล generative AI, ปรับแต่ง, หรือรันโมเดล รูปแบบคืออิมเมจ RHEL ที่ใส่เครื่องมือมาพร้อมใช้งานแล้ว และจะได้รับการซัพพอร์ตจาก Red Hat
เครื่องมือที่ใส่เข้ามาในตัวได้แก่ โมเดล Granite ของ IBM เอง, InstructLab ชุดเครื่องมือพัฒนาแชตบอต, ไลบรารีสำหรับรันโมเดลปัญญาประดิษฐ์อื่นๆ ที่ระบุชื่อมาแล้วคือ PyTorch
ลูกค้าสามารถซื้อไลเซนส์ได้บนเว็บพอร์ทัลของ Red Hat เพื่อนำอิมเมจไปรันในเซิร์ฟเวอร์ของตัวเอง อิมเมจนี้สามารถใช้งานได้บน AWS และ IBM Cloud สำหรับ Azure และ Google Cloud จะเปิดให้ใช้งานภายในสิ้นปีนี้
Gavin Newsom ผู้ว่าการรัฐแคลิฟอร์เนียใช้สิทธิวีโต้กฎหมาย SB-1047 ที่ออกมาเพื่อควบคุมปัญญาประดิษฐ์ขนาดใหญ่ที่ฝึกด้วยต้นทุนเกิน 100 ล้านดอลลาร์สหรัฐฯ หลังจากนักวิชาการออกมาคัดค้าน เช่น Andrew Ng และ Fei Fei Li
Newsom ยอมรับว่ากฎหมายนี้ร่างขึ้นมาด้วยความตั้งใจดี แต่ให้เหตุผลที่วีโต้ว่ากฎหมายไม่ได้จำกัดที่การใช้งานว่าโมเดลปัญญาประดิษฐ์ถูกใช้งานในสภาพแวดล้อมเสี่ยงสูงหรือไม่จึงค่อยควบคุม แต่กลับควบคุมไปทั้งหมด
Cloudflare เขียนบล็อกอธิบายแนวคิดการให้บริการฟรีแบบไม่จำกัดแบนวิดท์ (unmetered) จนทุกวันนี้มีเว็บ 20% ในโลกให้บริการอยู่บน Cloudflare ว่าแนวทางนี้ทำให้บริษัทมีต้นทุนที่ถูกลงมาก และสามารถสร้างบริการใหม่ๆ ได้ดีขึ้น
ปกติแล้วผู้ให้บริการผ่านอินเทอร์เน็ตจะต้องซื้อการเชื่อมต่อผ่าน transit provider ที่คิดค่าใช้งาน แต่เนื่องจากเว็บจำนวนมากให้บริการผ่าน Cloudflare ทำให้มี ISP ทั่วโลกขอเชื่อมต่อตรง (peering) เข้ามา ทำให้เน็ตเวิร์คของ Cloudflare เป็นเน็ตเวิร์คที่มี peer มาที่สุดเน็ตเวิร์คหนึ่งของโลก โดยต้นทุนค่าทราฟิกนี้คิดเป็น 80% ของต้นทุนสินค้าทั้งหมดของบริษัท ตามมาด้วยค่าเซิร์ฟเวอร์, ค่าเช่าศูนย์ข้อมูล, และค่าบุคคลากรตามลำดับ
แหล่งข่าวไม่เปิดเผยตัวระบุกับ Reuters ว่า ByteDance บริษัทแม่ของ TikTok กำลังจะฝึกโมเดลปัญญาประดิษฐ์ด้วยชิป Huawei Ascend 910B เพิ่มเติม กระจายความเสี่ยงในการจัดหาชิป NVIDIA
ก่อนหน้านี้ ByteDance ก็ใช้ชิป Ascend 910B อยู่ก่อนแล้ว แต่ใช้งานรันโมเดลเป็นหลัก ไม่ได้ใช้ฝึกโมเดลที่ต้องการพลังประมวลผลหนักกว่า
ปัญหาอย่างหนึ่งคืออัตราการส่งมอบของ Ascend 910B ก็ไม่ดีนัก โดย ByteDance สั่งชิปไปแล้วกว่าแสนชุดแต่ส่งมอบได้สามหมื่นชุดเท่านั้น
ที่มา - Strait Times
PostgreSQL ออกเวอร์ชั่น 17 ตามรอบปีโดยปรับปรุงย่อยๆ หลายอย่าง ฟีเจอร์ที่ชัดเจนที่สุดสำหรับคนใช้งานคือความสามารถในการสำรองข้อมูลแบบ incremental ในตัว ทำให้กระบวนการสำรองข้อมูลทำงานได้เร็วขึ้นมาก ส่วนอื่นๆ นั้นเป็นการปรับปรุงประสิทธิภาพ และเพิ่มคำสั่งบางส่วน
ฟีเจอร์สำคัญในรอบนี้ เช่น
Cloudflare เปิดบริการ SQLite-in-DO บริการฐานข้อมูลตัวที่สองของบริษัทถัดจาก D1 ที่ใช้ SQLite เหมือนกัน แต่รอบนี้สร้างบริการขึ้นจาก Durable Objects (DO) ที่ปกติแล้วใช้เป็นสตอเรจเก็บค่า key/value เท่านั้น
ตัว SQLite จะรันบนเซิร์ฟเวอร์ DO โดยตรง ไลบรารีที่เรียกใช้ก็ออกแบบให้เรียกแบบ synchronous โดย Cloudflare พยายามออปติไมซ์ latency ในการเรียกใช้งานให้ต่ำ
Cloudflare ประกาศอัพเดตบริการ CDN ของตัวเองเพิ่มฟีเจอร์หลายอย่างพร้อมกัน เพื่อเร่งความเร็วการให้บริการเว็บให้ดีขึ้น ฟีเจอร์ที่น่าสนใจเช่น
Meta เปิดตัว Llama 3.2 โมเดล LLM เพิ่มรุ่นรองรับอินพุตเป็นภาพ ที่มีความสามารถระดับเดียวกับ GPT-4o-mini พร้อมกับโมเดลรุ่นเล็กขนาด 1B ที่ความสามารถใกล้เคียงโมเดลกลุ่มขนาดเล็กด้วยกัน
แนวทางการพัฒนา Llama 3.2 รุ่นรับภาพนั้น อาศัยการสร้าง image encoder แปลงข้อมูลเข้าไปให้กับโมเดลภาษาเดิม ระหว่างการฝึกช่วงแรกก็ฝึกเฉพาะ image encoder อย่างเดียว ไม่ปรับแก้ส่วนโมเดลภาษา เพื่อให้แน่ใจว่าความสามารถด้านภาษานั้นยังเท่าเดิมอยู่ จากนั้นฝึกความรู้ที่มีภาพประกอบเพิ่มเข้าไปภายหลัง และจบด้วยการฝึกด้านความปลอดภัยเพิ่มเติม โมเดลรุ่นรองรับภาพนั้นมีสองขนาด คือ 90B และ 11B โดยตัว 90B นั้นความสามารถเทียบเคียงกับ GPT-4o-mini ในหลายชุดทดสอบ
Cloudflare ประกาศอัพเดตเซิร์ฟเวอร์รุ่นที่ 12 หลังจากอัพเดตรุ่นที่ 11 ไปตั้งแต่ปี 2021 โดยรอบนี้ยังคงอยู่กับ AMD EPYC ต่อไป เลือกเป็น AMD EPYC 9684X Genoa-X
ที่น่าสนใจคือ Cloudflare เลือกสเปคคร่าว แล้วกำหนดรุ่นที่คัดตัวเป็น AMD ทั้งหมด ได้แก่ AMD EPYC 9654 Genoa, AMD EPYC 9754 Bergamo, และ AMD EPYC 9684X Genoa-X โดยทุกรุ่นถูกจำกัดสเปคความร้อนไม่เกิน 400W
NIST เปิดรับความเห็นร่างเอกสาร NIST SP-800-63B มาตรฐานการยืนยันตัวตนที่เคยอัพเดตไปเมื่อปี 2017 โดยรอบนี้มีจุดสำคัญคือการเพิ่มมาตรฐานความปลอดภัยของ Passkey ที่ใช้ล็อกอินโดยไม่ต้องการรหัสผ่าน และยังสามารถซิงก์ข้ามอุปกรณ์ได้
เอกสารเรียกการยืนยันตัวตนแบบนี้ว่า Syncable Authenticator พร้อมกำหนดแนวทางการพัฒนาว่าต้องใช้กระบวนการเข้ารหัสลับที่ได้รับการรับรอง, เก็บกุญแจลับในรูปแบบที่เข้ารหัสเสมอ, แม้จะซิงก์ผ่านคลาวด์ก็ต้องอ่านค่าได้โดยผู้ใช้เท่านั้น, กระบวนการเข้าถึงกุญแจต้องยืนยันตัวตนผู้ใช้ในระดับ AAL2 ขึ้นไป, และระบบต้องมีตัวเลือกห้ามซิงก์ข้ามอุปกรณ์ (non-exportability) ซึ่งจำเป็นสำหรับการยืนยันตัวตนระดับ AAL3
กูเกิลประกาศอัพเดตโมเดลภาษา Gemini ทั้งรุ่น Flash และรุ่น Pro กลายเป็นเวอร์ชั่น Gemini-1.5-Pro-002 และ Gemini-1.5-Flash-002 ความเปลี่ยนแปลงสำคัญคือทั้งสองโมเดลทำคะแนนทดสอบได้ดีขึ้นแทบทุกชุดทดสอบ โดย Gemini-1.5-Flash-002 นั้นทำคะแนนได้ดีขึ้นจนแซง Gemini-1.5-Pro-001 ไปหลายชุดทดสอบ
การอัพเดตรอบนี้ยังลดราคา Gemini Pro ลงทั้งอินพุตและเอาท์พุตลง พร้อมกับเพิ่มเพดานการใช้งานเป็น 2,000 RPM สำหรับ
กูเกิลยังรายงานการให้บริการว่าที่ผ่านมาอัตราการตอบของ Gemini Flash ดีขึ้นเรื่อยๆ จนแตะ 300 token/s แล้ว ขณะที่ latency ก็ค่อยๆ ลดลงจนเหลือ 300ms เท่านั้น
โมเดลเวอร์ชั่น 002 มีให้บริการแล้วใน AI Studio และ Vertex AI
Adam Meyers รองประธานอาวุโสของ CrowdStrike เตรียมเข้าให้ถ้อยแถลงต่ออนุกรรมาธิการความปลอดภัยไซเบอร์ และการป้องกันโครงสร้างพื้นฐาน (Cybersecurity and Infrastructure Protection) เพื่อกล่าวคำขออภัยต่อความผิดพลาดที่เกิดขึ้น
ตอนนี้เอกสารให้ถ้อยคำอัพโหลดขึ้นเว็บอนุกรรมาธิการแล้ว โดยขึ้นต้นด้วยการขออภัยอย่างสูง แต่ก็ยืนยันถึงความจำเป็นถึงการป้องกันการโจมตีที่พัฒนาการอย่างรวดเร็ว พร้อมกับชี้แจงถึงแนวทางการพัฒนาที่มีการปรับปรุงจนน่าเชื่อได้ว่าจะไม่มีความผิดพลาดแบบเดียวกันอีก
ธนาคารแห่งประเทศไทยประกาศปิดรับคำขอใบอนุญาตธนาคารไร้สาขา และเริ่มเข้าสู่กระบวนการพิจารณาให้ใบอนุญาตเป็นทางการ คาดว่าจะประกาศรายชื่อได้จริงกลางปี 2025
กระบวนการนี้ล่าช้าไปกว่าตอนที่ประกาศตอนแรกประมาณหนึ่งปี โดยหลังจากประกาศผลปีหน้า ผู้รับใบอนุญาตจะมีเวลาอีก 1 ปีเพื่อเปิดบริการจริง ทำให้น่าจะเห็นบริการนี้ในปี 2026
WP Engine ตอบโต้ Matt Mullenweg ผู้ก่อตั้ง WordPress ที่เพิ่งออกมาโจมตี WP Engine ว่าเป็นมะเร็งของโลก WordPress โดยใช้แนวทางส่งหนังสือขอให้หยุดการกระทำ (cease and desist) และให้ Mullenweg ออกมาถอนคำพูดตัวเองเสีย
WP Engine ระบุว่า Mark Davies ซีเอฟโอของ Automattic ขู่ก่อน Mullenweg ขึ้นพูดในงาน WordCamp โดยเรียกร้องให้ WP Engine ต้องจ่ายเงินเข้า Automattic ระดับสิบล้านดอลลาร์ต่อปี โดยระบุว่าเป็นค่าไลเซนส์เครื่องหมายการค้า WordPress
นอกจากการขู่ก่อนวันงาน WordCamp ตัว Mullenweg ยังส่งข้อความมาต่อเนื่องจนถึงหน้าเวที ให้ WP Engine ตกลงจ่ายค่าไลเซนส์
Mistral ผู้พัฒนาปัญญาประดิษฐ์ LLM จากฝรั่งเศสประกาศปรับราคาค่าใช้งาน API ผ่าน Le Plateforme ลง พร้อมกับเพิ่มแพ็กเกจใช้งานฟรีเข้ามา
โมเดลที่ลดราคามากที่สุด คือ Mistral Small และ Codestral ที่ลดราคาลงถึง 80% เหลือเพียง 0.2 ดอลลาร์ต่อล้านโทเค็นสำหรับอินพุตและ 0.6 ดอลลาร์ต่อล้านโทเค็นสำหรับเอาท์พุต แม้จะลดราคาแล้วก็ยังแพงกว่า Gemini Flash อยู่ประมาณ 1 เท่าตัวแม้ความสามารถใกล้เคียงกัน อย่างไรก็ดี Mistral Small มีตัวเลือกให้ดาวน์โหลดมาใช้งานในองค์กรได้
สำหรับการใช้งานแพ็กเกจฟรีนั้นยังจำกัดปริมาณการใช้งานที่ 1 request per second ทำให้เหมาะกับการทดสอบแอปพลิเคชั่นมากกว่าการใช้งานจริงจัง
ธนาคารสิงคโปร์เตรียมเริ่มบังคับการสแกนใบหน้าในธุรกรรมความเสี่ยงสูงแบบเดียวกับที่แอปธนาคารไทยมักใช้งานกันอยู่แล้ว อย่างไรก็ดีธนาคารจะยืนยันใบหน้าผ่านบริการ Singpass Face Verification (SFV) ที่พัฒนาโดยรัฐบาล
แนวทางนี้ต่างจากแอปธนาคารในไทยที่แต่ละธนาคารอิมพลีเมนต์ระบบยืนยันใบหน้าด้วยตัวเอง ขณะที่ Singpass Face Verification นั้นอาศัยบริการของรัฐบาลโดยตรง
เบื้องต้นธนาคารต่างๆ จะใช้ SFV เมื่อผู้ใช้สร้าง digital token (DT) ในแอปธนาคารที่กำลังมาแทน SMS แต่อาจจะมีธุรกรรมความเสี่ยงสูงอื่นๆ ต้องการ SFV เพิ่มเติมด้วย
ที่มา - MAS
ตำรวจจังหวัดคย็องกีในเกาหลีใต้รายงานถึงการจับกุมชายอายุในช่วง 20-30 ปีจำนวน 3 ราย ฐานเป็นผู้ขายภาพ/วิดีโอโป๊ ที่สร้างขึ้นจากเทคโนโลยี deepfake ในห้องแชต Telegram โดยเหยื่อของภาพเหล่านี้มีทั้งดาราและผู้เยาว์
ตำรวจระบุว่าชายทั้งสามเป็นผู้ดูแลห้องแชต Hapsabang ตั้งแต่พฤศจิกายน 2023 จนถึงมิถุนายน 2024 กระบวนการขายคือการจ่ายค่าสมาชิก 20,000-40,000 วอนเพื่อเข้าห้องแชต คาดว่ารายได้รวมจากการห้องแชตนี้เกิน 10 ล้านวอน โดยผู้ต้องสงสัยทั้งสามระบุว่าไม่ได้สร้างภาพขึ้นมาเอง แต่โหลดมาจากห้องแชตอื่นๆ มาขายต่ออีกที
Alibaba Cloud เปิดบริการ LLM ของตัวเองในตระกูล Qwen แต่เป็นเวอร์ชั่นไม่เปิดให้ดาวน์โหลดโมเดล ได้แก่ Qwen-Max, Qwen-Plus, และ Qwen-Turbo โดยชูความสามารถของ Qwen-Max ว่าใกล้เคียง Llama3.1-405B และ GPT-4o แล้ว โดยเอาชนะได้บางขุดทดสอบ เช่น MATH หรือ LiveCodeBenach
ราคาค่าใช้งาน Qwen-Max อยู่ที่ 10 ดอลลาร์ต่อล้านโทเค็นสำหรับอินพุต และ 30 ดอลลาร์ต่อล้านโทเค็นสำหรับเอาท์พุต แพงกว่า GPT-4o ประมาณเท่าตัว
สำหรับโมเดลอื่นๆ ที่เปิดตัวมาพร้อมกัน เช่น Tongyi Wanxiang โมเดลสร้างภาพและวิดีโอจากข้อความ, Qwen2-VL โมเดลที่รับภาพและวิดีโอ, AI Developer ตัวช่วยเขียนโปรแกรม
Alibaba Cloud เปิดตัวโมเดลปัญญาประดิษฐ์ Qwen เวอร์ชั่น 2.5 จุดเด่นของโมเดลเวอร์ชั่นนี้คือฝึกด้วยข้อมูลขนาดถึง 18 ล้านล้านโทเค็น รองรับ 29 ภาษารวมภาษาไทย โดยเปิดให้ใช้งานได้อิสระแทบทุกรุ่น
ตัวโมเดลรองรับอินพุต 128K token และตอบข้อมูลได้ 8K token ยกเว้นรุ่น 3B ลงไปจะรองรับอินพุต 32K token เท่านั้น
รุ่นใหญ่สุด Qwen2.5-72B ได้ผลทดสอบชนะ Llama3.1-70B แทบทุกการทดสอบขึ้นไปใกล้เคียง Llama3.1-405B แต่เวอร์ชั่น 72B แจกแบบ Qwen License ซึ่งจำกัดการใช้งานกับบริการที่ผู้ใช้เกิน 100 ล้านคนต่อเดือน