ระบบ autocomplete ในบริการค้นหาของ Google กลายเป็นประเด็นทางกฎหมายอีกครั้ง โดยคราวนี้ศาลประเทศฝรั่งเศสได้ตัดสินให้ Google จ่ายค่าเสียหาย* 50,000 ยูโรให้กับบริษัทประกัน Lyonnaise de Garantie เนื่องจากระบบ autocomplete ได้แนะนำคำว่า "escroc" (คนโกง) ต่อท้ายชื่อ
แน่นอนว่า Google ยังคงใช้เหตุผลเดิมในการปกป้องตนเองว่า คำที่แนะนำขึ้นมาโดย Google Suggest นั้นเกิดจากอัลกอริทึมอัตโนมัติตามความนิยมในการค้นหา แต่ศาลก็ระบุว่า บริษัทได้ติดต่อไปที่ Google และ Google France เกี่ยวกับประเด็นดังกล่าวหลายครั้งแต่ไม่เป็นผล
นอกจากจะจ่ายเงินค่าเสียหายแล้ว ศาลยังสั่งให้ Google นำคำแนะนำดังกล่าวออก และเผยแพร่คำตัดสินบนหน้าแรกของ Google.fr เป็นเวลาเจ็ดวัน
คำตัดสินนี้ก็ไปในแนวทางเดียวกับคำตัดสินก่อนหน้าทั้งในฝรั่งเศสและอิตาลี ที่ตัดสินให้ Google ต้องรับผิดชอบกับคำที่ขึ้นมาผ่านระบบ autocomplete เช่นเดียวกัน
ที่มา – Ars Technica ผ่าน Forbes, PC INpact ผ่าน Yahoo! Actualités
*ทั้ง Ars และ Forbes ใช้ข่าวต้นทางเดียวกันซึ่งใช้ภาษาอังกฤษว่า fine (ค่าปรับ) แต่เท่าที่ดูแล้วน่าจะเป็นค่าเสียหายมากกว่า จากข่าวของฝรั่งเศสก็ใช้คำว่า dommages et intérêts (ค่าเสียหาย)
Comments
ช่างดูไร้สาระที่สุด
สมควรแล้วที่ใช้ Escroc
ก็ไม่งี่เง่านะครับ
บริษัทที่ว่าก็บอกแล้วว่าได้ติดต่อไปหลายครั้งแล้ว
ผมว่ากรณีนี้นี่ นอกจากเสิร์จเอนจิ้นปากหมาเองแล้ว ทางกูเกิ้ลเองก็นิ่งนอนใจเกินเหตุ
เป็นปกติของกูเกิลที่มักจะเมินเฉยครับ
ปกติของ geek ส่วนใหญ่ป่าว
ไม่ทราบนะครับ
แต่มุมมองของผมคือ Google เป็นบริษัทใหญ่ ผมไม่ได้มองเป็น Geek ผมมองว่าเป็นบริษัท ซึ่งก็ควรฟังความต้องการของลูกค้า
Google อาจจะบอกว่า ฐานลูกค้าฉันเยอะ ฉันดูแลไม่ทั่วถึง บลาๆๆๆ
โดนฟ้องก็ควรแล้วครับ (มีความหมั่นไส้ส่วนตัวเล็กน้อย)
ในข่าวไม่ได้บอกว่าบริษัทนี้เป็นลูกค้าครับ แล้ว google ก็ไม่ได้บอกด้วยว่าดูแลไม่ทั่วถึง (ต้นฉบับก็ไม่มีบอก)
google บอกแค่ว่ามาจาก algorithm น่าจะหมายความว่ามีคน ค้นด้วยคำนี้
คือชื่อบริษัทแล้วก็ต่อด้วย crook แล้วมันมากพอจน algorithm คิดว่าสำคัญจนเอามาแนะนำ ก็แค่นั้น
ไม่ครับ ผมหมายถึงกรณีของผมเองครับ
เหมือนว่า Suggestion มันมาจากผลการค้นหาของผู้ใช้ ยิ่งใช้มาก มันก็โผล่มาเองนะครับ
แต่ทำไม ไม่ลบ เมื่อมีการแจ้ง? (หลายครั้งด้วย)
ผมว่า Google ตอบคำถามนี้ไม่ได้ จึงต้องแพ้คดี ครับ
ประเด็นเรื่องติดต่อแล้วเงียบนี้ ทำให้นึกถึงตอนที่แจ้งโปรแกรมเสื่อมๆ บน Android market แล้วก็เงียบหายไป
หรือว่ากูเกิลอยากให้มีโปรแกรมแบบนั้นไว้เยอะๆ ก็ไม่รู้
อัติโนมัติ => อัตโนมัติ
ของไทย ......
ก็เหมือนบริษัทประกันครับ Google ไม่ได้ผิดนะ เพราะผล Suggest มาจากการค้นของผู้ใช้ที่ถี่มากๆ ประเด็นคือมันจะไม่มีมูลที่เกิดโดยไม่มีเหตุ และเหตุมาจากตัวบริษัทประกันหรือตัวคนนั้นๆ เอง
ขนาดค้นคำว่าไทย คำแรกที่เจอคือ "ไทย ซาอุ" แล้วผลการค้นหาก็ตามนั้นลองไปค้นกันดู มันแสดงของมัน ตัว Google Suggest เป็นแค่กระจกที่สะท้อนออกมา
ให้ลบสถิติใน Google Suggest ก็คงลบได้ แต่ลบไปเดี๋ยวก็งอกมาอีก แล้วจะได้อะไร ต่อให้บล็อกการแสดงผลไปเลย ก็เท่ากับตัว(บริษัทประกัน/คนในผลข้างบน/ประเทศสารขัณ)โกหกตัวเอง และโกหกกับคนทุกคนที่ใช้ Google
มันไม่ง่ายเลยที่จะทำ GIF ให้มีขนาดน้อยกว่า 20kB
จริงอยู่ที่ Suggest เป็นแค่กระจกที่สะท้อนออกมา
แต่คำต่อท้ายก็เป็นแค่คำที่ผู้ใช้ค้นหาบ่อย แต่ไม่ได้แปลว่านั่นจะเป็นเรื่องจริง หรือเท็จ
คนที่ค้นหาคำว่า "ยิ่งลักษณ์" ก็อาจจะไม่ได้สนใจว่าโง่ หรือฉลาด
แต่ทุกครั้งที่ค้นคำว่า "ยิ่งลักษณ์" มันก็ขึ้นคำว่าโง่ ต่อท้ายให้เห็นเสียทุกครั้งไป
ผมจึงมองว่า google ชี้นำให้ผู้ใช้จดจำคำว่า "ยิ่งลักษณ์ โง่" (เหมือนยัดเยียดนิดๆ)
ปล.ทางแก้ก็คือ ควรจะแสดง Suggest ก็ต่อเมื่อคำค้นยังไม่ครบประโยคเท่านั้น
มันจะเป็นการยัดเยียดถ้ามันขึ้นมานานแล้วครับ อันนี้จริง แต่การจะทำให้ขึ้นนี้สิยาก ให้มองว่าจริงหรือเท็จผมไม่รู้นะ แต่ลองคิดว่า มาจากการค้นหาของ "คนหลายคน" คำว่าคนหลายคนนี้คือ ต่างสถานที่ ต่างIP ต่างภูมิภาค นั้นคือจำนวณคนกลุ่มมากสนใจเรื่องนี้พร้อมกันโดยไม่ได้นัดหมาย ตัวจำนวนคนค้นใน Google ที่จะขึ้น Suggest ผมตีว่าไม่ตำกว่าหลักล้านต่อเดือนเป็นขั้นต่ำ เพราะไม่งั้นนักทำ SEO หลายคนคงดีใจ เพราะคงได้ทราฟิคมาจากการพยายามปั่นชื่อเว็บเข้าไปอยู่ใน Suggest ของเว็บดังๆ
ผมอยากบอกว่า Suggest มันไม่ได้นึกอยากให้ขึ้นมันก็ขึ้นได้ง่ายๆ นะครับ ไม่รวมปัจจัยอื่นๆ เช่น การindex การที่keywordไปโผล่ตามrelated sites รวมถึงตัวคนใช้เองด้วย ของผมอันแรกขึ้น sanook qq ของบางท่านอาจขึ้น sanook horoscope แทน เป็นต้น
อยากชี้ประเด็นว่าคำนี้ครั้งแรกโผล่มาได้ไง เหมือนว่าวครับ ตอนชักครั้งแรกจะขึ้นยาก ต้องอาศัยลม แต่พอติดลมแล้ว คนชักจะเอาสายป่านไปผูกทิ้งไว้ไหนก็ได้ เพราะมันติดลมบนไปแล้ว
-EDIT- ขอแก้คำบางส่วนลบการยกตัวอย่าง ใช้สมมุติยังไงก็ไม่เหมาะ
มันไม่ง่ายเลยที่จะทำ GIF ให้มีขนาดน้อยกว่า 20kB
เสริมอีกนิดครับ การยัดเยียดที่ว่ามันไม่ได้อยู่ถาวรครับ สมมุติตอนนี้ค้น รัฐบาล จะเจอ
น้ำท่วม/ยิ่งลักษณ์/หมายถึง/รถค้นแรก
อันนี้เป็นสถานการณ์ปัจจุบันทั้งนั้นเลยครับ (ไม่รวม หมายถึง ที่น่าจะเป็นคนค้นไปทำรายงาน) มันไม่ขึ้นทักษิณที่เป็นข้อมูลเก่า(น่าจะดังแต่กลับไม่ติด แปลกดี) ไม่ขึ้นปฏิวัติที่ตอนนี้ยังไม่เกิดอีกรอบ ไม่ขึ้นทำงานช้าเพราะสรยุทธทำงานแทนหมด อะไรแบบนั้น
ข้อมูลใน Suggest น่าอนุมานได้ว่าเป็นข้อมูลที่มีความเป็นปัจจุบันด้วยครับ
มันไม่ง่ายเลยที่จะทำ GIF ให้มีขนาดน้อยกว่า 20kB
+1
แล้วถ้าเปลี่ยน suggest เป็นผลการค้นหาแบบย่ออัติโนมัติแทน (โชว์ผลด้านล่างช่อง search) จะหลีกเลี่ยงได้มั้ยครับ
เป็นคนตรงไปตรงมามันไม่ดีตรงนี้แหละ ;-)
ฟังชั้นนี้ผมโครตเบื่อเลย. ทำมาเป็นฉลาดกว่ากรู
รอให้ขึ้นชื่อตัวเองมั่งจะได้ไปฟ้องเอาตัง
ผมว่าผลตัดสินสมเหตุสมผลดีนะครับ
จะว่าไปตามความจริงบริษัทเขามีความเสียหายอยู่นะด้านความน่าเชื่อถือ สำหรับผู้ที่มาสืบค้นแล้ว ถ้าไม่รู้จักสิ่งนั้นดีพอแต่มีคำต่อท้ายที่ไม่ดีตามมา ย่อมต้องคาดคะเนไปในทางที่เสียหายจากสิ่งที่เชื่อมโยงกันก่อนอยู่แล้ว ผมว่าเป็นตัวเองสมมติค้นหาแล้วเจอชื่อตัวเองจากนั้นเจอคำว่า เลว ชั่ว โกง ต่อท้ายคุณจะไม่สะดุดบ้างหรือ อย่างน้อยๆต้องฉุนบ้างแหละ โดยเฉพาะด้านธุรกิจด้วยแล้วภาพลักษณ์เป็นสิ่งที่ต้องคำนึงถึงเป็นอย่างมาก
จริงๆพวกคำที่มีความหมายเชิงลบในลักษณะตัวบุคคลนี่มันก็มีอยู่ไม่กี่คำในแต่ละภาษา อย่างมากผมให้ร้อยคำเลย ไปไล่เปิดพจนานุกรมแล้วจดมาก็ยังได้ สิ่งที่กูเกิ้ลควรทำคือเอาคำเหล่านั้นไปกรองออกจากคำแนะนำซะก็จบแล้ว เป็นการป้องกันปัญหาฟ้องร้องในอนาคตได้หมด
มันไม่ใช่ว่าถ้าอากู๋ไม่แนะนำแล้วคนทั่วไปเขาจะพิมพ์เองไม่ได้หรอกนะ เพียงแค่ว่าอากู๋ควรรู้จักป้องกันตัวเองด้วยการไม่แนะนำอะไรที่มันจะย้อนศรมาปักเข่าตัวเองแบบนี้ แล้วฟีเจอร์นี้จะแฮปปี้สำหรับทุกคน