วันอาทิตย์ที่ 12 มกราคม พ.ศ. 2563

ใช้ AI สู้การคุกคามออนไลน์

นักวิจัยจาก California Institute of Technology (Caltech) และ Stanford University ได้สาธิตให้เห็นว่าขั้นตอนวิธีการเรียนรู้ของเครื่อง (machine learning) สามารถติดตามการสนทนาบนสื่อสังคมออนไลน์ ซึ่งจะนำไปสู่ความสามารถในการตรวจสอบการรังแกกันออนไลน์ได้ ซึ่งวิธีใหม่นี้นักวิจัยบอกว่าจะดีกว่าวิธีเก่าที่ใช้การตรวจสอบจากเซ็ตของคำหลัก (key word) ที่สร้างเอาไว้แล้วก็ไม่ได้ปรับปรุง วิธีเก่าพยามจะแก้ปัญหานี้โดยใช้คนเข้ามาช่วยตรวจสอบด้วย ซึ่งไม่มีประสิทธิภาพ และคนแต่ละคนก็อาจมีความเห็นต่อคำแต่ละคำแตกต่างกันออกไป วิธีที่งานวิจัยนี้ใช้เรียกว่า GloVe (Global Vectors for Word Representation) ซึ่วใช้การคำนวนความคล้ายคลึงกันของความหมายของคำสองคำ โดยเมื่อเราเริ่มใช้คำหลักคำหนึ่ง ขั้นตอนวิธีนี้ก็จะเริ่มหาคำที่มีความสัมพันธ์กัน เพือนำไปสู่กลุ่มคำที่มีความสัมพันธ์กัน ในข่าวยกตัวอย่างว่า เมื่อค้นคำว่า "MeToo" ก็จะนำไปสู่ "SupportSurvivors," "ImWithHer," และ "NotSilent." แต่ GloVe ไม่ได้หยุดแค่หาคำที่สัมพันธ์กัน แต่ยังดูความสัมพันธ์ของการใช้คำเหล่านี้ในบริบทการสนทนาด้วย เพราะคำเดียวกันแต่เมื่อใช้สนทนาในเรื่องที่ต่างกัน ก็มีความสัมพัน์กับคำที่แตกต่างกันด้วย นักวิจัยคาดหวังว่าในที่สุดเราจะสามารถสร้างเครื่องมือที่จะใช้ต่อสู้กับการคุกคามออนไลน์ในรูปแบบต่าง ๆ ได้ 

อ่านข่าวเต็มได้ที่: Caltech 

เพิ่มเติมเสริมข่าว:

ใช้ขั้นตอนวิธีอะไร ก็ไม่สู้แก้แนวคิดในใจของคนเรา  

วันเสาร์ที่ 11 มกราคม พ.ศ. 2563

เครื่องมือที่ช่วยบอกว่าโปรแกรมจะรันได้เร็วแค่ไหน

ตัวแปลภาษาโปรแกรม (compiler)  ที่ใช้แปลภาษาโปรแกรมระดับสูงเป็นภาษาเครื่อง จะใช้ตัวแบบประสิทธิภาพ (perfromance model) ซึ่งรันโค้ดบนแบบจำลองของสถาปัตยกรรมของชิป ตัวแปลภาษาโปรแกรมจะใช้ข้อมูลที่ได้จากตัวแบบประสิทธิภาพมาสร้างโค้ดที่มีประสิทธิภาพในการทำงานมากที่สุด แต่ปัญหาคือในปัจจุบันตัวแบบประสิทธิภาพนั้นจะถูกสร้างจากผู้เชี่ยวชาญกลุ่มเล็ก ๆ เท่านั้น และก็มักจะไม่ค่อยได้ตรวจสอบอย่างเหมาะสม

เพื่อแก้ปัญหานี้นักวิจัยจาก MIT ได้พัฒนาเครื่องมือที่ใช้เทคนิคการเรียนรู้ของเครื่อง (machine learning) โดยตัวแบบที่สร้างขึ้นนี้สามารถทำนายผลการรันโค้ดบนชิปของอินเทล (Intel) ว่าจะรันได้เร็วแค่ไหนได้ดีกว่าตัวแบบประสิทธิภาพที่สร้างโดย (ผู้เชี่ยวชาญของ) อินเทลเอง นอกจากนี้เครื่องมือนี้ยังสามารถนำไปใช้เพื่อทำนายประสิทธิภาพของสถาปัตยกรรมชิปแบบอื่นได้โดยง่ายอีกด้วย โดยป้อนข้อมูลฝึกสอนที่ได้จากการรันโค้ดบนสถาปัตยกรรมนั้น ๆ ให้กับเครื่องมือที่พัฒนาขึ้น

อ่านข่าวเต็มได้ที่: MIT News

เพิ่มเติมเสริมข่าว

ผู้เชี่ยวชาญระดับไหนก็มีสิทธิถูกแทนที่ได้นะนี่
 

วันศุกร์ที่ 10 มกราคม พ.ศ. 2563

ปัญหา Y2K กลับมาอีกครั้ง เพราะความขี้เกียจ

คิดว่าพวกเราหลายคนคงจำปัญหา Y2K กันได้นะครับ ถ้าใครจำไม่ได้ก็คือปัญหาที่ตอนเราเปลี่ยนศตวรรษจากศตววรษที่ 20 (1900) มาเป็นศตวรรษที่ 21 (2000) ปัญหาก็คือเพื่อความประหยัดเนื้อที่ในการเก็บข้อมูล เราจึงเก็บข้อมูลวันที่ในศตวรรษที่ 20 โดยใช้แค่สองหลักสุดท้ายเช่น วันที่ 6 มีนาคม 1968 เราก็จะเก็บข้อมูลเป็น 06/03/68 โดยอนุมานเอาว่าเลขสองหลักข้างหน้าปีคือ 19 คราวนี้พอเข้าศตวรรษใหม่ 2000 มันก็เลยเกิดปัญหาครับ เพราะถ้าใช้การเก็บข้อมูลแบบเดิมปีต้องย้อนกลับมาเป็น 00 ใหม่ ซึ่งมันก็อาจเกิดปัญหากับบางโปรแกรมเพราะมันเท่ากับเซ็ตวันที่กลับไปเป็นปี 1900  เหตุผลที่ทำแบบนี้เพราะในช่วงนั้นฮาร์ดแวร์ของคอมพิวเตอร์ยังมีราคาแพงจึงต้องประหยัด และคนที่พัฒนาโปรแกรมในช่วงนั้นก็คงไม่คิดว่าโปรแกรมของตัวเอง และหลักการเก็บวันที่แบบนี้จะใช้งานมาจนเข้าศตวรรษใหม่ ซึ่งตอนนั้นก็ต้องแก้ปัญหากันซึ่งวิธีแก้ปัญหามีสองวิธีครับ คือเขียนโค้ดใหม่ขึ้นมาเลย กับใช้วิธีขยับหน้าต่างให้ช่วง 00-20 หมายถึงปี 2000 ถึง 2020 (ซึ่งเหตุผลว่าทำไมขยับได้ในช่วงแค่นี้ ขอไม่อธิบายแล้วกันนะครับ ใครอยากรู้คร่าว ๆ ลองไปอ่านในข่าวเต็มกัน หรือลองค้นดูเรื่องเก่า ๆ เกี่ยวกับ Y2K) และไม่น่าแปลกใจนะครับว่า 80% ของโปรแกรมที่ต้องแก้ไขเลือกใช้วิธีขยับหน้าต่างครับเพราะมันง่ายกว่า และตอนนี้ก็กลับมาเจอปัญหาเดิมครับ ในข่าวยกตัวอย่างระบบเก็บค่าจอดรถในนิวยอร์กก็ปฏิเสธไม่รับบัตรเครดิต เพราะวันที่มันย้อนกลับไปเป็นปี 1920 หรือโปรแกรมเกมมวยปล้ำ WWE 2K20 ก็เล่นไม่ได้ในวันที่ 1 มกรา 2020 ซึ่งผู้เล่นต้องดาวน์โหลดโปรแกรมแก้ไขจึงจะเล่นได้ต่อ ซึ่งตอนนี้ก็ต้องดูว่าการแก้ปัญหาจะยังใช้วิธีขยับหน้าต่างกันแบบเดิมอีกหรือเปล่า เพราะถ้าทำแบบเดิมอีกก็จะเจอปัญหานี้อีกทีในปี 2038 

อ่านข่าวเต็มได้ที่: NewScientist

เพิ่มเติมเสริมข่าว

การแก้ปัญหาอะไรก็ตามที่ทำแบบขอไปที เอาง่ายเข้าว่า หรือทำแบบซุกขยะไว้ใต้พรม ก็จะเกิดปัญหาตามมาไม่มีที่สิ้นสุดแบบนี้ แต่มองอีกแง่หนึ่งสิ่งที่ทำให้นักพัฒนาไม่อยากแก้โปรแกรมให้รองรับแต่ใช้วิธีเลื่อนหน้าต่างเอา ก็อาจเป็นเพราะวิธีการพัฒนาโปรแกรมสมัยก่อน ซึ่งอาจจะยังไม่เป็นโมดูลาร์มากนัก การแก้โปรแกรมส่วนหนึ่งอาจกระทบกับส่วนอื่น ยิ่งคนที่ต้องแก้อาจไม่ใช่คนที่เขียนโปรแกรมเองด้วย หรือต่อให้เป็นคนเขียนโปรแกรมเอง ถ้าผ่านไปสักพักหนึ่งแล้ว อาจไม่แน่ใจด้วยซ้ำว่าโค้ดโปแกรมส่วนนี้ตัวเองเขียนไปทำไม ในปัจจุบันอาจมีโปรแกรมบางโปรแกรม ที่มีโค้ดบางส่วนที่ไม่มีใครรู้ว่ามีเอาไว้ทำอะไร แต่ไม่มีใครกล้าลบออก เพราะกลัวว่าโปรแกรมอาจทำงานผิดพลาด :)

วันพฤหัสบดีที่ 9 มกราคม พ.ศ. 2563

หุ่นยนต์ส่งอาหารเปิดตัวแล้ว

บริษัท Starship Technology ได้พัฒนาหุ่นยนต์สำหรับส่งอาหารโดยในตอนนี้ได้เริ่มส่งอาหารที่ University of Texas at Dallas, University of Houston, และ George Mason University ในเวอร์จิเนีย บริษัทมีแผนที่จะขยายให้ได้ 100 มหาวิทยาลัยภายในสองปี เจ้าหุ่นตัวนี้มีรูปทรงสี่เหลี่ยมเหมือนคูลเลอร์ (cooler) มีล้อ 6 ล้อ ติดธงสีส้ม เพื่อให้เป็นที่สังเกตของทั้งรถและคน  (ดูรูปและวีดีโอได้จากข่าวเต็ม) การสั่งอาหารทำได้จากแอปในสมาร์ตโฟน ตามข่าวบอกว่าเจ้าหุ่นยนต์นี้เป็นคนดังของมหาวิทยาลัยเลยนะครับ

อ่านข่าวเต็มได้ที่: The Dallas Morning News

เพิ่มเติมเสริมข่าว:

ต่อไปคนส่ง Grab Food, Line Man ก็จะถูก disrupt ด้วยนะนี่

วันพุธที่ 8 มกราคม พ.ศ. 2563

คนเรามีแนวโน้มที่จะแชร์ข้อมูลส่วนตัวกับผู้ช่วยเสมือนมากขึ้น

ปัจจุบันมีผู้ช่วยเสมือนที่เราใช้ ๆ กันอยู่หลัก ๆ ก็คือ Alexa (ของอะแมซอน) Google Assistant และ Siri ซึ่งบริษัทที่อยู่เบื้องหลังของผู้ช่วยเสมือนเหล่านี้ ก็จะแอบเก็บข้อมูลที่เราพูดจาโต้ตอบกับผู้ช่วยเหล่านี้นำไปใช้ประโยชน์ นักวิจัยจาก University of Waterloo พบว่าตอนนี้มีแนวโน้มที่คนเราจะเชื่อถือและเปิดเผยเรื่องราวส่วนตัวกับผู้ช่วยเสมือนเหล่านี้มากขึ้น เพราะผู้ใช้เริ่มสร้างอวตาร (Avatar) ของผู้ช่วยเหล่านี้ขึ้น เช่นอายุประมาณเท่าไร หน้าตา และทรงผมเป็นยังไง เป็นต้น โดยนักวิจัยบอกว่าการที่คนเรามีภาพที่เป็นตัวตนกับผู้ช่วยเหล่านี้ แทนที่ึคิดว่ามันเป็นเพียงแค่เทคโนโลยี คือสาเหตุให้เราเปิดเผยข้อมูลส่วนตัวจากการพูดคุยกับผู้ช่วยเหล่านี้ (ซึ่งแน่นอนบริษัทที่อยู่เบื่องหลังพวกมันก็จะได้ข้อมูลไปด้วย)  โดยจากการสัมภาษณ์ผู้เข้าร่วมวิจัย  20 คน ชาย 10 หญิง 10 พบว่าบุคลิกของผู้ช่วยแต่ละตัวสรุปได้ดัวนี้  Siri ออกจะไม่ตรงไปตรงมา และดูเจ้าเล่ห์นิด ๆ Alexa จะจริงใจ และห่วงใยมากกว่า ในส่วนของรูปลักษณ์ Alexa จะเตี้ยกว่าอีกสองตัวนิดหน่อย แต่งตัวด้วยชุดลำลอง หรือชุดทำงานแบบลำลอง สีเข้ม หรือสีพื้น ๆ ถ้าอยากเห็นภาพของผู้ช่วยทั้งสามคลิกเข้าไปดูในข่าวเต็มได้เลยนะครับ

อ่านข่าวเต็มได้ที่: Waterloo News 

เพิ่มเติมเสริมข่าว:

คำโบราณที่ว่า อย่าไว้ใจทางอย่าวางใจคน คงไม่พอแล้วนะครับ คงอาจต้องเปลี่ยนเป็น

อย่าไว้ใจทาง อย่าวางใจคน อย่าหลงกลผู้ช่วยเสมือน