24 ตุลาคม 2024

การวิจัยใหม่ระบุจุดอ่อนขั้นพื้นฐานของ AI ที่ยังห่างชั้นกับมนุษย์

นักวิจัยจากมหาวิทยาลัยโคเปนเฮเกนกลายเป็นคนแรกในโลกที่พิสูจน์ทางคณิตศาสตร์ว่า นอกเหนือจากปัญหาง่ายๆ ที่เราใช้ AI มาลองทำในปัจจุบันแล้ว แทบเป็นไปไม่ได้เลยที่จะพัฒนาอัลกอริธึมสำหรับ AI ที่จะมีเสถียรภาพตลอดกาล ถ้าไม่ได้รับการพัฒนาให้มากขึ้นไปกว่านี้

ChatGPT, BARD, CoPilot, Dall-E2 และเทคโนโลยีการเรียนรู้ของเครื่องคอมพิวเตอร์ ที่เราเรียกกันว่า ปัญญาประดิษฐ์ หรือ AI (Artificial Intelligent) นั้นกำลังได้รับความนิยมเพิ่มขึ้นอย่างมากมาย อย่างไรก็ตาม แม้แต่อัลกอริธึมที่ล้ำหน้าที่สุดก็ยังต้องเผชิญกับข้อจำกัด นักวิจัยจากมหาวิทยาลัยโคเปนเฮเกนได้ทำการค้นพบที่ก้าวล้ำ โดยแสดงให้เห็นในทางคณิตศาสตร์ว่า นอกเหนือจากปัญหาพื้นฐานแล้ว แทบเป็นไปไม่ได้ที่จะพัฒนาอัลกอริธึม AI ที่เสถียรภาพอยู่เสมอ (ไม่ผิดพลาด) การวิจัยนี้สามารถปูทางสำหรับการปรับปรุง โปรโตคอล(กระบวนการ) การทดสอบสำหรับอัลกอริธึมของ AI ในอนาคต โดยเขาทำให้เราเห็นถึงความแตกต่างโดยธรรมชาติระหว่างการประมวลผลของเครื่องจักร (AI) และความฉลาดของสมองมนุษย์ โดยบทความทางวิทยาศาสตร์ที่อธิบายผลลัพธ์นี้ได้รับการอนุมัติให้ตีพิมพ์ในการประชุมระดับนานาชาติชั้นนำด้านวิทยาการคอมพิวเตอร์เชิงทฤษฎี

ความแตกต่างระหว่าง AI กับสมองมนุษย์

แม้ในปัจจุบัน AI ที่ใช้ตีความภาพสแกนทางการแพทย์ อาจจะสามารถทำงานได้แม่นยำและละเอียดกว่าแพทย์ สามารถแปลภาษาต่างประเทศได้เก่งและเร็วกว่าเรา  และในไม่ช้ามันอาจจะสามารถขับรถได้อย่างปลอดภัยมากกว่ามนุษย์ อย่างไรก็ตาม แม้แต่อัลกอริธึมที่ดีที่สุดก็ยังมีจุดอ่อน ทีมวิจัยจากภาควิชาวิทยาการคอมพิวเตอร์ มหาวิทยาลัยโคเปนเฮเกน พยายามเปิดเผยข้อมูลเหล่านี้ออกมาให้เราเห็นได้ชัดขึ้น ซึ่งผมว่าน่าสนใจทีเดียว

ยกตัวอย่างกรณีของรถยนต์อัตโนมัติ ที่มีระบบ AI ที่ใช้ในการแปรความหมายหรืออ่านป้ายจราจร ถ้าเป็นป้ายปกติที่มันถูกสอนมา มันก็จะจำได้อย่างแน่นอนไม่มีผิดเพี้ยน และรู้ว่าควรทำอย่างไร แต่ถ้ามีใครอุตริดันไปติดสติกเกอร์ หรือมีเด็กแว้น หรือสถาบันใดไปพ้นสีสเปรลงบนป้ายนั้น สำหรับสมองมนุษย์แบบเรา เราก็จะไม่ใส่ใจสิ่งที่พ่นหรือบังอยู่ แต่จะประเมินว่าสิ่งที่อยู่หลังสิ่งกีดขวางเหล่านั้นคืออะไร และเข้าใจมันได้เอง แต่สำหรับเครื่องจักรอย่าง AI อาจถูกหลอกให้เข้าใจผิดได้ง่ายเนื่องจากป้ายนี้แตกต่างจากที่ฝึกไว้ และอาจตีความผิดเป็นคนละเรื่องไปเลยก็เป็นได้

ศาสตราจารย์ Amir Yehudayoff หัวหน้ากลุ่มวิจัยกล่าวว่า “เราต้องการให้อัลกอริธึมมีเสถียรภาพในแง่ที่ว่าหากอินพุตมีการเปลี่ยนแปลงเล็กน้อยเอาต์พุตจะยังคงเหมือนเดิม ชีวิตจริงโดยเฉพาะเรื่องที่เกี่ยวข้องกับเสียงทุกชนิดที่มนุษย์ได้ยิน เราแยกเสียงและเลือกฟังได้ ในขณะที่เครื่องจักรอาจสับสนได้

จากคำพูดของ Prof. Amir Yehudayoff นี่ผมก็พอจะสรุปให้เห็นภาพมากขึ้นอีกนิด เช่น บางทีเวลาเราใส่ใจรับฟังเรื่องอะไรอยู่อย่างจดจ่อ แม้จะมีเสียอะไรรบกวนเข้ามาระหว่างนั้น บางทีสมองเราเลือกที่จะไม่รับรู้หรือประมวลผล คือเข้าหูซ้ายทะลุหูขวา ออกไปโดยเราไม่สนใจ และไม่รับรู้เสียงรบกวนเหล่านั้นเลย เราจะเลือกรับรู้ในสิ่งที่เราจดจ่ออยู่เท่านั้น แต่สำหรับ เครื่องจักรอย่าง AI มันทำไม่ได้ มีเสียงเข้ามา 10 เสียงพร้อมกัน พูดกันคนละเรื่อง มันก็อาจจะเกิดอาการเอ๋อได้ ยกเว้นกรณีที่เราพูดสลับกันช้าๆ แล้วให้มันประมวลผล หรือบันทึกการประชุม แล้วมาเขียนรายงานการประชุม อันนี้ปัจจุบัน CoPilot ของ Microsoft ก็บันทึกเสียงและเขียนรายงานการ ประชุมแทนเราได้แล้ว แต่ถ้าเราเถียงกันวุ่นวายโขมงโฉงเฉง พูดพร้อมๆกันในที่ประชุมผมเชื่อว่า เจ้า AI ก็คงงง และไม่รู้จะบันทึกการประชุมว่าอะไร

จุดอ่อนจากการแปลภาษาในการสนทนา

นักวิจัยกลุ่มนี้ถือเป็นกลุ่มแรกในโลก ที่พยายามร่วมกับนักวิจัยจากประเทศอื่นๆ เพื่อพยายามพิสูจน์ในทางคณิตศาสตร์ว่านอกเหนือจากปัญหาง่ายๆ ที่เราใช้ AI ทำงานให้เราได้แล้ว มันแทบเป็นไปไม่ได้ที่จะสร้างอัลกอริธึมสำหรับ Machine Learning ที่จะมีเสถียรภาพตลอดไป บทความทางวิทยาศาสตร์ที่อธิบายผลลัพธ์นี้ได้รับการอนุมัติให้ตีพิมพ์ในการประชุมนานาชาติชั้นนำด้านวิทยาการคอมพิวเตอร์เชิงทฤษฎี Foundations of Computer Science (FOCS)

Prof. Amir Yehudayoff ได้กล่าวว่า “แม้เขาจะยังไม่ได้ทำงานวิจัยโดยตรงกับแอปพลิเคชันของรถยนต์ขับขี่อัตโนมัติ แต่ถึงกระนั้น ดูเหมือนว่าปัญหานี้จะซับซ้อนเกินกว่าที่อัลกอริธึมจะมีเสถียรภาพอยู่เสมอ” พร้อมเสริมว่าสิ่งนี้ไม่ได้หมายความถึงผลกระทบที่สำคัญที่เกี่ยวข้องกับการพัฒนารถยนต์อัตโนมัติเพียงอย่างเดียว

เขาบอกต่ออีกว่า “หากความผิดพลาดของอัลกอริธึมเกิดขึ้นในสถานการณ์ที่ไม่เลวร้าย และเกิดขึ้นไม่บ่อยนัก สิ่งนี้อาจเป็นที่ยอมรับได้ แต่ถ้าเป็นเช่นนั้นภายใต้สถานการณ์คับขัน และเกิดขึ้นบ่อยครั้ง ก็จะถือเป็นข่าวร้าย

นอกจากนั้น Prof. Amir Yehudayoff ยังอธิบายต่อว่า อุตสาหกรรมไม่สามารถใช้บทความทางวิทยาศาสตร์เพื่อระบุจุดบกพร่องในอัลกอริทึมได้ และนี่ไม่ใช่เจตนา ที่ต้องการบอกว่า อัลกอริทึมของใครมีปัญหา แกอธิบายเพิ่มว่า

“เรากำลังพัฒนาภาษากลางของนักวิจัยที่จะใช้ในการหารือเกี่ยวกับจุดอ่อนในอัลกอริธึม ของ Machine Learning สิ่งนี้อาจนำไปสู่การพัฒนาแนวทางที่อธิบายว่าควรทดสอบอัลกอริทึมอย่างไร ก่อนออกมาใช้จริงๆในงานที่ต้องการความถูกต้องสูง และในระยะยาว สิ่งนี้อาจนำไปสู่การพัฒนาอัลกอริธึมที่ดีขึ้นและมีเสถียรภาพมากขึ้นอีกครั้ง”

เมื่อความปลอดภัยทางดิจิทัล อาจไม่มีอยู่จริง

นักวิจัยกลุ่มเดียวกันได้ พยายามเอาวิธีการทดสอบอัลกอริธึมทางคณิตศาสตร์ ไปใช้สำหรับการทดสอบอัลกอริธึมของระบบปกป้องความเป็นส่วนตัวทางดิจิทัล หรือป้องกันข้อมูลของเราหลุดรั่วออกไปสู่สาธารณะ

Prof.Amir Yehudayoff กล่าวว่า “บริษัทบางแห่งอาจอ้างว่าได้พัฒนาโซลูชั่นที่ปลอดภัยสำหรับการปกป้องความเป็นส่วนตัวได้ แต่มีสิ่งที่ต้องทราบคือ ประการแรก วิธีการของเราอาจช่วยยืนยันว่าโซลูชันไม่สามารถมีความปลอดภัยได้อย่างสมบูรณ์ ประการที่สอง จะสามารถระบุจุดอ่อนได้ด้วย”

อย่างไรก็ตาม ประการแรกและสำคัญที่สุด บทความทางวิทยาศาสตร์มีส่วนทำให้เกิดทฤษฎี โดยเฉพาะอย่างยิ่งเนื้อหาทางคณิตศาสตร์ในรูปแบบใหม่ๆ เขากล่าวเสริมว่า “เราเข้าใจโดยสัญชาตญาณว่าอัลกอริธึมที่เสถียรควรทำงานได้เกือบเหมือนเดิมเมื่อเมื่อได้รับสัญญาณรบกวนที่เขามาในจำนวนเล็กน้อย เช่นเดียวกับป้ายถนนที่มีสติกเกอร์ติดอยู่ หรือมีใครมาพ่นสีสเปรไว้ แต่ในฐานะนักวิทยาศาสตร์คอมพิวเตอร์เชิงทฤษฎี เราต้องการคำจำกัดความที่ชัดเจน เราจะต้องสามารถอธิบายปัญหาเป็นภาษาคณิตศาสตร์ได้ อัลกอริธึมจะต้องสามารถทนต่อสัญญาณรบกวนได้มากเพียงใด และเอาต์พุต(ผลลัพธ์)ใหม่ที่ได้รับการรบกวน ควรอยู่ใกล้กับเอาต์พุต(ผลลัพธ์) ดั้งเดิมเพียงใด หากเราต้องการยอมรับอัลกอริธึมให้เสถียร นี่คือสิ่งที่เราได้เสนอคำตอบไว้”

สิ่งสำคัญที่ต้องคำนึงถึงคือข้อจำกัด

บทความทางวิทยาศาสตร์เรื่องนี้ได้รับความสนใจอย่างมากจากเพื่อนร่วมงานในโลกวิทยาศาสตร์คอมพิวเตอร์เชิงทฤษฎี แต่ไม่ใช่จากอุตสาหกรรมเทคโนโลยี อย่างน้อยก็ยังไม่มี เพราะก็อย่างว่านะครับ เขาขายของไปแล้ว จะมาบอกว่าเขาผิดพลาด หรือมีโอกาสผิดพลาด มันก็จะกระทบกับยอดขายทันที

มีสิ่งที่ Amir Yehudayoff พูดไว้น่าคิดคือ เมื่อคุณใช้ AI คุณควรจะรู้ว่าสิ่งที่คุณใช้นั้น บางเรื่องมันยังไม่มีทฤษฎีรองรับนะ! และบางที มันก็อาจจะหาทฤษฎีมาอธิบายได้ยากขึ้นเรื่อยๆ หรือแม้แต่อธิบายมันด้วยทางทฤษฎีไม่ได้เลย ยกตัวอย่างที่เห็นได้ชัดจาก AI Graphic ที่สร้างขึ้นมาจากการป้อนคำสั่งเข้าไป มันออกมาทะลุจินตนาการของคนสั่งไปด้วยซ้ำ และ AI มันสร้างภาพนั้นขึ้นมาเอง มันก็ยังไม่รู้ว่าสิ่งที่มันสร้างขึ้นมานั้น สามารถเกิดขึ้นจริงๆในโลกได้หรือไม่

ที่เราเห็นในวันนี้คือ Machine Learning ยังคงก้าวหน้าอย่างรวดเร็ว และสิ่งสำคัญคือต้องจำไว้ว่าแม้แต่โซลูชันที่ประสบความสำเร็จอย่างมากในโลกแห่งความเป็นจริงก็ยังมีข้อจำกัด บางครั้งเครื่องจักรอาจดูเหมือนสามารถคิดได้ แต่ท้ายที่สุดแล้ว พวกมันไม่มีสติปัญญาของมนุษย์ นี่เป็นสิ่งสำคัญที่ต้องจำไว้ Reference: AI’s Achilles Heel: New Research Pinpoints Fundamental Weaknesses (scitechdaily.com)

โดย ดร.เอกรินทร์ วาสนาส่ง

ใส่ความเห็น

อีเมลของคุณจะไม่แสดงให้คนอื่นเห็น ช่องข้อมูลจำเป็นถูกทำเครื่องหมาย *