ข้อมูลทำให้ AI มีระบบการคิดที่อคติได้หรือไม่?

AI  หรือปัญญาประดิษฐ์ในปัจจุบัน คือ ระบบโครงข่ายประสาท (Neural Network) ของหุ่นยนต์ ที่เรียนรู้สิ่งต่างๆจากข้อมูล และคัดกรองผลลัพธ์ออกมา

 

AI มีความสามารถในการทำนายอนาคต ด้วยการวิเคราะห์ข้อมูลจำนวนมหาศาล ซึ่งสามารถนำไปใช้ในการคาดการณ์การลงทุนในตลาดหุ้น หรือคำนวนความเสี่ยงในการปล่อยกู้ หรือการทำประกัน

แต่นั่นคือจุดที่น่ากังวล เมื่อ AI ต้องประเมินมนุษย์ ด้วยข้อมูลมหาศาลที่เราป้อนให้ AI เราไม่สามารถมั่นใจได้ว่าข้อมูลเหล่านั้นจะไม่ทำให้ปัญญาประดิษฐ์ของเรามีระบบการคิดที่เป็นอคติ

ยกตัวอย่างเช่น หากในชุดข้อมูลในการปล่อยกู้ของธนาคารมีสถิติที่ว่า ผู้ขอกู้ชาวเอเชียมีอัตราก่อให้เกิดหนี้เสียมากกว่าผู้ขอกู้ชาวยุโรป  ข้อมูลเช่นนี้จะทำให้ปัญญาประดิษฐ์มีอคติในการปล่อยกู้ให้คนเอเชียหรือไม่ 

รูปภาพจาก  https://www.isd.co.th/

ปัจจุบัน AI ก็เริ่มถูกนำมาใช้ในการช่วยประเมินเรื่องต่างๆที่เกี่ยวกับผู้คน เช่น การคัดเลือกผู้สมัครงาน
จากใบสมัครที่ส่งมากว่าหลายหมื่นชุด การประเมินความเสี่ยงในการทำประกัน และกรณีอื่นๆ อีกมาก

ความกังวัลเรื่องนี้ยิ่งมีนัยยะสำคัญมากขึ้นไปอีก เมื่อบริษัทองค์กรต่างๆ เริ่มปรับตัวสู่การเป็น Data-Driven Organization หรือองค์กรที่ขับเคลื่อนโดยข้อมูล ใช้ข้อมูลในการตัดสินใจสิ่งต่างๆ ซึ่งแม้ข้อมูลจะเป็นตัวแทนของความจริงได้อย่างแม่นยำ แต่เราก็ไม่รู้เลยว่าข้อมูลเช่นนั้นกำลังทำให้เรามีอคติอยู่หรือไม่

รูปภาพจาก  https://techsauce.co/

 

ปัญญาประดิษฐ์ทำหน้าที่เป็นแค่ภาพสะท้อนของข้อมูลอันมหาศาลที่ทับซ้อนกัน เราปฏิเสธไม่ได้ว่ามันอาจมีข้อเท็จจริงว่าคนเชื้อชาติหนึ่ง มีแนวโน้มที่จะชำระหนี้ตรงเวลามากกว่าอีกชนชาติหนึ่ง

แต่ปัญหาที่แท้จริงมันอาจเป็นวิธีการที่เรารวบรวมข้อมูลไว้ก็ได้ ที่ AI มีอคติกับเชื้อชาติได้ เพราะเราแบ่งคนโดยเชื้อชาติ และ AI จะมีอคติทางเพศได้ หากเราแบ่งคนโดยเพศ (ซึ่งปัจจุบันเพศก็มีความซับซ้อนกว่าแค่ ชาย – หญิง) AI มีอคติได้แค่ในสิ่งที่เรารู้วิธีสร้างอคติกับมัน และเลือกจะแบ่งแยกหมวดหมู่ของคนไว้

เมื่อวันนั้นมาถึง เราไม่อาจรู้ได้ว่า AI จะมีอคติ และเลือกปฏิบัติไหม แต่สิ่งหนึ่งที่เราทำได้ในวันนี้ คือการเรียนรู้ที่จะไม่สร้างให้เกิดอคติ และการแบ่งแยกในผู้คน

 

Credit By  : Future Trends

Comments are closed.