ในโลกยุคที่การประมวลผลข้อมูลจำนวนมากเริ่มนำปัญญาประดิษฐ์ หรือ AI (Artificial Intelligence) เข้ามาช่วยแบ่งเบาภาระให้กับมนุษย์มากขึ้น เราได้เห็นศักยภาพของ AI กันในหลายๆ ด้านแล้ว ใกล้ตัวที่สุดก็เช่น การจดจำใบหน้า อย่างที่ Facebook เขาแท็กรูปที่เราอัพโหลดได้ว่าอันไหนมีหน้าเรางี้ หรือ Google Photos ที่สามารถแยกรูปที่เราอัพโหลดขึ้นไปเป็นหมวดหมู่ต่างๆ ได้งี้ ไปจนถึงงานที่ซับซ้อน เช่น ใช้ AI ในการสรรหาบุคลากรมาทำงาน หรือแม้แต่การตัดสินใจลงทุนในตลาดหลักทรัพย์ อย่างที่หลายๆ ธนาคารในประเทศไทยเขาก็มีกองทุนที่บริหารโดย AI เป็นต้น
เหตุผลหลักๆ ที่เลือก AI มาใช้ในการช่วยตัดสินใจในเรื่องซับซ้อน ก็มักจะเป็น
- AI มันสามารถประมวลผลข้อมูลจำนวนมหาศาลได้อย่างรวดเร็ว สามารถตรวจจับรูปแบบ (Pattern) ของข้อมูลได้รวดเร็ว
- AI สามารถทำงานได้ทั้งวันทั้งคืนโดยไม่เหน็ดเหนื่อย และไม่เกิดความผิดพลาดแบบมนุษย์ (Human error)
- AI ไม่มีการลำเอียงแบบมนุษย์ การตัดสินใจเป็นไปตามกฎ-กติกาที่ถูกวางเอาไว้
แต่ในความเป็นจริง เราต้องไม่ลืมว่าการตัดสินใจใดๆ ของ AI นั้น มันเกิดจากการเรียนรู้ (Machine learning) จากข้อมูลที่ป้อนให้ ซึ่งมีทั้งแบบที่มนุษย์เป็นคนป้อนให้ (เช่น นักวิจัยป้อนข้อมูลการเล่นเกมโกะในรูปแบบต่างๆ จำนวนมากๆ ให้เรียนรู้) หรือมนุษย์ปล่อยให้ AI มันไปค้นคว้าหาเพิ่มมาเอง (เช่น นักวิจัยแค่ป้อนข้อมูลกติกาของเกมโกะให้ แล้วปล่อยให้ AI เล่นกับตัวเอง เพื่อเรียนรู้รูปแบบการเล่นเอง อย่างที่ AlphaGo Zero เขาทำ)

จุดสำคัญคือ AI มันเรียนรู้จาก “ข้อมูลที่ถูกป้อน” และมัน “ตัดสินใจ หรือ พิจารณาข้อมูล ตามอัลกอริธึ่ม” ที่มนุษย์ได้กำหนดให้ในตอนแรก ฉะนั้น แม้ว่า AI จะสามารถตัดสินใจอะไรต่อมิอะไรได้โดยปราศจากอคติในการตัดสินใจ แต่การตัดสินใจเหล่านั้น มันมีพื้นฐานมาจาก “ข้อมูล” และ “กฎ-กติกา” ที่ถูกกำหนดเอาไว้ให้
และไอ้สองสิ่งนี้แหละ ที่มันอาจมีอคติ และถ้าเกิดมันมีอคติแล้ว ผลของการตัดสินใจก็จะมีอคติตามไปด้วย เช่น หากมีการป้อนข้อมูลที่มีภาพของผู้หญิงทำครัว ทำงานบ้าน เข้าไปมากๆ ในขณะที่ภาพที่มีผู้ชายอยู่ ก็มีแต่พวกกีฬา ซ่อมบำรุง อะไรพวกนี้ มันก็จะมีโอกาสสูงที่ AI จะเรียนรู้ที่จะจับคู่เพศหญิงกับพวกงานบ้านหรือการทำครัว ส่วนเพศชายก็จะถูกจับคู่กับกีฬาหรืองานซ่อมบำรุง เป็นต้น ซึ่งอันนี้มีการศึกษาล่าสุด ที่ชี้ให้เห็นถึงอคติด้านเพศ ที่ถูกฝังเข้าไปในชุดข้อมูลของภาพถ่ายที่ถูกใช้เป็นข้อมูลสำหรับ Machine learning ทั้ง ImSitu ของมหาวิทยาลัยวอชิงตัน และ COCO ภายใต้ความร่วมมือกับ Microsoft กับ MightyAI และภายหลังได้รับการสนับสนุนร่วมจาก Facebook อีก
บัตรเครดิตของ Apple เองก็เคยมีปัญหาที่มีคนทักท้วงว่า ระบบดูจะมีความลำเอียงทางเพศ เพราะเพศชายดูจะได้เครดิตสูงกว่าเพศหญิง โดยชายชื่อ David Heinemeier Hansson อ้างว่าในขณะที่ภรรยาของเขามีคะแนนเครดิตดีกว่า แต่เขากลับได้วงเงินสูงกว่าภรรยาถึง 20 เท่าของ Credit limit
ข่าวดีก็คือ ปัจจุบันผู้ที่ทำงานด้าน AI และ Machine learning ต่างก็ตระหนักถึงปัญหาเรื่องอคติหรือความลำเอียงแล้ว แต่ทว่าปัญหานี้ไม่ใช่เรื่องง่ายๆ ที่จะแก้ไขกันได้ เพราะต้นเหตุของอคติหรือความลำเอียง มันอาจจะมาได้จากหลายแหล่ง ทั้งที่อาจจะเกิดจากความตั้งใจ หรือไม่ได้ตั้งใจแม้แต่น้อย นอกจากนี้ หากพยายามที่จะกำจัดอคติหรือความลำเอียงนั้นอย่างตั้งใจมากเกินไป มันก็อาจจะกลายเป็นการสร้าง “อคติอันใหม่” ให้เกิดขึ้นมาได้อีก และส่งผลต่อความแม่นยำของผลลัพธ์อยู่ดี
เช่นนั้นแล้ว สำหรับผม แม้อนาคตของ AI ยังสดใส แต่ในตอนนี้ งานตัดสินใจใดๆ ที่จะนำ AI มาใช้ แล้วมันจะส่งผลกระทบต่อชีวิตของมนุษย์ เช่น การวินิจฉัยโรค การตัดสินใจปล่อยสินเชื่อ หรือการตัดสินคดี ข้อมูลที่ได้จาก AI ไม่ควรจะเป็น “การตัดสินใจสุดท้าย” แต่ควรจะเป็นข้อมูลในการประกอบการพิจารณามากกว่า
แหล่งข้อมูลอ้างอิง
- Machines Taught by Photos Learn a Sexist View of Women
- Researchers Want Guardrails to Help Prevent Bias in AI
- Is Apple Card sexist? Goldman Sachs offers to review gender-bias claims
- AlphaGo Zero: Starting from scratch
- Bias in AI: A problem recognized but still unresolved
- What is bias in AI really, and why can’t AI neutralize it?