‘HELLO WORLD’ ในวันที่อัลกอริทึม (อาจจะ) ครองโลก

917 views
5 mins
July 2, 2025

          ในปี 2050 มนุษย์สร้าง ‘อัลกอริทึม’ ที่ทรงพลังขึ้นมาได้สำเร็จ มันสามารถแก้ปัญหา (เกือบ) ทุกอย่างให้เราได้ ตั้งแต่ประเภทอาหารที่ควรกินในแต่ละวัน การวางกลยุทธ์การแข่งขัน การจัดสรรงบประมาณว่าควรเทเงินไปที่กองทัพหรือระบบสาธารณสุข การรักษาและวินิจฉัยโรค การจับคู่แต่งงาน การป้องกันอาชญากรรม แม้กระทั่งการทำหน้าที่ผู้พิพากษาตัดสินผิด-ถูกแก่จำเลยรวมถึงจำนวนโทษที่เหมาะสม ฯลฯ

          โลกที่อำนาจในการใช้ดุลพินิจและการตัดสินใจจำนวนมากอยู่ในมืออัลกอริทึมที่ใช้ดุลพินิจและตัดสินใจได้ถูกต้อง คมชัด แม่นยำ และไร้อคติได้ดีกว่ามนุษย์

          คุณจะยอมรับโลกประเภทนี้ได้หรือไม่?

          ปี 2050 จะเป็นอย่างที่ผมจินตนาการหรือเปล่า ไม่รู้ แต่ปัจจุบันนี้ปัญหาหลายอย่างที่มนุษย์เผชิญ อัลกอริทึมเข้ามามีส่วนสำคัญอย่างมากในการแก้ปัญหา หนังสือ ‘HELLO WORLD’ ของนักคณิตศาสตร์อย่าง ฮันนาห์ ฟราย (Hannah Fry) คือการเข้าไปสำรวจความสัมพันธ์ที่เกิดขึ้นระหว่างมนุษย์กับอัลกอริทึมในปัจจุบันและแนวโน้มในอนาคตในมิติต่างๆ ที่มีความสำคัญ

‘HELLO WORLD’ ในวันที่อัลกอริทึม (อาจจะ) ครองโลก

          มันไม่ใช่หนังสือที่มอบบทพระเอก-ผู้ร้ายให้แก่มนุษย์หรืออัลกอริทึมฝ่ายใดฝ่ายหนึ่ง วาดภาพอนาคตแบบคนเหล็ก 2029 ที่จักรกลกับมนุษย์ทำสงครามกัน ฟรายให้มุมมองที่ค่อนข้างเป็นกลางและน่าสนใจในหลายประเด็น มนุษย์และอัลกอริทึมทำสิ่งที่ถูกต้องแม่นยำได้ ทำสิ่งที่ผิดพลาดได้ เพียงแต่ความผิดพลาดของอัลกอริทึมจำเป็นต้องย้อนกลับมาตรวจสอบมนุษย์ผู้สร้างมันขึ้นมาด้วย

          ฟรายให้เนื้อที่ไม่มากในการอธิบายว่าอัลกอริทึมคืออะไร (ผมเองก็เพิ่งเข้าใจ) แต่ทุ่มเทเนื้อหาส่วนใหญ่แก่การนำอัลกอริทึมมาใช้ในประเด็นสำคัญๆ ที่เกี่ยวข้องกับชีวิต คุณค่า ความเป็นส่วนตัว จนถึงอิสรภาพของคนคนหนึ่ง

          ผู้พิการส่วนหนึ่งในรัฐไอดาโฮ สหรัฐอเมริกา ถูกตัดงบช่วยเหลือทางการแพทย์ลงถึง 30 เปอร์เซ็นต์โดยไม่มีการแจ้งเตือนล่วงหน้า เปล่า รัฐไอดาโฮไม่ได้นำเงินที่ตัดออกไปซื้อเครื่องบินรบ หรือเรือดำน้ำ สำนักงานสาธารณสุขและสวัสดิการแห่งรัฐเพียงแค่ทำไปตาม ‘ซอฟต์แวร์คำนวณระดับการช่วยเหลือที่เหมาะสมสำหรับแต่ละคน’

          อัลกอริทึมที่ถูกเขียนเพื่อบริหารจัดการงบประมาณทำไมถึงตัดงบคนพิการ ถ้ามองกันแบบใช้หัวใจล้วนๆ และ dramatize มากๆ เราอาจได้คำตอบง่ายๆ ว่าเพราะเครื่องจักรไม่มีหัวใจ (มันก็ต้องเป็นอย่างนั้นอยู่แล้ว) เหตุการณ์ข้างต้นนำไปสู่การฟ้องร้อง มีการขอข้อมูลจากมลรัฐถึงสาเหตุของการตัดลดงบประมาณ ทว่า ทีม Medicaid ปฏิเสธการอธิบายวิธีการคำนวณโดยอ้างว่าตัวซอฟต์แวร์ที่ใช้เป็น ‘ความลับทางการค้า’

          ผู้พิพากษาในคดีนี้ไม่เห็นด้วยกับเหตุผลดังกล่าว ทำให้ทีม Medicaid จำใจเปิดเผยความลับของเครื่องมือชิ้นนี้และพบเรื่องน่าตกใจว่ามันเป็นเพียง Spreadsheets ในโปรแกรม Excel ธรรมดาๆ ที่คำนวณโดยอ้างอิงจากกรณีในอดีต ทว่า ข้อมูลกลับเต็มไปด้วยแมลง (bug) ‘ข้อบกพร่องทางสถิติพื้นฐานในโครงสร้างของสูตร’ ท้ายที่สุดศาลพิพากษาว่าการใช้เครื่องมือชุ่ยๆ ตัวนี้จนสร้างความเดือดร้อนให้ผู้คนจำนวนมากถือว่าขัดต่อรัฐธรรมนูญ

          ฟรายจี้ลงไปยังจุดเป็นตายของเรื่องนี้ว่า

          “มีความผิดพลาดของมนุษย์อยู่สองเรื่องที่ทำงานคู่ขนานกัน เรื่องแรกคือมีใครบางคนสร้างสเปรตชีตขยะนี้ขึ้นมา และเรื่องที่สองคือคนอื่นๆ กลับเชื่อใจมันอย่างไม่รู้ประสีประสา” (หน้า 34)

          26 กันยายน 1983 สัญญาเตือนภัยของโซเวียตดังขึ้น ดาวเทียมตรวจพบการยิงขีปนาวุธใส่รัสเซีย สตานิสลาฟ เปตรอฟ (Stanislav Petrov) ผู้คอยเฝ้าระวังระบบแจ้งเตือนนิวเคลียร์ล่วงหน้าต้องคิดอย่างหนักหน่วงและตัดสินใจอย่างยากลำบากว่าเขาควรแจ้งเรื่องนี้ให้ผู้บัญชาการทราบหรือไม่ เพื่อพาทั้งโลกเข้าสู่สงครามโลกครั้งที่ 3 หรือจะไม่แจ้งเตือนแล้วรอให้พระราชวังเครมลินหายไปจากแผนที่

          เปตรอฟชั่งใจว่าควรเชื่ออัลกอริทึมหรือไม่ เพราะการตรวจพบการยิงและจำนวนขีปนาวุธนั้นช่างไร้เหตุผล เขาเลือกที่จะรอ ก่อนจะพบว่าอัลกอริทึมทำงานผิดพลาด

          อัลกอริทึมที่สร้างขึ้นเพื่อป้องกันขีปนาวุธนิวเคลียร์ไม่ได้เขียนชุ่ยๆ ด้วย Excel แน่นอน แต่มันก็ทำงานผิดพลาดได้ เปตรอฟเป็นป้อมปราการสุดท้ายที่ยับยั้งสงครามนิวเคลียร์ ฟรายกล่าวว่า

          “การมีมนุษย์ผู้มีสิทธิคัดค้านและตรวจสอบคำแนะนำของอัลกอริทึมก่อนตัดสินใจนั้นเป็นวิธีเดียวที่มีเหตุผลในการหลีกเลี่ยงข้อผิดพลาด” (หน้า 37)

          อย่างไรก็ตาม เราอาจต้องเชื่อข้อสันนิษฐานจากนักคณิตศาสตร์อย่างฟรายว่า อัลกอริทึมทำงานได้แม่นยำกว่ามนุษย์ (ในกรณีที่มันถูกสร้างขึ้นอย่างประณีตรัดกุม) เพราะมันตัดสินใจอยู่บนพื้นฐานของเหตุผล การคำนวณ และความเป็นไปได้ ขณะที่มนุษย์มักใช้สัญชาตญาณในการตัดสินใจ ซึ่งบางครั้งก็ถูกเช่นในกรณีของเปตรอฟ แต่ส่วนใหญ่แล้ว…ผิด

          ดังนั้น เราควรมอบอำนาจการตัดสินใจให้กับใครระหว่างมนุษย์และอัลกอริทึม คือคำถามใหญ่คำถามแรกของหนังสือเล่มนี้

          แม้โดยหลักกฎหมายแล้วการประกันตัวในคดีอาญาเป็นสิทธิของผู้ต้องหาและจำเลย ถึงกระนั้น มันก็ยังขึ้นอยู่กับดุลพินิจของผู้พิพากษา เมื่อใดก็ตามที่เรามอบ ‘ดุลยพินิจ’ ให้ใครนั่นเท่ากับเรามอบอำนาจให้แก่ผู้นั้น กับกระบวนการยุติธรรมมันควรเป็นพื้นที่ต้องห้ามของอคติและความลำเอียง ซึ่งเราต่างก็รู้ว่ามนุษย์เป็นสิ่งมีชีวิตที่มีอคติและความลำเอียงเป็นพื้นฐาน ผู้พิพากษามิใช่ แอสเทรีย (Astraea) เทพีแห่งความยุติธรรมที่มือซ้ายถือตราชั่ง มือขวาถือดาบ และปิดคลุมดวงตาด้วยผ้าผืนหนาเพื่อไม่ต้องมองเห็นจำเลย แล้วตัดสินคดีอย่างเที่ยงตรงและเป็นธรรม

          ดังที่เรารู้กันดี มีการตัดสินคดีมากมายที่ยากจะพูดได้ว่ายุติธรรม ซึ่งฟรายก็หยิบยกมาเป็นตัวอย่างในหนังสือ “จากพื้นฐานคดีที่มีหลักฐานเหมือนกัน จำเลยอาจถูกตัดสินว่าไม่มีความผิดใดเลยหรืออาจถูกส่งเข้าคุกก็ได้ ขึ้นอยู่กับความโชคดี (หรือโชคร้าย) ว่าจะเจอผู้พิพากษาคนไหน” (หน้า 72)

          แต่เราปล่อยให้ความยุติธรรมเป็นเรื่องโชคไม่ได้ เราต้องการความคงเส้นคงวา ปัญหาน่าปวดใจที่ต้องแลกเพื่อให้ได้ความคงเส้นคงวาคือความยุติธรรมที่ถูกลดทอนไปเช่นกัน ฟรายยกตัวอย่างการขโมยของในห้างสรรพสินค้า คนหนึ่งเป็นขโมยมืออาชีพ อีกคนเพิ่งตกงาน ต้องการอาหารให้ครอบครัว และรู้สึกผิดต่อสิ่งที่ทำ ถ้าตัดสินให้ทั้งคู่ถูกลงโทษเหมือนกันเพราะกระทำผิดลักษณะเดียวกัน ไม่ว่าเราจะปล่อยผู้พิพากษาหรืออัลกอริทึมตัดสิน เราก็คงรู้สึกกระอักกระอ่วนและตั้งคำถามกับความยุติธรรมเหมือนๆ กัน

          อาจเป็นเรื่องยากเกินยอมรับถ้าปล่อยให้อัลกอริทึมทำหน้าที่นี้แทนผู้พิพากาษาในเวลานี้ (ส่วนอนาคตยังไม่มีใครรู้) แต่การใช้อัลกอริทึมเพื่อคาดการณ์ว่าควรให้สิทธิประกันตัวหรือไม่ จำเลยจะก่อเหตุซ้ำหรือไม่หากได้รับการปล่อยตัว กลับมีความแม่นยำกว่าดุลพินิจของผู้พิพากษา (อัลกอริทึมทำได้อย่างไร คุณต้องไปอ่านเองเพราะเป็นเรื่องทางคณิตศาสตร์ที่ยากเกินกว่าผมจะอธิบาย)

          แต่มันก็ไม่ง่ายแบบนั้น เพราะพบว่า ‘เครื่องจักรมีอคติ’ ในการเลือกปฏิบัติระหว่างคนผิวขาวและผิวดำ อัลกอริธึมคำนวณว่านักโทษผิวขาวมีความเสี่ยงต่ำที่จะทำความผิดซ้ำน้อยกว่าคนผิวดำ  2 เท่า และแน่นอนว่าบริษัทผู้สร้างอัลกอริทึมไม่ได้เขียนให้สีผิว เพศ ศาสนา หรือเชื้อชาติเป็นส่วนหนึ่งในการคิดคำนวณ แล้วมันเกิดอะไรขึ้น

          ฟรายเฉลยว่าอัลกอริทึมไม่ได้มีอคติ มันเป็นเพียงเครื่องจักรที่ถูกส่งต่ออคติมาอีกทอดจากสถิติอาชญากรรมในโลกความเป็นจริงที่เต็มไปด้วยอคติ ถ้าในโลกความเป็นจริงตำรวจจับคนผิวดำมากกว่าคนผิวขาว แล้วอัลกอริทึมคิดคำนวณจากฐานข้อมูลในอดีตที่เต็มไปด้วยอคติ ผลที่ได้จึงไม่น่าแปลกใจ แต่นี่ก็ไม่ใช่การแก้ต่างให้แก่เครื่องจักร เพราะความยุติธรรมไม่ต้องการให้อคติเป็นปัจจัยในการพิจารณาคดี

          ยังมีอีกหลายหัวข้อที่ฟรายนำเสนอในหนังสือ เช่น อาชญากรรม ศิลปะ การแพทย์ (ซึ่งงานนี้อัลกอริทึมทำหน้าที่ได้ค่อนข้างดี) เป็นต้น อย่างไรก็ตาม ผมเชื่อว่าคนส่วนใหญ่ยังทำใจได้ยากที่จะให้อัลกอริทึมหรือเครื่องจักรเข้ามากะเกณฑ์ชีวิตมากขนาดนั้น ทั้งที่มันมีผลไปแล้วและมากเสียด้วยในบางเรื่อง อย่างเช่นโฆษณาในโซเชียลมีเดียที่เหมือนกับว่ามันอ่านใจเราได้ว่าเรากำลังต้องการอะไร แล้วก็ส่งโฆษณาสินค้าและบริการนั้นขึ้นมาจนมีอิทธิพลต่อการตัดสินใจของเรา

          ฟราย (และเราทุกคน) ตระหนักดีว่ามนุษย์เต็มไปด้วยอคติและสัญชาตญาณของเราก็ผิดพลาดได้ง่าย ถึงกระนั้น Fry ก็ไม่ได้เสนอให้นำอัลกอริทึมเข้ามาแทนที่มนุษย์ แต่เธอเสนอให้เราเรียนรู้มากขึ้น ปรับตัวมากขึ้น ใช้ความเป็นมนุษย์ให้มากขึ้น เพื่อผสานพลังของเรากับอัลกอริทึมสร้างอนาคตที่ดีกว่าเดิม

          “อนาคตที่ฉันวาดหวัง อนาคตที่อัลกอริทึมเผด็จการก้าวร้าวที่เราพูดถึงตลอดหนังสือเล่มนี้จะกลายเป็นอดีต อนาคตที่เราไม่มองว่าเครื่องจักรเป็นผู้เชี่ยวชาญที่ปราศจากอคติ และหันมาปฏิบัติต่อมันแบบเดียวกับที่เราจะปฏิบัติกับแหล่งอำนาจอื่น ด้วยการตั้งคำถามต่อการตัดสินใจ สอดส่องแรงจูงใจ ตระหนักถึงอารมณ์ของเรา เรียกร้องให้รู้ว่าใครเป็นผู้ได้รับประโยชน์ เรียกร้องความรับผิดชอบต่อความผิดพลาดและไม่ยอมอ่อนข้อ ฉันคิดว่านี่คือกุญแจสู่อนาคตที่ผลลัพธ์ของอัลกอริทึมโดยรวมเป็นพลังเชิงบวกต่อสังคม ถูกต้องแล้วที่มันเป็นความรับผิดชอบซึ่งเราต้องแบกรับ เพราะมีสิ่งหนึ่งที่แน่นอนในยุคแห่งอัลกอริทึม นั่นคือมนุษย์ไม่เคยมีความสำคัญมากไปกว่าตอนนี้อีกแล้ว” (หน้า 235) ย่อหน้าสุดท้ายของหนังสือที่ฟรายฝากไว้

RELATED POST

แหล่งชุมนุมความคิดเรื่องพื้นที่สาธารณะเพื่อการเรียนรู้
และห้องสมุดกับการเปลี่ยนแปลงสังคม

                                                                                            

PDPA Icon

The KOMMON มีการใช้คุกกี้ เพื่อเก็บข้อมูลการใช้งานเว็บไซต์ไปวิเคราะห์และปรับปรุงการให้บริการที่ดียิ่งขึ้น คุณสามารถศึกษารายละเอียดได้ที่ นโยบายความเป็นส่วนตัว และสามารถจัดการความเป็นส่วนตัวเองได้ของคุณได้เองโดยคลิกที่ ตั้งค่า

Privacy Preferences

คุณสามารถเลือกการตั้งค่าคุกกี้โดยเปิด/ปิด คุกกี้ในแต่ละประเภทได้ตามความต้องการ ยกเว้น คุกกี้ที่จำเป็น

อนุญาตทั้งหมด
Manage Consent Preferences
  • คุกกี้ที่จำเป็น
    Always Active

    ประเภทของคุกกี้มีความจำเป็นสำหรับการทำงานของเว็บไซต์ เพื่อให้คุณสามารถใช้ได้อย่างเป็นปกติ และเข้าชมเว็บไซต์ คุณไม่สามารถปิดการทำงานของคุกกี้นี้ในระบบเว็บไซต์ของเราได้

  • คุกกี้สำหรับการวิเคราห์

    คุกกี้นี้เป็นการเก็บข้อมูลสาธารณะ สำหรับการวิเคราะห์ และเก็บสถิติการใช้งานเว็บภายในเว็บไซต์นี้เท่านั้น ไม่ได้เก็บข้อมูลส่วนตัวที่ไม่เป็นสาธารณะใดๆ ของผู้ใช้งาน

บันทึก