เจมส์ คาเมรอน (James Cameron) ผู้สร้างภาพยนตร์แฟรนไชส์เรื่อง Terminator จินตนาการถึงปัญญาประดิษฐ์ (Artificial Intelligence) หรือ AI ที่ชื่อว่า Skynet มันคิด (?) จนได้ข้อสรุปว่าสิ่งมีชีวิตที่เป็นภัยต่อโลกใบนี้คือมนุษย์ เกิดเป็นสงครามระหว่างหุ่นยนต์กับมนุษย์ในที่สุด Terminator สร้างความกังวลอยู่เหมือนกันว่ามันจะเกิดขึ้นจริงในอนาคตอันใกล้ (หรืออันไกล)
สำหรับผู้ใช้ทั่วไปอย่างเรา เรื่องนี้คงไม่ใช่ปัญหาที่เราต้องกังวล
ประเด็นที่ควรกังวลกว่าคือ AI กับสิ่งที่เราเรียกว่า ความรู้และการเรียนรู้ เพราะ ณ เวลานี้ ChatGPT หรือ Gemini และโปรแกรมชื่ออื่นๆ กำลังพลิกโฉมการเรียนรู้ การค้นหาข้อมูลหรือการทำการบ้านของมนุษย์ ด้วยพลังแห่งการประมวลผลอันมหาศาลของมันสามารถแก้โจทย์คณิตศาสตร์หรือเขียนรายงานวิชาประวัติศาสตร์ให้เราได้ทั้งเล่มภายในเวลาสั้นๆ
แล้วผู้เรียนและผู้สอนจะอยู่ตรงไหน อยู่อย่างไรในกระบวนการเรียนรู้ที่ AI มีบทบาทสำคัญ อีกทั้งเราก็ไม่สามารถนำมันออกไปจากการศึกษาได้อีกแล้ว
‘The KOMMON’ พูดคุยกับ รองศาสตราจารย์ ดร.ศิรประภา ชวะนะญาณ อาจารย์จากภาควิชาปรัชญา คณะอักษรศาสตร์ จุฬาลงกรณ์มหาวิทยาลัย ผู้สนใจด้านญาณวิทยาที่เชื่อมโยงกับความเป็นไปของสังคม เธอไม่ปฏิเสธ AI ไม่สนับสนุนให้ต่อต้าน แต่ควรใช้มันอย่างเท่าทันในฐานะที่เรา-ผู้ใช้เป็นผู้ควบคุม AI …และควบคุมตัวเราเอง ไม่ใช่ในทางตรงกันข้าม
ศิรประภากล่าวว่าในกระบวนการเรียนรู้ที่มี AI เข้ามาแทรกแซง การปรับตัวของผู้สอนและผู้เรียนเป็นสิ่งสำคัญ เพื่อไม่ให้ AI ลดพลังการคิด วิเคราะห์ วิพากษ์ของผู้เรียน ขณะเดียวกันก็ต้องรู้เท่าทัน ‘อคติ’ ของ AI ด้วย
ใช่แล้ว คุณอ่านไม่ผิด AI ก็มีอคติได้ เพราะมันถูกสร้างโดยมนุษย์ เราใช้ AI เพื่อเพิ่มความเท่าเทียมในสังคม้ แต่มันก็สามารถผลิตซ้ำและถ่ายทอดอคติได้เช่นเดียวกัน หากคุณเชื่อทุกอย่างที่ AI ให้คำตอบ หรือคำตอบนั้นมันตรงกับความเชื่อเดิมของคุณ
การตรวจสอบและตั้งคำถาม จึงเป็นสิ่งสำคัญที่สุดในยุคที่ AI เป็นส่วนหนึ่งของกระบวนการเรียนรู้

AI คิดได้หรือไม่
AI คิดได้ไหม เป็นคำถามปรัชญาที่ใหญ่มาก มันขึ้นอยู่กับว่าคิดคืออะไร AI คิดได้ไหม คิดได้เหมือนมนุษย์ไหม มันมีเลเวลอยู่เหมือนกัน คิดในแง่ว่ามันประมวลผล มีสิ่งหนึ่งให้และมันหาคำตอบให้ มันก็เหมือนจะคิดได้นะ แต่ถ้าปรับคำถามว่ามันคิดได้แบบเราไหม คือมนุษย์คิดได้และ AI คิด อันนี้คำถามยากเลย บางคนอาจจะบอกว่า ถ้าตามนิยามที่เขาถกเถียงกัน แค่ว่ามันตอบโต้ได้ มันเหมือนคุยกับคนแล้วก็คือผ่านเกณฑ์แล้วว่าคิดเหมือนคน
แต่บางคนก็บอกว่าการที่มันตอบโต้เหมือนคิดได้ ก็ไม่ได้แปลว่ามันคิดได้ อันนี้ต้องโยงตัวอย่างไปยังเรื่องห้องภาษาจีน มันจะมีตัวอย่างการอ้างเหตุผลหนึ่งที่ตั้งคําถามว่า คอมพิวเตอร์คิดได้ไหม ก็คือลองจินตนาการว่ามีห้องหนึ่ง ข้างในนั้นมีคนที่ไม่รู้ภาษาจีนอยู่ แล้วข้างนอกห้องก็ไม่รู้ว่าข้างในห้องมีใคร มีอะไรอยู่ ก็มาส่งคําถามเป็นภาษาจีนเข้าไปในห้อง แล้วคนในห้องเขาก็มีคู่มือที่ละเอียดมากเลยว่าถ้าได้ภาษาจีนตัวอย่างนี้จะต้องตอบว่าอะไร จนกระทั่งคนในห้องเขาก็ตอบจนคนนอกห้องรู้สึกว่านี่คนจีน ตอบได้หมดเลยเหมือนเข้าใจคําถาม
คำถามคือ จริงๆ แล้วคนที่อยู่ในห้องเข้าใจภาษาจีนแบบที่คนจีนเข้าใจหรือเปล่า ประเด็นก็คือว่ามันดูเหมือนไม่เข้าใจ เขาแค่ทำตามคู่มือ ก็เลยวนกลับมาว่าแล้ว AI เป็นอย่างนั้นหรือเปล่า คนที่พูดเรื่องห้องภาษาจีน คือ จอห์น เซิร์ล (John Searle) แล้ว AI เป็นแบบนั้นหรือเปล่า ตอบได้ แต่ไม่รู้ว่าตัวเองตอบอะไร ยิ่ง Generative AI รู้ว่ามีคำนี้แล้วจะตอบอะไรต่อ มันตอบเหมือนมันฉลาดมากๆ มันเหมือนห้องภาษาจีนไหม คำถามนี้ขึ้นอยู่กับนิยามคำว่าคิด มันเป็นประเด็นที่ต้องถกเถียงต่อ
AI กับการเรียนรู้
ในฐานะเป็นอาจารย์คนหนึ่ง AI ส่งผลกระทบหลายทิศทางมาก มันช่วยเป็นเครื่องมือให้คนเข้าสู่การเรียนมากขึ้นไหม อันที่จริงก็ต้องบอกว่ามันเป็นอย่างนั้น อย่างเช่น สมมติเรามีแอปพลิเคชันสอนภาษา ทำยังไงถึงจะออกเสียงถูก ของพวกนี้มีขึ้นมาทำให้คนกลุ่มที่เข้าถึง AI ได้เข้าถึงการเรียนรู้ นึกถึงตอนเราเด็กๆ ที่ไม่มีใครมาช่วยสอนบางเรื่อง แต่เด็กสมัยนี้มีพวกแอปฯ ต่างๆ มาช่วย ข้อที่เป็นจุดเด่นเลยคือ personalized มันเปลี่ยนไปตามเด็กแต่ละคน AI วิเคราะห์เด็กแต่ละคนเลยว่าเราอ่อนตรงไหน ข้อด้อยคืออะไร มันก็จะปรับไปตามการเรียนรู้ของเด็ก มันเข้าถึงคนได้มากขึ้น และคำนึงถึงความต่างของคนมากขึ้น อย่างเวลาเราเรียนที่โรงเรียน ครูสอนก็ไม่ได้คำนึงถึงฐานของเด็กแต่ละคน แต่ AI ดูว่าเราขาดอะไร บกพร่องตรงไหน และจะไปต่ออย่างไร ควรซ้ำตรงไหน ตรงไหนทำผิดบ่อย มันก็เข้ามาช่วยทางหนึ่ง ทำให้คนเข้าถึงการเรียนรู้ได้มากขึ้น
แต่อีกมุมหนึ่ง การใช้ AI อย่าง ChatGPT ใช้ Generative AI มาช่วยทำการบ้าน มันกระทบไหม คือที่ตัวเองสอนอยู่มันเป็นปรัชญา การบ้านมันก็กระทบกับวิธีการประเมินผลบางอย่างในภาพรวม คือเราต้องคิดว่าถ้าให้การบ้านตรรกศาสตร์ (Logic) กลับบ้านไป ก็ต้องคิดว่าเขาทำเองไหม มันต้องเปลี่ยนวิธีการวัดผลไหม มาทำในห้องแทน แต่ในกรณีของการทำรายงาน ปรัชญาจะเน้นการคิดวิเคราะห์ มันเป็นศาสตร์ที่เกี่ยวกับความคิดของผู้เรียนอยู่
อาจารย์ต้องเข้าไปคุยมากขึ้น เพื่อให้เห็นขั้นตอนการทำงานและได้พัฒนาเขาจริงๆ ไม่ใช่ใช้ AI ช่วยทำ เราต้องเข้าไปช่วยในขั้นตอนการทำงานต่างๆ อย่างน้อยก็เป็นการรีเช็คว่าเขาพยายามพัฒนาสิ่งนี้ด้วยตัวเอง เราก็ต้องการให้เขาพัฒนาทักษะทางปรัชญา พอมี AI เข้ามาก็ต้องมาคิดว่าเราจะทำยังไงให้เขาพัฒนาทักษะนั้นจริงๆ ถามว่าเขาใช้ได้ไหม ไม่ใช่ว่าใช้ไม่ได้ คือใช้ช่วยรีเสิร์ชได้ แต่ไม่ได้เคลมมาเอาเป็นของตัวเอง และบอกเราว่าเอามาใช้ทำอะไร คือเป้าหมายเราต้องการพัฒนาทักษะผู้เรียน เราต้องหาวิธีวัดผลและการสอนเพื่อให้สิ่งนั้นยังคงอยู่
เชื่อข้อมูลจาก AI ได้แค่ไหน
คิดว่าก็เชื่อได้ในระดับหนึ่ง แต่ไม่ใช่เชื่อทุกอย่าง คือใช้เป็นเครื่องมือเบื้องต้น สมมุติแต่ก่อนไม่เคยมีวิกิพีเดียมาก่อน พอมีิขึ้นมาคนก็ตั้งคําถามว่าจะเชื่อิได้เหรอ เพราะว่าคนเข้าไปแก้ได้ ใครๆ ก็เข้าไปแก้ได้ แต่ถามว่ามีประโยชน์ไหม ในแง่หนึ่งก็มีประโยชน์มันเหมือนเป็นคำอธิบายที่เข้าใจง่ายแล้วก็อัปเดต ถ้าจะทิ้งแหล่งนี้ไปเลยก็ดูแบบทําไมเราต้องทิ้งล่ะ วิธีการก็คือเรามองว่าของพวกนี้ในระดับหนึ่งถ้าไม่มีอะไรมาแย้ง มันก็พอได้นะ แต่ไม่ได้มองว่าเป็นแหล่งเดียวที่ควรเชื่อ ควรจะหาแหล่งอื่นมาช่วยยืนยันด้วย ยิ่งเป็นเรื่องสำคัญก็ไม่ควรใช้แหล่งเดียว
คือมันน่าเชื่อไหม ก็คือไม่ควรรีบตัดสินว่ามันไม่น่าเชื่อและก็ไม่ควรรีบตัดสินว่ามันน่าเชื่อ เราต้องเช็คจากหลายๆ ที่ แต่ถามว่าควรทิ้งไปเลยไหม มันมีประโยชน์เยอะมาก จนแบบว่าต่อให้มันมีเรื่องที่ไม่น่าเชื่อ ก็ไม่ได้แปลว่าไม่ควรใช้ อันนี้ความเห็นส่วนตัว
ถ้าเราทำอะไรจริงจัง เหมือนเขียนรีเสิร์ช ช่วยรีวิว อันนี้ก็ต้องมีอะไรมาช่วยเช็ค เพราะว่า Generative AI มันมีวิธีเขียนยังไงให้คนเชื่อ ช่วงที่เทรนมันจะมีการให้คะแนน ถ้าตอบแบบนี้คนจะให้คะแนนเยอะ มันก็จะตอบ ยิ่งถ้าเราเป็นคนช่วยประเมินมัน อย่างมันตอบมาแล้วมันจะให้ประเมินว่าชอบคำตอบแบบไหนมากกว่า มีให้เลือก มันก็จะยิ่งรู้ว่าต้องตอบแบบไหนในแง่การเขียนให้ดูน่าเชื่อถือเขาทำได้ดีเลย อย่างไปถามว่ารู้จักคนนี้ไหม เขาก็จะเขียนมาเลยยาวๆ เหมือนเขารู้จัก แต่ข้อมูลผิดก็เป็นได้ คือมันใช้ได้ แต่ก็ต้องเช็คอยู่ดี

Feminist AI
Feminist AI เป็นโครงการที่พยายามทำให้ AI เป็นเครื่องมือในการทำให้เกิดความเป็นธรรมในสังคม ถ้าพูดอย่างนี้ คําว่า เฟมินิสต์ อาจจะไม่ได้หมายถึงเฉพาะกับผู้หญิง แต่เป็นในลักษณะที่เน้นถึงการทำให้เกิดความเท่าเทียม พอมีขึ้นมาไม่ควรจะทิ้งใครไว้ข้างหลัง แต่ควรจะเป็นเครื่องมือที่ช่วยทำให้เกิดสังคมที่รวมคนกลุ่มต่างๆ ที่อาจจะเคยถูกทำให้เป็นชายขอบ ดึงเขากลับเข้ามา เขาสมควรได้รับอะไรบางอย่าง เช่น คนไม่ค่อยรู้กฎหมาย มันยาก เรามีแต่เรื่องราวที่คนเจอกับสิ่งที่ไม่ยุติธรรม สิ่งที่ AI ช่วยได้คือเราไปเล่าเหตุการณ์ต่างๆ ให้ AI ฟัง มันก็ช่วยประเมินว่าเกี่ยวข้องกับกฎหมายข้อไหน มีกรณีแบบนี้เกิดขึ้นมาก่อนไหม โอกาสแพ้ชนะ มันก็จะเกิดสังคม inclusive คนที่เคยมองว่ากฎหมายมันยากจังเลย มันไม่ใช่เรื่องที่จะเข้าไปยุ่งได้ มันดึงคนกลุ่มนี้กลับเข้ามาได้ เป็นแอปพลิเคชันกฎหมายขึ้นมาแบบนี้ คือมันเป็นปัญหาหนึ่งของสังคมเลยนะ การไม่รู้กฎหมาย ทำให้บางคนถูกปฏิบัติอย่างไม่เป็นธรรม มันเกิดขึ้นแล้วในหลายประเทศ
หรืออย่างในโครงการนี้ก็มีการจัดประกวดให้คนรุ่นใหม่ๆ หรือคนในวงการ AI เข้ามามีส่วนร่วมในการคิดว่าจะพัฒนาของพวกนี้ยังไง เพื่อให้เกิดความเป็นธรรมในสังคมกับคนกลุ่มต่างๆ แอปฯ กฎหมายหรือว่า social media แบบไหนถึงจะไม่ตัดสินคนจากภายนอก
เราสามารถใช้ AI เป็นอีกเครื่องมือหนึ่ง ปกติเวลาเราจะนึกถึงการทำให้เกิดความเป็นธรรมแก่บุคคล เราจะนึกถึงรัฐ มาจากข้างบน หรือนโยบายรัฐเป็นคนสนับสนุน แต่นี่กลายเป็นว่าคนทั่วๆ ไปสามารถช่วยกันได้ เช่น โปรแกรมเมอร์ อย่างในฟิลิปปินส์ เขาได้ทุนแล้วเขาพยายามทำแอปฯ ที่ช่วยเหลือผู้หญิง ในการรายงานตอนเดินทางคนเดียว เรารายงานอะไรเข้าไป เราก็เป็นคนหนึ่งที่ช่วยคนอื่นๆ ที่เขารู้สึกไม่ปลอดภัยในการเดินทาง ของไทยก็มีแข่งประกวด แล้วก็พยายามทำในเชิงงานวิจัย เขียนเปเปอร์ โปรเจกต์มีลักษณะการดูอคติทางเพศ หรืออคติในด้านต่างๆ สร้าง AI มาช่วยตรวจ
AI และอคติ
ถ้าถามว่าข้อมูลที่ได้จาก AI ไม่เป็นกลางไหม จริงๆ แล้วด้วยความที่เป็น Generative AI วิธีการตอบของมันถูกเทรนมาแล้วด้วย data มหาศาล คือชุด data เหล่านั้นมันก็มีอคติที่มันแฝงอยู่ในสังคม ดังนั้นมันจึงเป็นไปได้ที่มันจะผลิตซ้ำคำตอบสิ่งที่เชื่อกันอยู่แล้วในสังคม เช่น ลองแต่งนิทานให้ฟังหน่อยสิ เรื่องเกี่ยวกับผู้หญิงอินเดียที่ชอบเรียนคณิตศาสตร์ คือถ้าถามมันก็แต่งออกมาเลยแป๊บเดียว ชื่อนี้นะ อยู่เมืองนี้ แต่เขาไม่เหมือนผู้หญิงอื่นในสังคม เพราะชอบเรียนคณิตศาสตร์ เราอ่านเผินๆ เร็วๆ มันก็จะบอกว่าผู้หญิงคนนี้ไม่เหมือนผู้หญิงคนอื่น เพราะชอบเรียน แล้วผู้หญิงคนอื่นไม่ชอบเรียนเหรอ มันจับคำว่าผู้หญิงกับคุณสมบัติบางอย่างที่เป็นเรื่องเชิงวัฒนธรรมของแต่ละที่ มันก็เป็น stereotype ทางเพศ
หรือการแปลภาษาด้วย Google Translate เป็นภาษาต่างๆ แปลจากภาษาหนึ่งไปอีกภาษาหนึ่ง คือมันจะมีคำสรรพนามที่เปลี่ยนไป แล้วเวลามันโยงกับอาชีพมันจะแปลงไปตาม…คือถ้าสรรพนามมันกำกวม อย่าง he หมายถึงใคร มันก็จะโยงเข้ากับ stereotype ส่วนใหญ่ เช่น he โยงเข้ากับหมอ หรือ nurse ก็เป็น she/her ผู้หญิงก็เป็นแบบนี้ คือมันไม่ได้ตั้งใจหรอก แต่มันผลิตซ้ำ stereotype บางอย่าง คำถามคือ AI ข้อมูลไม่เป็นกลางจากหลายปัจจัยที่เราคาดไม่ถึง ไม่ใช่ว่าเขาตั้งใจนะ แต่มันก็เกิดขึ้นได้
หรือสมมติถ้าใช้ AI มาปล่อยกู้ ที่ผ่านมาถ้าเกิดสังคมไทยในอดีตคนทํางานได้เงินรายได้มากกว่าเป็นผู้ชาย โอกาสที่ผู้ชายจะได้รับเงินกู้ก็อาจจะมีมากกว่า เพราะว่าดูจากในอดีตว่าเขามีความสามารถในการผ่อนคืนหรือมีรายได้มากกว่าหรือเปล่า
มันคล้ายๆ ว่าพอเราเชื่ออะไรอยู่ ข้อมูลพวกนั้นมันก็ถูกเทรนออกมาในลักษณะที่สะท้อนค่านิยมความเชื่อพวกนั้น บางคนอาจจะคิดว่า อ้าว ก็สังคมเป็นอย่างนั้นน่ะ แต่มันจะเกิดคําถามว่าแล้วมันควรเป็นอย่างนั้นไหม อย่างเช่นสมมติถ้าผู้หญิงถูกกดอยู่จากความเข้าใจแบบเดิม ถ้าคุณไม่ชอบคนคนหนึ่ง คุณควรจะว่าเขาว่าอะไร แล้ว AI ก็ไม่ได้รู้สึกอะไรกับคําอย่างเช่น หน้าตัวเมีย ไปมุดกระโปรง ซึ่งคําพวกนี้จริงๆ มันกดผู้หญิงอยู่ อย่างน้อย AI ไม่ควรผลิตซํ้าของพวกนี้ไหม เพราะมันเท่ากับว่ามัน normalize อย่างที่บอกว่าคนสร้างหรือคนใช้ต้องคำนึงถึงตรงนี้ เพื่ออะไรก็เพื่อไม่ให้ทิ้งใครไว้ข้างหลัง ไม่ทิ้งคนที่ถูกกดให้ถูกกดอยู่อย่างนั้น แล้วคิดว่าการกดนั้นมันถูก อย่างเช่น ผู้หญิง ถ้าบางคนรู้สึกว่าไม่เห็นแปลก ถูกว่าหน้าตัวเมีย แล้วทําไมถึงยอมรับให้หน้าตัวเมียเป็นคําว่า เขาไม่รู้ตัวด้วยซํ้า ต้องทําให้เขาเข้าใจว่าคํานี้มันไม่ควรเป็นคําว่า
หรือในกรณีที่โปรแกรมเมอร์เป็นคนตั้งเกณฑ์ให้คนที่มีคุณสมบัติแบบนี้ได้งาน ให้คนที่คุณสมบัติแบบนี้ได้กู้ อันนี้โปรแกรมเมอร์มีส่วนแล้วนะว่าจะตั้งเกณฑ์แบบไหน อันนี้เขาสามารถมีอคติบางอย่าง แล้วเขาก็ใส่มันมาในการกำหนดบางอย่างได้ ขณะเดียวกันในขั้นตอนของการประมวลของ AI ก็มีอคติเข้ามาได้จากชุดข้อมูลที่ถูกเทรน ที่เป็นการผลิตซํ้าความเชื่อในการประมวลผล จนทำให้กลายเป็นเรื่องปกติว่ามันต้องเป็นอย่างนี้
ส่วนมันจะถึงไปถึงจุดนั้น (เป็นกลาง ไร้อคติ) ก็ไม่แน่ใจนะ แต่อย่างน้อยก็ไม่ควรมีใครที่ถูกคิดว่าเป็นคนผิด เพราะอดีตหรือชาติพันธุ์ของเขาทำผิดไหม อย่างคนนี้มีแนวโน้มจะผิดมากกว่า เพราะว่าเขาเป็นเพศนี้ มันไม่น่าจะเกี่ยวไง ใช่ไหม ของแบบนี้ถ้าเกิดคือมันต้องเป็นอะไรที่ผู้คนต้องสนใจ เพราะเวลาเราใช้ AI เราจะคิดว่ามันเป็นเครื่องมือที่เป๊ะ เชื่อถือได้ ถ้าไม่มีคนออกมาพูดว่าไม่ได้นะ มันต้องระวัง คนจะคิดว่าโอ้โหนี่แหละคําตอบนี้เชื่อยิ่งกว่าอะไร ก็เลยคิดว่าอย่างน้อยถึงจะไปถึงจุดที่มันไม่มีอคติเลยอาจจะยาก แต่อย่างน้อยขอให้คล้ายว่ามีพื้นที่สำหรับให้คนตั้งคําถามอยู่ตลอดว่าตอนนี้มันโอเคแล้วหรือยัง เพื่อที่ว่ามันจะได้เป็นเครื่องมือที่อย่างน้อยนึกถึงคนที่อาจจะโดนปฏิบัติอย่างไม่เป็นธรรมเพราะตัว อัลกอริทึมที่ว่า

เมื่อ AI เลือกคำตอบที่เราชอบ
ChatGPT มันก็มาจากการทำนายคำต่อไป มาจากการเทรนข้อมูลมหาศาล แล้วก็ดูว่าคํานี้เกี่ยวโยงกับคําอะไร แล้วดูว่าตอบคําถามไหม คําถามมาแบบนี้พยายามทำความเข้าใจ แล้วก็พยายามตอบว่าอันนี้เป็นคําตอบที่เทรนแบบรีวอร์ดคือให้คะแนนว่าคําตอบแบบนี้เป็นคําตอบที่ดีกว่าอีกแบบหนึ่ง เทรนอย่างนี้มาเรื่อยๆ ทีนี้ก็เลยวนไปสู่ตอนแรกไงว่าสรุปแล้วการที่เราเลือกให้ระบบตอบแบบนี้แล้วได้คะแนนเยอะ แบบนี้ได้คะแนนน้อย สรุปแล้วมันเข้าใจสิ่งที่มันตอบไหม ถ้ามันคิดว่าต้องตอบแบบนี้ เขาถึงจะเชื่อฉัน เขาถึงจะให้คะแนนเยอะ ทีนี้ถ้าถามว่าด้วยความที่ Generative AI มันข้อมูลมันเยอะมาก แล้วอคติเกิดขึ้นได้ไหม เอาจริงๆ มันเกิดขึ้นได้ แล้วมันก็พูดยากมากเลยว่ามันมาจากตรงไหน
แต่ก็มีแนวโน้ม (ที่จะเลือกตอบคำตอบที่ได้คะแนนมากซึ่งเป็นการผลิตซ้ำอคติ) แต่อย่างที่บอกว่าเราไม่อาจยืนยันได้ว่าบริษัทเขาเอาข้อมูลของแต่ละคนไปใช้ไหม แต่ก็น่าจะเอาไปเพราะไม่อย่างนั้นเขาจะให้ใช้ฟรีทําไม คือเขาก็ต้องได้อะไร แต่อันนี้ไม่รู้ดีหรือเปล่านะก็คือมีความเป็นไปได้ว่าถ้ายิ่งเป็นการเทรนโดยการใช้ระบบรีวอร์ดที่ว่านี้ ถ้าเทรนมาอย่างนี้โอกาสที่มันจะตอบและผลิตซํ้าอะไรที่เป็นอคติก็เกิดได้เยอะ เพราะอะไรที่คนชอบไม่ได้แปลว่า มันจะเป็นอะไรที่จริง มันอาจจะอ่านเข้าใจง่าย ตรงกับที่เราเชื่ออยู่แล้ว เช่น ผู้ใช้ทั้งหลายมีอคติอยู่แล้ว เขาก็อยากเห็นคำตอบแบบนี้ เป็นการส่งเสริมกันไปมา
เท่าทันอคติ
จะเห็นแล้วใช่ไหมว่าอคติเกิดได้ทุกจุด ตั้งแต่คนสร้าง ข้อมูลที่นำมาเทรน ผู้ใช้ มันก็จะคล้ายๆ กับคนเลือกอ่านข่าว ฉันเชื่อบางอย่างอยู่ ฉันไม่อ่านข่าวสำนักข่าวนี้ อ่านแล้วตะขิดตะขวงใจ ถามว่านั่นคืออคติไหม มันก็คืออคติไง เพราะว่าเขาเลือกที่จะรับแต่อะไรที่คอนเฟิร์มความเชื่อของตน โอกาสที่เขาจะหลุดพ้นหรือเท่าทันข้อมูลมันเลยยาก มันเลยไม่ได้ขึ้นกับ AI แต่ขึ้นกับปัจจัยรอบๆ ว่ามันเอื้อให้เขาตั้งคำถามกับข้อมูลแค่ไหน ในระยะยาวมันก็ต้องพึ่งอย่างอื่น เช่น การศึกษา ต้องเท่าทันรู้ว่าสิ่งที่ AI ให้มันไม่ได้ปราศจากอคติ ใช่ คือประโยชน์มันเยอะ ไม่สนับสนุนให้ทิ้ง แต่ก็่ไม่สนับสนุนให้เชื่อเลย
จริงๆ ทุกคนมีอคติ มันเป็นเรื่องที่เราพยายามแล้ว แต่บางทีก็ไม่รู้ตัว แต่ถามว่าเราจะเท่าทันได้ไหม เราทําเต็มที่เท่าที่เราทำได้เพื่อไม่ให้เป็นเครื่องมือ คือถ้าเรามีเป้าหมายว่าเราอยากจะได้ความรู้ที่อย่างน้อยมีอคติน้อย อย่างน้อยเราก็ไม่ใช้ AI แบบที่เชื่อเลย แต่ต้องตั้งคําถามอยู่เสมอว่าข้อมูลนี้ใช้ได้ไหม มันจริงเหรอ ตั้งคำถามตลอดเวลา คำตอบนี้น่าเชื่อถือหรือยัง ยังไงก็เป็นคําถามที่เป็นประโยชน์กับคนตั้งเอง ถึงแม้ว่าเราจะไม่สามารถหลุดจากอคติอะไรได้ แต่การตั้งคําถามและการไม่เชื่อมั่นจนเกินไปว่าตัวเองถูก มันเป็นลักษณะนิสัยหนึ่งที่ต้องฝึกเหมือนกันนะว่าบางทีฉันอาจจะผิดได้ เขาจะเรียกว่าเป็นคุณสมบัติเชิงญาณวิทยา
เหมือนกับว่าเราต้องฝึกให้เรามีลักษณะว่าฉันอาจจะผิดได้ ฉันอาจจะคิดเรื่องนี้เพราะอคติคือ คล้ายๆ ว่าต้องใจกว้าง แล้วก็คิดอยู่ว่าข้อมูลนี้อาจจะไม่จริง ถึงแม้ว่าจะตรงกับที่ฉันเชื่ออยู่ ฉันต้องหาเพิ่ม เราจะใช้แบบ passive รับอย่างเดียวไม่ได้แล้ว แต่เราจะเท่าทันมันได้ก็ต้องทำอะไรกับข้อมูลที่เราเห็น เช่น ตรวจสอบ ตั้งคำถามกับตัวเอง อย่างน้อยทำให้ดีที่สุด ถ้าเรามุ่งเป้าว่าจะลดอคติอะไร ถ้าไม่ทำมันก็ไม่พ้น
AI ช่วยให้เกิดความเข้าใจในสังคมได้ ประโยชน์มันมีเยอะไปหมดเลย ลองนึกดูอย่างเช่น เรามี AI ที่ใช้ปรึกษาปัญหาสุขภาพ บางทีเราอยู่ต่างจังหวัดจะไปหาหมอทียุ่งยากมากเลย แต่ถ้ามีระบบช่วยให้คนเข้าถึงได้ เขาเป็นอย่างไร เขาควรกินยาอะไร หรือมีโอกาสได้คุยกับหมอ คือมันมีโอกาสเพิ่มขึ้น มันก็มีตัวอย่างเรื่องกฎหมาย เรื่องหมอ การศึกษา
อย่างภาษาอังกฤษมันช่วยได้ไหม มันช่วยได้เยอะมาก แต่ว่าการช่วยนี้ต้องคํานึงว่ามันอาจผลิตซํ้าอคติ แต่ไม่ใช่ไม่ควรใช้ ทางที่ดีก็คือพยายาม หนึ่ง ตระหนักรู้ว่ามันอาจจะมีและตัวเองในฐานะผู้ใช้ต้องพัฒนาลักษณะบางอย่างให้กับนักเรียนของเราว่าถ้าจะใช้เครื่องมืออย่างนี้ เราต้องเป็นยังไง เราต้องรู้ทันอะไร เราต้องตั้งคำถามตัวเองขนาดไหน
กระบวนการเรียนรู้ในโลกที่มี AI
อย่างการใช้ Generative AI ให้ช่วยเราทำอะไร ถ้าเราอยากจะพัฒนาทักษะการคิดทางปรัชญา พูดในวงของตัวเองละกันนะ ก็รู้สึกว่าการเป็นคนที่ค่อยๆ คิดเอง เขาจะทำปรัชญาในเชิงประเด็นอื่นๆ ได้ในระยะยาวต่อไป ถ้าเขาจะใช้มันมาตอบก็ใช้แค่เป็นผู้ช่วยพอ ถ้าอยากจะพัฒนาตัวเอง อันนี้คือเชิงปรัชญานะ แต่ไม่ใช่มาคิดแทน ถ้าให้คิดแทนปุ๊บ อะไรที่อยากจะพัฒนาความคิดสร้างสรรค์มันก็จะสะดุดลง มันไม่ได้พัฒนาเอง เอาของคนอื่นมาตอบ
ที่ AI ทดแทนไม่ได้ พวกเรื่องศิลปะ ความคิดสร้างสรรค์อะไรอย่างนี้ แล้วก็อีกอย่างหนึ่งคือพวกความเข้าใจในเชิงอารมณ์ อย่างเช่นเรามีแอปพลิเคชันให้คุยกับ AI แบบเหมือนปรึกษาปัญหาชีวิต เราก็จะรู้สึกว่าที่มันปลอบเราน่ะเข้าใจหรือเปล่าว่าฉันรู้สึกยังไง มันฟังเราแล้วเข้าใจจริงหรือเปล่า แต่ในขณะที่พอเป็นคน เราจะไม่เกิดคําถามนี้ สมมติถ้าเขาเข้าใจหรือไม่เข้าใจ เราจะรู้ว่าเขาเข้าใจว่าโอเคนะตอนนี้ฉันรู้สึกแบบนี้ พอเป็น AI เราจะตั้งคำถามว่าแกเข้าใจจริงหรือเปล่าว่าเรามีความทุกข์ เพราะเรื่องพวกนี้มันเกิดจากประสบการณ์ตรง คือ AI ได้มาจากการเคลมข้อมูลอะไรที่มันเป็นประสบการณ์ตรงอะไร มันก็อาจจะอย่างยังขาดพวกนี้อยู่ อารมณ์ในเรื่องประสบการณ์ตรง ความคิดสร้างสรรค์ศิลปะ เพราะศิลปะก็ดรามาใช่ไหม ว่าสิ่งที่ AI สร้างขึ้นมาภาพพวกนี้มันไปก๊อบมา เลียนแบบใครหรือเปล่า
การจะบอกว่าเราเชื่ออะไร มีเหตุผลสนับสนุน มันก็ต้องพยายามอย่างเต็มที่ก่อน ไม่ใช่บอกว่าไม่เชื่อ AI เชื่อได้ ถ้าคุณพยายามแล้ว เช็คแล้วอะไรต่างๆ แล้วจะเชื่อก็ไม่ได้ว่าอะไร แต่ถ้าเช็คแล้วมันเจอข้อมูลขัดแย้งก็ต้องเอ๊ะ ไม่ได้บอกว่าไม่เชื่อ AI คือเชื่อได้ แต่คุณต้องมีกระบวนการก่อนเชื่อ ไม่ว่าสิ่งใดก็ตาม สมมติเปลี่ยนจาก AI เป็นวิกิพีเดีย เชื่อฯ ได้ไหม เชื่อได้ถ้าตรวจสอบแล้วว่ามันเป็นแบบที่เขาพูดกันหลายที่ เพราะฉะนั้นมันขึ้นกับกระบวนการมากกว่า
ประเด็นผู้ใช้ถือว่าสำคัญมาก ถ้าเขาปิดตัวเองแต่แรก โอกาสที่ข้อมูลต่างๆ มันจะไปในทางที่เขาต้องการ สิ่งสำคัญคือต้องให้ความสำคัญกับการที่นักเรียน นักศึกษารู้เท่าทัน AI ที่ตนเองใช้ ทำยังไงให้เขาสงสัย ให้เขาใช้นะ ใช้แบบระมัดระวัง จุดหนึ่งที่เราทำได้คือทำให้ผู้ใช้เป็นผู้ใช้ที่มีความรับผิดชอบในการใช้เครื่องมือ ครูโรงเรียนต้องเน้นเรื่องพวกนี้ มีวิชาที่มาเทรนทักษะนี้จริงจังว่าข้อมูลนี้เชื่อได้จริงเหรอ มาถกเถียงจริงๆ เพื่อให้เขารู้เท่าทันของพวกนี้ ของพวกนี้มันต้องเน้นแล้ว เพราะ AI มาแน่ๆ แล้วคนใช้เป็นปัจจัยหนึ่ง มันทำได้เลย แต่ AI เราควบคุมไม่ได้ แต่สิ่งที่ควบคุมได้คือผู้ใช้
