คุณค่าของมนุษย์ในยุค AI มีความหมายอย่างไร
มายาคติของโค้ดที่เป็นกลางบทสนทนาเกี่ยวกับปัญญาประดิษฐ์ (AI) มักวนเวียนอยู่กับเกณฑ์มาตรฐานทางเทคนิคและพลังในการประมวลผล เราพูดถึงพารามิเตอร์และเพตาไบต์ราวกับว่ามันเป็นตัวชี้วัดเดียวที่สำคัญ แต่การมุ่งเน้นเช่นนี้กลับบดบังความจริงที่เร่งด่วนกว่า นั่นคือ Large Language Model ทุกตัวเปรียบเสมือนกระจกเงาที่สะท้อนความชอบของมนุษย์ผู้สร้างมันขึ้นมา ไม่มีสิ่งที่เรียกว่าอัลกอริทึมที่เป็นกลาง เมื่อระบบให้คำตอบ มันไม่ได้ดึงข้อมูลมาจากสุญญากาศของความจริงที่เป็นกลาง แต่มันกำลังสะท้อนชุดค่านิยมที่ถูกกำหนดโดยนักพัฒนาและผู้ติดป้ายกำกับข้อมูล (data labelers) สรุปง่ายๆ คือ เราไม่ได้กำลังสอนให้เครื่องจักรคิด แต่เรากำลังสอนให้มันเลียนแบบบรรทัดฐานทางสังคมของเราที่มักจะขัดแย้งกันเอง การเปลี่ยนผ่านจากตรรกะไปสู่จริยธรรมนี้คือการเปลี่ยนแปลงที่สำคัญที่สุดในวงการคอมพิวเตอร์นับตั้งแต่การประดิษฐ์อินเทอร์เน็ต มันย้ายภาระความรับผิดชอบจากฮาร์ดแวร์ไปสู่มนุษย์ผู้กำหนดว่าคำตอบที่ “ถูกต้อง” ควรเป็นอย่างไร อุตสาหกรรมเพิ่งเปลี่ยนจุดเน้นจากความสามารถดิบๆ ไปสู่ความปลอดภัยและการปรับจูนให้สอดคล้องกับค่านิยม (alignment) ซึ่งฟังดูเหมือนการปรับแต่งทางเทคนิค แต่จริงๆ แล้วมันเป็นกระบวนการทางการเมืองอย่างลึกซึ้ง เมื่อเราขอให้โมเดลมีความช่วยเหลือ ไม่เป็นอันตราย และซื่อสัตย์ เรากำลังใช้คำที่มีความหมายต่างกันไปในแต่ละวัฒนธรรม ค่านิยมที่ดูเหมือนเป็นสากลในห้องประชุมที่ซานฟรานซิสโกอาจถูกมองว่าไม่เหมาะสมหรือไม่เกี่ยวข้องในจาการ์ตา ความตึงเครียดระหว่างสเกลระดับโลกกับค่านิยมท้องถิ่นคือความขัดแย้งหลักในเทคโนโลยีสมัยใหม่ เราต้องเลิกมองว่า AI เป็นพลังอิสระและเริ่มมองว่ามันเป็นส่วนขยายของเจตจำนงมนุษย์ที่ถูกคัดสรรมาแล้ว ซึ่งต้องมองข้ามการตลาดที่เกินจริงไปดูทางเลือกที่เกิดขึ้นจริงเบื้องหลังกระจกเงากลไกแห่งการเลือกของมนุษย์เพื่อให้เข้าใจว่าค่านิยมเข้าสู่เครื่องจักรได้อย่างไร คุณต้องดูที่ Reinforcement Learning from Human Feedback หรือ RLHF ซึ่งเป็นกระบวนการที่ผู้รับเหมาที่เป็นมนุษย์หลายพันคนจัดอันดับคำตอบต่างๆ จากโมเดล พวกเขาอาจเห็นคำตอบสองเวอร์ชันแล้วคลิกเลือกอันที่พวกเขาคิดว่าสุภาพหรือแม่นยำกว่า เมื่อเวลาผ่านไป โมเดลจะเรียนรู้ที่จะเชื่อมโยงรูปแบบบางอย่างเข้ากับความชอบของมนุษย์เหล่านี้