เรากำลังสร้างปัญญาแบบไหนกันแน่?
เราไม่ได้กำลังสร้างสมองเทียม แต่เรากำลังสร้างเครื่องมือทางสถิติที่ซับซ้อนซึ่งทำหน้าที่คาดการณ์ข้อมูลถัดไปที่มีความเป็นไปได้มากที่สุดในลำดับหนึ่งๆ วาทกรรมในปัจจุบันมักปฏิบัติต่อ Large language models ราวกับว่าพวกมันเป็นสมองทางชีวภาพที่กำลังเติบโต แต่นี่คือความผิดพลาดเชิงตรรกะขั้นพื้นฐาน ระบบเหล่านี้ไม่ได้เข้าใจแนวคิดต่างๆ แต่พวกมันประมวลผลโทเค็นผ่านคณิตศาสตร์หลายมิติ ข้อสรุปสำคัญสำหรับผู้สังเกตการณ์ทุกคนคือ เราได้ทำให้อุตสาหกรรมการเลียนแบบการแสดงออกของมนุษย์กลายเป็นเรื่องปกติไปแล้ว นี่คือเครื่องมือสำหรับการสังเคราะห์ ไม่ใช่เครื่องมือสำหรับการรับรู้ เมื่อคุณโต้ตอบกับโมเดลสมัยใหม่ คุณกำลังสืบค้นข้อมูลจากอินเทอร์เน็ตสาธารณะเวอร์ชันที่ถูกบีบอัด มันให้คำตอบที่มีความน่าจะเป็นสูงสุด ไม่ใช่คำตอบที่ถูกต้องเสมอไป ความแตกต่างนี้คือเส้นแบ่งระหว่างสิ่งที่เทคโนโลยีทำได้กับสิ่งที่เราจินตนาการว่ามันทำได้ เมื่อเรานำเครื่องมือเหล่านี้ไปรวมเข้ากับทุกแง่มุมของชีวิต เดิมพันจึงเปลี่ยนจากความแปลกใหม่ทางเทคนิคไปสู่การพึ่งพาในทางปฏิบัติ เราต้องหยุดถามว่าเครื่องจักรคิดได้หรือไม่ และเริ่มถามว่าจะเกิดอะไรขึ้นเมื่อเราฝากการตัดสินใจของเราไว้กับเส้นโค้งความน่าจะเป็น คุณสามารถดูข้อมูลเพิ่มเติมเกี่ยวกับการเปลี่ยนแปลงเหล่านี้ได้ที่ข้อมูลเชิงลึกด้าน AI ล่าสุดของเราที่ [Insert Your AI Magazine Domain Here] ในขณะที่เราติดตามวิวัฒนาการของระบบเหล่านี้ สถาปัตยกรรมของการคาดการณ์เชิงความน่าจะเป็นเพื่อให้เข้าใจสถานะของเทคโนโลยีในปัจจุบัน เราต้องดูที่สถาปัตยกรรม Transformer ซึ่งเป็นกรอบการทำงานทางคณิตศาสตร์ที่ช่วยให้โมเดลสามารถชั่งน้ำหนักความสำคัญของคำต่างๆ ในประโยคได้ มันไม่ได้ใช้ฐานข้อมูลของข้อเท็จจริง แต่ใช้ค่าน้ำหนัก (weights) และอคติ (biases) เพื่อกำหนดความสัมพันธ์ระหว่างจุดข้อมูล เมื่อผู้ใช้ป้อนคำสั่ง ระบบจะแปลงข้อความเป็นตัวเลขที่เรียกว่าเวกเตอร์ เวกเตอร์เหล่านี้อยู่ในพื้นที่ที่มีหลายพันมิติ จากนั้นโมเดลจะคำนวณวิถีของคำถัดไปตามรูปแบบที่เรียนรู้ระหว่างการฝึกฝน กระบวนการนี้เป็นคณิตศาสตร์ล้วนๆ ไม่มีการพูดคุยกับตัวเองหรือการไตร่ตรองอย่างมีสติ มันคือการคำนวณแบบขนานขนาดใหญ่ที่เกิดขึ้นในเสี้ยววินาทีกระบวนการฝึกฝนเกี่ยวข้องกับการป้อนคำหลายล้านล้านคำจากหนังสือ บทความ และโค้ดให้กับโมเดล