Apa Maksud Nilai Kemanusiaan dalam Era AI?
Mitos Kod Neutral
Perbualan mengenai kecerdasan buatan (AI) sering tertumpu pada penanda aras teknikal dan kuasa pemprosesan. Kita bercakap tentang parameter dan petabait seolah-olah itu sahaja metrik yang penting. Fokus ini sebenarnya mengaburi realiti yang lebih mendesak. Setiap model bahasa besar adalah cerminan kepada keutamaan manusia yang membentuknya. Tidak wujud perkara yang dipanggil algoritma neutral. Apabila sesuatu sistem memberikan jawapan, ia tidak mengambilnya daripada kekosongan kebenaran objektif. Ia mencerminkan set nilai berwajaran khusus yang ditetapkan oleh pembangun dan pelabel data. Kesimpulan utamanya mudah. Kita bukan mengajar mesin untuk berfikir. Kita mengajar mereka untuk meniru norma sosial kita yang khusus dan sering bercanggah. Peralihan daripada logik kepada etika ini adalah perubahan paling signifikan dalam pengkomputeran sejak penciptaan internet. Ia memindahkan beban tanggungjawab daripada perkakasan kepada manusia yang menentukan rupa jawapan yang “betul”.
Industri baru-baru ini beralih daripada keupayaan mentah kepada keselamatan dan penjajaran. Ini kedengaran seperti pelarasan teknikal, tetapi ia sebenarnya proses yang sangat bersifat politik. Apabila kita meminta model untuk menjadi membantu, tidak berbahaya, dan jujur, kita menggunakan perkataan yang mempunyai makna berbeza merentas budaya yang berbeza. Nilai yang kelihatan universal di bilik lembaga San Francisco mungkin dianggap menyinggung perasaan atau tidak relevan di Jakarta. Ketegangan antara skala global dan nilai tempatan adalah konflik utama dalam teknologi moden. Kita mesti berhenti melihat AI sebagai kuasa autonomi dan mula melihatnya sebagai lanjutan niat manusia yang disusun rapi. Ini memerlukan kita melihat melampaui gembar-gembur pemasaran untuk melihat pilihan sebenar yang dibuat di sebalik tabir.
Cermin Mekanikal Pilihan Manusia
Untuk memahami bagaimana nilai masuk ke dalam mesin, anda perlu melihat Reinforcement Learning from Human Feedback, atau RLHF. Ini adalah proses di mana beribu-ribu kontraktor manusia menilai respons berbeza daripada model. Mereka mungkin melihat dua versi jawapan dan mengklik versi yang mereka rasa lebih sopan atau tepat. Lama-kelamaan, model belajar untuk mengaitkan corak tertentu dengan keutamaan manusia ini. Ini bukan pencarian kebenaran. Ia adalah pencarian kelulusan. Model pada dasarnya dilatih untuk menggembirakan penilai manusianya. Ini mewujudkan lapisan moraliti yang sebenarnya hanyalah anggaran statistik tentang apa yang sekumpulan orang tertentu suka dengar.
Proses ini memperkenalkan jumlah subjektiviti yang besar. Jika majoriti pelabel berasal daripada demografi tertentu, model secara semula jadi akan mengguna pakai slanga, isyarat sosial, dan bias politik kumpulan tersebut. Inilah sebabnya versi awal banyak model popular bergelut dengan konteks bukan Barat. Ia tidak rosak. Ia hanya berfungsi tepat seperti yang dilatih. Ia mencerminkan nilai orang yang dibayar untuk menggred mereka. Ini adalah lapisan di mana konsep abstrak seperti keadilan dan bias menjadi baris kod yang konkrit. Ia adalah proses manual yang intensif buruh yang berlaku lama sebelum orang ramai melihat antara muka sembang. Ia adalah infrastruktur halimunan bagi kecerdasan moden.
Kekeliruan yang dibawa oleh kebanyakan orang terhadap topik ini ialah idea bahawa AI mempunyai kompas moral dalaman. Ia tidak memilikinya. Ia mempunyai fungsi ganjaran. Apabila model enggan menjawab soalan, ia bukan kerana ia “merasa” topik itu salah. Ia adalah kerana data latihannya telah diberi wajaran tinggi untuk mengelakkan corak khusus itu. Perbezaan ini sangat penting. Jika kita percaya mesin itu bermoral, kita berhenti mempersoalkan orang yang menetapkan peraturan. Kita mesti menyedari bahawa setiap penolakan dan setiap tip berguna adalah respons terprogram berdasarkan keputusan manusia. Dengan mengenal pasti perkara ini, kita boleh mula bertanya soalan yang lebih baik tentang siapa yang menetapkan peraturan ini dan mengapa.
Geopolitik dalam Ruang Latent
Kesan daripada pilihan ini adalah global. Kebanyakan model AI terkemuka dilatih terutamanya menggunakan data bahasa Inggeris daripada web terbuka. Ini mewujudkan monokultur digital di mana nilai Barat menjadi lalai. Apabila pengguna di bahagian dunia yang berbeza meminta nasihat tentang dinamik keluarga atau isu undang-undang, mereka menerima jawapan yang ditapis melalui lensa budaya tertentu. Ini bukan sekadar masalah terjemahan bahasa. Ia adalah masalah terjemahan budaya. Nuansa hierarki, privasi, dan komuniti berbeza secara meluas di seluruh dunia, tetapi model sering memberikan penyelesaian yang sama rata untuk semua. Pemusatan pemikiran “betul” ini adalah bentuk kuasa lembut baharu yang mempunyai implikasi besar terhadap wacana global.
Kita melihat perlumbaan untuk membangunkan model AI berdaulat sebagai tindak balas kepada perkara ini. Negara seperti Perancis, UAE, dan India sedang melabur dalam infrastruktur mereka sendiri untuk memastikan nilai budaya khusus mereka diwakili. Mereka menyedari bahawa bergantung pada model asing bermakna mengimport pandangan dunia asing. Dalam 2026, trend ini telah memecut apabila kerajaan menyedari bahawa kawalan ke atas ruang latent AI adalah sama pentingnya dengan kawalan ke atas sempadan fizikal. Data yang digunakan untuk melatih model ini bertindak sebagai buku sejarah digital. Jika buku itu hanya mengandungi satu perspektif, kecerdasan yang terhasil akan menjadi terhad secara semula jadi. Inilah sebabnya dorongan untuk set data yang pelbagai bukan sekadar inisiatif kepelbagaian. Ia adalah keperluan untuk ketepatan dan kaitan pada skala global.
Taruhannya tinggi untuk kerjasama antarabangsa. Jika setiap negara membina AI terasingnya sendiri dengan set nilai tegar tersendiri, kita mungkin mendapati lebih sukar untuk berkomunikasi merentasi sempadan digital. Walau bagaimanapun, alternatifnya ialah dunia di mana beberapa syarikat di satu lembah menentukan sempadan moral untuk berbilion orang. Tiada laluan yang sempurna. Cabarannya ialah mencari cara untuk membenarkan nuansa tempatan sambil mengekalkan pemahaman bersama tentang hak asasi manusia yang asas. Ini adalah masalah yang tidak boleh diselesaikan dengan perkakasan yang lebih baik. Ia memerlukan diplomasi antarabangsa dan pandangan yang jelas tentang insentif yang memacu industri teknologi hari ini. Anda boleh mengetahui lebih lanjut tentang cabaran ini dalam panduan komprehensif kami mengenai etika dan tadbir urus AI.
Keputusan dalam Gelung
Pertimbangkan satu hari dalam kehidupan seorang pengurus pengambilan pekerja bernama Sarah. Dia menggunakan alat AI untuk menyaring ratusan resume bagi peranan kejuruteraan baharu. Alat tersebut telah dilatih untuk mencari calon yang “berpotensi tinggi”. Pada permukaan, ini nampaknya cekap. Tetapi di sebalik antara muka, alat itu menggunakan set nilai yang dipelajari daripada data pengambilan pekerja terdahulu. Jika data sejarah menunjukkan bahawa syarikat kebanyakannya mengambil pekerja dari tiga universiti tertentu, AI akan mengutamakan sekolah tersebut. Ia tidak menjadi “perkauman” atau “elitis” dalam erti kata manusia. Ia hanya mengoptimumkan corak yang diberitahu sebagai berharga. Sarah mungkin tidak menyedari bahawa alat itu menapis calon cemerlang daripada latar belakang bukan tradisional kerana mereka tidak memenuhi profil “nilai” data latihan.
Senario ini berlaku di beribu-ribu pejabat setiap hari. Nilai-nilai tersebut bukanlah abstrak. Ia adalah perbezaan antara mendapat pekerjaan dan diabaikan oleh algoritma. Logik yang sama terpakai pada pemarkahan kredit, triage perubatan, dan juga hukuman kehakiman. Dalam setiap kes, nilai manusia seperti “risiko” atau “merit” ditukar menjadi nombor. Bahayanya ialah kita melayan nombor ini sebagai kebenaran objektif dan bukannya pilihan subjektif seperti yang sebenarnya. Kita sering menyerahkan kerja keras pertimbangan moral kepada mesin kerana ia lebih pantas dan kurang tidak selesa. Tetapi mesin hanya mengautomasikan bias sedia ada kita pada skala yang tidak dapat kita pantau dengan mudah.
Produk yang kita gunakan setiap hari menjadikan hujah ini nyata. Apabila aplikasi penyuntingan foto secara automatik mencerahkan tona kulit seseorang untuk menjadikan mereka kelihatan “lebih baik”, ia menyatakan satu nilai. Apabila aplikasi navigasi mengelakkan kawasan “jenayah tinggi”, ia membuat pertimbangan nilai tentang keselamatan dan kelas sosial. Ini bukan ralat teknikal. Ia adalah kesimpulan logik daripada data dan fungsi ganjaran yang disediakan oleh manusia. Kita hidup dalam dunia di mana perisian kita sentiasa membuat pilihan moral bagi pihak kita. Kebanyakan masa, kita tidak perasan ia berlaku sehingga sesuatu yang tidak kena berlaku. Kita perlu lebih kritikal terhadap ciri “membantu” yang sebenarnya hanyalah andaian yang terbina dalam.
Perubahan terkini dalam industri ialah langkah ke arah “keboleh-arahan” (steerability). Syarikat kini memberi pengguna lebih kawalan ke atas “personaliti” atau “nilai” AI mereka. Anda boleh memberitahu model untuk menjadi “lebih kreatif” atau “lebih profesional”. Walaupun ini terasa seperti pemerkasaan, ia sebenarnya mengalihkan tanggungjawab kembali kepada pengguna. Jika AI memberikan jawapan yang berat sebelah, syarikat boleh mendakwa pengguna tidak menetapkan parameter dengan betul. Ini mewujudkan rangkaian akauntabiliti yang kompleks di mana tiada siapa yang benar-benar bertanggungjawab untuk output tersebut. Kita beralih daripada dunia nilai tetap kepada dunia nilai yang cair dan ditentukan oleh pengguna, yang membawa set risiko dan ganjarannya sendiri.
Harga Moraliti Automatik
Kita mesti menggunakan skeptisisme Socrates terhadap idea AI yang “selamat”. Jika model dijajarkan dengan sempurna, nilai siapa yang dijajarkannya? Terdapat kos tersembunyi kepada penapis keselamatan yang kita lihat hari ini. Selalunya, penapis ini dibina menggunakan tenaga kerja bergaji rendah di negara membangun. Orang ramai dibayar beberapa dolar sejam untuk membaca kandungan paling mengerikan di internet supaya mesin boleh belajar untuk mengelakkannya. Kita pada dasarnya menyumber luar trauma psikologi penetapan nilai kepada global south. Adakah AI benar-benar “beretika” jika keselamatannya dibina di atas belakang pekerja yang dieksploitasi? Ini adalah soalan yang jarang disukai oleh industri teknologi untuk dijawab secara langsung.
Satu lagi batasan ialah “halusinasi moraliti”. Kerana model ini sangat mahir dalam peniruan, ia boleh kedengaran sangat meyakinkan apabila bercakap tentang etika. Ia boleh memetik ahli falsafah dan duluan undang-undang dengan mudah. Tetapi ia tidak memahami apa-apa pun. Ia hanya meramalkan token seterusnya dalam urutan.
BotNews.today menggunakan alat AI untuk menyelidik, menulis, mengedit, dan menterjemah kandungan. Pasukan kami menyemak dan menyelia proses tersebut untuk memastikan maklumat berguna, jelas, dan boleh dipercayai.
- Siapa yang menentukan “kebenaran asas” untuk topik subjektif seperti politik atau agama?
- Apa yang berlaku apabila nilai syarikat swasta bercanggah dengan nilai masyarakat demokratik?
- Bagaimanakah kita mengaudit “kotak hitam” RLHF untuk melihat apa yang sebenarnya diberi ganjaran semasa latihan?
- Bolehkah mesin benar-benar menjadi “adil” jika dunia tempat ia dilatih adalah tidak adil secara semula jadi?
Seni Bina Kekangan
Bagi pengguna kuasa, “nilai” AI sering ditemui dalam gesaan sistem (system prompt) dan konfigurasi API. Ini adalah 20 peratus daripada teknologi yang mengawal 80 peratus pengalaman yang lain. Apabila anda berinteraksi dengan model melalui API, anda boleh melihat tetapan “suhu” dan “top-p”. Ini bukan sekadar tombol teknikal. Ia mengawal sejauh mana model dibenarkan untuk menyimpang daripada respons yang paling mungkin (dan selalunya paling berat sebelah). Suhu yang lebih rendah menjadikan model lebih boleh diramal dan “selamat”, manakala suhu yang lebih tinggi membolehkan lebih banyak “kreativiti” tetapi juga lebih banyak risiko. Tetapan ini adalah barisan pertahanan pertama dalam penjajaran nilai.
Integrasi aliran kerja adalah tempat di mana teori bertemu realiti. Pembangun kini membina lapisan “pengawal” (guardrail) yang terletak di antara pengguna dan model. Lapisan ini menggunakan model sekunder untuk memeriksa input dan output bagi pelanggaran nilai. Ini mewujudkan sistem kawalan pelbagai peringkat. Walau bagaimanapun, pengawal ini mempunyai had API dan kos kependaman (latency) tersendiri. Tindanan keselamatan yang kompleks boleh melambatkan respons sebanyak beberapa saat, yang merupakan pertukaran yang ketara dalam persekitaran pengeluaran. Tambahan pula, storan tempatan model ini menjadi semakin biasa. Menjalankan model secara tempatan membolehkan pengguna memintas penapis korporat, tetapi ia juga memerlukan VRAM yang ketara dan teknik kuantisasi yang dioptimumkan seperti GGUF atau EXL2.
Cabaran tahap geek sebenar ialah “penalaan halus” (fine tuning) untuk nilai. Ini melibatkan pengambilan model asas dan melatihnya pada set data contoh khusus yang kecil dan berkualiti tinggi. Inilah cara syarikat mencipta AI yang mencerminkan suara jenama atau keperluan undang-undang khusus mereka. Ia adalah cara untuk “mengekod keras” nilai ke dalam wajaran model. Tetapi proses ini mahal dan memerlukan pemahaman mendalam tentang penurunan kecerunan (gradient descent) dan fungsi kerugian (loss functions). Kebanyakan pengguna tidak akan melakukan ini, tetapi mereka yang melakukannya adalah mereka yang benar-benar mengawal “moraliti” mesin. Merekalah yang menentukan sempadan apa yang mungkin dalam ekosistem digital khusus mereka. Kekangan teknikal adalah had sebenar etika mesin.
Ada cerita, alat, trend, atau soalan AI yang anda fikir kami patut liputi? Hantar idea artikel anda kepada kami — kami ingin mendengarnya.
Prerogatif Kemanusiaan Terakhir
Pada penghujung hari, AI ialah alat, bukan dewa. Ia tidak mempunyai nilai; ia mempunyai arahan. Peralihan baru-baru ini ke arah interaksi yang lebih menyerupai manusia telah mengaburi fakta ini, menjadikan kita lebih cenderung untuk mempercayai “penghakiman” mesin. Kita mesti menentang dorongan ini. Tanggungjawab untuk hasil etika kekal teguh dengan manusia yang mereka bentuk, menggunakan, dan menggunakan sistem ini. Kita harus kurang bimbang tentang AI “jahat” dan lebih bimbang tentang manusia yang menggunakan AI “neutral” untuk mewajarkan bias mereka sendiri. Mesin hanya sebaik niat tuannya.
Kita ditinggalkan dengan soalan yang lebih tajam daripada yang kita mulakan. Apabila AI menjadi lebih bersepadu dalam kehidupan kita, kita perlu memutuskan bahagian mana kemanusiaan kita yang sanggup kita automasikan dan bahagian mana yang mesti kita lindungi. Taruhannya bukan sekadar tentang hasil carian yang lebih baik atau e-mel yang lebih pantas. Ia adalah tentang siapa kita sebagai spesies dan jenis dunia yang ingin kita bina. Kita tidak boleh membiarkan kemudahan teknologi membutakan kita terhadap akibat penggunaannya. Era AI bukanlah pengakhiran nilai kemanusiaan. Ia adalah permulaan bab baharu yang lebih sukar dalam sejarah kita. Kita mesti bersedia untuk menulisnya dengan niat.
Nota editor: Kami mencipta laman web ini sebagai hab berita dan panduan AI berbilang bahasa untuk orang yang bukan pakar komputer, tetapi masih ingin memahami kecerdasan buatan, menggunakannya dengan lebih yakin, dan mengikuti masa depan yang sudah tiba.
Menemui ralat atau sesuatu yang perlu diperbetulkan? Beritahu kami.