Maana ya Maadili ya Kibinadamu katika Enzi ya AI
Hadithi ya Kanuni zisizo na Upande
Mazungumzo kuhusu artificial intelligence mara nyingi huzingatia vipimo vya kiufundi na nguvu ya usindikaji. Tunazungumzia parameters na petabytes kana kwamba ndivyo vipimo pekee vinavyojali. Mtazamo huu huficha ukweli mwingine muhimu zaidi. Kila large language model ni kioo cha mapendeleo ya kibinadamu yaliyoiunda. Hakuna kitu kama algorithm isiyo na upande. Wakati mfumo unatoa jibu, haitoi kutoka kwenye ombwe la ukweli kamili. Inaakisi seti maalum ya maadili yaliyowekwa na developers na data labelers. Somo kuu ni rahisi. Hatufundishi mashine kufikiri. Tunazifundisha kuiga kanuni zetu maalum za kijamii, ambazo mara nyingi hupingana. Mabadiliko haya kutoka mantiki kwenda maadili ndiyo mabadiliko makubwa zaidi katika kompyuta tangu kuvumbuliwa kwa internet. Inahamisha mzigo wa uwajibikaji kutoka kwenye hardware kwenda kwa wanadamu wanaofafanua jibu “sahihi” linaonekanaje.
Sekta hii hivi karibuni imebadilika kutoka uwezo wa kawaida kwenda kwenye usalama na alignment. Hii inasikika kama marekebisho ya kiufundi, lakini kwa kweli ni mchakato wa kisiasa sana. Tunapoiomba model iwe na manufaa, isiyo na madhara, na ya kweli, tunatumia maneno ambayo yana maana tofauti katika tamaduni mbalimbali. Thamani inayoonekana kuwa ya kawaida katika chumba cha mikutano cha San Francisco inaweza kuonekana kuwa ya kukera au isiyo na maana huko Jakarta. Mvutano kati ya kiwango cha kimataifa na maadili ya ndani ndio mgogoro mkuu katika teknolojia ya kisasa. Lazima tuache kuiona AI kama nguvu inayojitegemea na kuanza kuiona kama kiendelezi cha makusudi ya kibinadamu. Hii inahitaji kuangalia zaidi ya hype ya masoko ili kuona chaguzi halisi zinazofanywa nyuma ya pazia.
Kioo cha Mitambo cha Chaguzi za Kibinadamu
Ili kuelewa jinsi maadili yanavyoingia kwenye mashine, lazima uangalie Reinforcement Learning from Human Feedback, au RLHF. Huu ni mchakato ambapo maelfu ya wakandarasi wa kibinadamu hupanga majibu tofauti kutoka kwa model. Wanaweza kuona matoleo mawili ya jibu na kubofya lile wanaloliona kuwa la heshima au sahihi zaidi. Baada ya muda, model hujifunza kuhusisha mifumo fulani na mapendeleo haya ya kibinadamu. Hii si utafutaji wa ukweli. Ni utafutaji wa idhini. Model kimsingi inafunzwa ili kuwafurahisha wakaguzi wake wa kibinadamu. Hii inajenga mwonekano wa maadili ambao kwa kweli ni makadirio ya kitakwimu ya kile ambacho kundi maalum la watu linapenda kusikia.
Mchakato huu unaleta kiasi kikubwa cha ushabiki. Ikiwa idadi kubwa ya labelers wanatoka katika kundi maalum la watu, model itachukua kawaida slang, ishara za kijamii, na upendeleo wa kisiasa wa kundi hilo. Hii ndiyo sababu matoleo ya awali ya models nyingi maarufu yalipata shida na miktadha isiyo ya Western. Hazikuwa zimeharibika. Zilikuwa zikifanya kazi kama zilivyofunzwa. Ziliakisi maadili ya watu waliolipwa kuzikadiria. Hii ndiyo safu ambapo dhana dhahania kama haki na upendeleo huwa mistari halisi ya kanuni. Ni mchakato wa mikono, unaohitaji nguvu kazi nyingi ambao hutokea muda mrefu kabla ya umma kuona chat interface. Ni miundombinu isiyoonekana ya akili ya kisasa.
Mkanganyiko ambao watu wengi huleta kwenye mada hii ni wazo kwamba AI ina dira ya ndani ya maadili. Haina. Ina reward function. Wakati model inapokataa kujibu swali, si kwa sababu “inahisi” mada hiyo ni mbaya. Ni kwa sababu data yake ya mafunzo imewekewa uzito mkubwa ili kuepuka mfumo huo maalum. Tofauti hii ni muhimu. Ikiwa tunaamini mashine ina maadili, tunaacha kuwahoji watu wanaoweka sheria. Lazima tutambue kwamba kila kukataa na kila kidokezo cha manufaa ni jibu lililopangwa kulingana na uamuzi wa kibinadamu. Kwa kutambua hili, tunaweza kuanza kuuliza maswali bora kuhusu nani anaweka sheria hizi na kwa nini.
Jiopolitiki katika Latent Space
Athari za chaguzi hizi ni za kimataifa. Models nyingi zinazoongoza za AI hufunzwa kimsingi kwenye data ya lugha ya Kiingereza kutoka kwenye open web. Hii inajenga utamaduni mmoja wa kidijitali ambapo maadili ya Western ndiyo chaguo-msingi. Wakati mtumiaji katika sehemu nyingine ya dunia anaomba ushauri kuhusu mienendo ya familia au masuala ya kisheria, anapokea majibu yaliyochujwa kupitia lenzi maalum ya kitamaduni. Hili si suala la tafsiri ya lugha tu. Ni suala la tafsiri ya kitamaduni. Nuances za uongozi, faragha, na jamii hutofautiana sana duniani kote, lakini models mara nyingi hutoa suluhisho moja kwa wote. Uwekaji huu wa kati wa mawazo “sahihi” ni aina mpya ya soft power ambayo ina athari kubwa kwa mazungumzo ya kimataifa.
Tunaona haraka ya kutengeneza sovereign AI models kama jibu kwa hili. Nchi kama Ufaransa, UAE, na India zinawekeza katika miundombinu yao wenyewe ili kuhakikisha maadili yao maalum ya kitamaduni yanawakilishwa. Wanatambua kwamba kutegemea model ya kigeni kunamaanisha kuingiza mtazamo wa kigeni wa dunia. Katika , mwelekeo huu umeongezeka kasi huku serikali zikigundua kuwa udhibiti wa latent space ya AI ni muhimu kama udhibiti wa mipaka ya kimwili. Data inayotumiwa kufunza models hizi hufanya kazi kama kitabu cha historia ya kidijitali. Ikiwa kitabu hicho kina mtazamo mmoja tu, akili inayotokana nayo itakuwa na mipaka. Hii ndiyo sababu msukumo wa data sets mbalimbali si mpango wa utofauti tu. Ni hitaji la usahihi na umuhimu katika kiwango cha kimataifa.
Dau ni kubwa kwa ushirikiano wa kimataifa. Ikiwa kila taifa litajenga AI yake iliyotengwa na seti yake ya maadili magumu, tunaweza kupata ugumu kuwasiliana kuvuka mipaka ya kidijitali. Hata hivyo, mbadala wake ni dunia ambapo makampuni machache katika bonde moja hufafanua mipaka ya maadili kwa mabilioni ya watu. Hakuna njia iliyo kamili. Changamoto ni kutafuta njia ya kuruhusu nuances za ndani huku tukidumisha uelewa wa pamoja wa haki za msingi za binadamu. Hili ni tatizo ambalo haliwezi kutatuliwa kwa hardware bora. Inahitaji diplomasia ya kimataifa na mtazamo wa wazi juu ya motisha zinazoendesha sekta ya teknolojia leo. Unaweza kupata zaidi kuhusu changamoto hizi katika mwongozo wetu wa kina wa AI ethics and governance.
Maamuzi katika Mzunguko
Fikiria siku katika maisha ya meneja wa ajira anayeitwa Sarah. Anatumia zana ya AI kuchuja mamia ya wasifu kwa nafasi mpya ya uhandisi. Zana hiyo imefunzwa kutafuta wagombea wenye “uwezo mkubwa.” Kwa juu, hii inaonekana kuwa bora. Lakini chini ya interface, zana inatumia seti ya maadili iliyojifunza kutoka kwa data ya awali ya ajira. Ikiwa data ya kihistoria inaonyesha kuwa kampuni iliajiri watu wengi kutoka vyuo vikuu vitatu maalum, AI itapeleka kipaumbele kwa vyuo hivyo. Haiwi “mbaguzi” au “elitist” kwa maana ya kibinadamu. Inaboresha tu mfumo iliyoambiwa kuwa ni wa thamani. Sarah anaweza hata asitambue kuwa zana inachuja wagombea mahiri kutoka asili zisizo za kawaida kwa sababu hawafai wasifu wa “thamani” wa data ya mafunzo.
Hali hii hutokea katika maelfu ya ofisi kila siku. Maadili si dhahania. Ni tofauti kati ya kupata kazi na kupuuzwa na algorithm. Mantiki hiyo hiyo inatumika kwa ukadiriaji wa mikopo, triage ya matibabu, na hata hukumu za mahakama. Katika kila kisa, thamani ya kibinadamu kama “hatari” au “ustahiki” hubadilishwa kuwa namba. Hatari ni kwamba tunachukulia namba hizi kama ukweli kamili badala ya chaguzi za kibinafsi zilivyo. Mara nyingi tunakabidhi kazi ngumu ya hukumu ya maadili kwa mashine kwa sababu ni haraka na haina usumbufu. Lakini mashine inafanya tu otomatiki ya upendeleo wetu uliopo kwa kiwango ambacho hatuwezi kukifuatilia kwa urahisi.
Bidhaa tunazotumia kila siku hufanya hoja hizi kuwa halisi. Wakati app ya kuhariri picha inapong’arisha rangi ya ngozi ya mtu ili kumfanya aonekane “bora,” inaonyesha thamani. Wakati app ya urambazaji inapoepuka maeneo ya “uhalifu mwingi,” inafanya hukumu ya thamani kuhusu usalama na tabaka la kijamii. Hizi si makosa ya kiufundi. Ni hitimisho la kimantiki la data na reward functions zilizotolewa na wanadamu. Tunaishi katika dunia ambapo programu zetu hufanya chaguzi za kimaadili kwa niaba yetu kila wakati. Mara nyingi, hatutambui hata inatokea hadi kitu kinapoharibika. Tunahitaji kuwa wakosoaji zaidi wa vipengele “vya manufaa” ambavyo kwa kweli ni dhana zilizojengwa ndani.
Mabadiliko ya hivi karibuni katika sekta hii ni hatua kuelekea “steerability.” Makampuni sasa yanawapa watumiaji udhibiti zaidi juu ya “utu” au “maadili” ya AI yao. Unaweza kuiambia model iwe “mbunifu zaidi” au “kitaalamu zaidi.” Ingawa hii inahisi kama uwezeshaji, kwa kweli inahamisha jukumu kurudi kwa mtumiaji. Ikiwa AI inatoa jibu la upendeleo, kampuni inaweza kudai mtumiaji hakuweka vigezo kwa usahihi. Hii inajenga mtandao tata wa uwajibikaji ambapo hakuna mtu anayewajibika kikamilifu kwa matokeo. Tunahama kutoka dunia ya maadili yaliyowekwa kwenda dunia ya maadili yanayobadilika, yaliyofafanuliwa na mtumiaji, ambayo huleta seti yake ya hatari na thawabu.
Bei ya Maadili ya Otomatiki
Lazima tutumie ushaka wa Socratic kwa wazo la AI “salama.” Ikiwa model imepangwa kikamilifu, maadili ya nani yamepangwa nayo? Kuna gharama iliyofichika kwa vichujio vya usalama tunavyoona leo. Mara nyingi, vichujio hivi hujengwa kwa kutumia nguvu kazi ya mshahara mdogo katika nchi zinazoendelea. Watu hulipwa dola chache kwa saa kusoma maudhui ya kutisha zaidi kwenye internet ili mashine iweze kujifunza kuyaepuka. Kimsingi tunatoa nje kiwewe cha kisaikolojia cha kuweka maadili kwa nchi za kusini mwa dunia. Je, AI ni “ya kimaadili” kweli ikiwa usalama wake umejengwa juu ya migongo ya wafanyakazi wanaonyonywa? Hili ni swali ambalo sekta ya teknolojia mara chache hupenda kulijibu moja kwa moja.
Kikwazo kingine ni “hallucination of morality.” Kwa sababu models hizi ni nzuri sana katika kuiga, zinaweza kusikika kuwa za kusadikisha sana zinapozungumzia maadili. Zinaweza kutaja wanafalsafa na mifano ya kisheria kwa urahisi. Lakini hazielewi lolote kati ya hayo. Zinatabiri tu token inayofuata katika mfuatano.
BotNews.today hutumia zana za AI kufanya utafiti, kuandika, kuhariri, na kutafsiri maudhui. Timu yetu hukagua na kusimamia mchakato ili kuweka habari kuwa muhimu, wazi, na ya kuaminika.
- Nani anafafanua “ground truth” kwa mada za kibinafsi kama siasa au dini?
- Nini kinatokea wakati maadili ya shirika binafsi yanapopingana na maadili ya jamii ya kidemokrasia?
- Tunakaguje “black box” ya RLHF ili kuona nini kilizawadiwa wakati wa mafunzo?
- Je, mashine inaweza kuwa “ya haki” kweli ikiwa dunia iliyofunzwa kwayo haina haki kiasili?
Usanifu wa Vikwazo
Kwa watumiaji wenye nguvu, “maadili” ya AI mara nyingi hupatikana katika system prompt na usanidi wa API. Hii ni asilimia 20 ya teknolojia inayodhibiti asilimia 80 nyingine ya uzoefu. Unaposhirikiana na model kupitia API, unaweza kuona mipangilio ya “temperature” na “top-p.” Hizi si vifungo vya kiufundi tu. Vinadhibiti kiasi gani model inaruhusiwa kupotoka kutoka kwa jibu linalowezekana zaidi (na mara nyingi lenye upendeleo zaidi). Temperature ya chini hufanya model kuwa ya kutabirika na “salama,” wakati temperature ya juu inaruhusu “ubunifu” zaidi lakini pia hatari zaidi. Mipangilio hii ndiyo mstari wa kwanza wa ulinzi katika alignment ya maadili.
Ujumuishaji wa mtiririko wa kazi ndipo mpira unapokutana na barabara. Developers sasa wanajenga safu za “guardrail” zinazokaa kati ya mtumiaji na model. Safu hizi hutumia models za sekondari kuangalia input na output kwa ukiukaji wa maadili. Hii inajenga mfumo wa udhibiti wa ngazi nyingi. Hata hivyo, guardrails hizi zina mipaka yao ya API na gharama za latency. Stack tata ya usalama inaweza kupunguza kasi ya jibu kwa sekunde kadhaa, ambayo ni biashara muhimu katika mazingira ya uzalishaji. Zaidi ya hayo, uhifadhi wa ndani wa models hizi unazidi kuwa wa kawaida. Kuendesha model ndani ya kifaa humruhusu mtumiaji kukwepa vichujio vya shirika, lakini pia inahitaji VRAM kubwa na mbinu za quantization zilizoboreshwa kama GGUF au EXL2.
Changamoto halisi ya kiwango cha geek ni “fine tuning” kwa ajili ya maadili. Hii inahusisha kuchukua base model na kuifunza kwenye dataset ndogo, ya ubora wa juu ya mifano maalum. Hivi ndivyo makampuni yanavyounda AI inayoakisi sauti ya chapa yao maalum au mahitaji ya kisheria. Ni njia ya “hard code” maadili kwenye uzito wa model. Lakini mchakato huu ni wa gharama na unahitaji uelewa wa kina wa gradient descent na loss functions. Watumiaji wengi hawatawahi kufanya hivi, lakini wale wanaofanya ndio wanaodhibiti “maadili” ya mashine. Wao ndio wanaofafanua mipaka ya kile kinachowezekana ndani ya mfumo wao maalum wa kidijitali. Vikwazo vya kiufundi ndivyo mipaka halisi ya maadili ya mashine.
Una hadithi ya AI, zana, mwelekeo, au swali unalofikiri tunapaswa kushughulikia? Tutumie wazo lako la makala — tungependa kulisikia.
Haki ya Mwisho ya Kibinadamu
Mwisho wa siku, AI ni zana, si mungu. Haina maadili; ina maelekezo. Mabadiliko ya hivi karibuni kuelekea mwingiliano unaofanana na binadamu yameficha ukweli huu, na kutufanya tuwe na uwezekano mkubwa wa kuamini “hukumu” ya mashine. Lazima tupinge msukumo huu. Jukumu la matokeo ya kimaadili linabaki kwa uthabiti kwa wanadamu wanaobuni, kupeleka, na kutumia mifumo hii. Tunapaswa kuwa na wasiwasi mdogo kuhusu AI “mbaya” na kuwa na wasiwasi zaidi kuhusu wanadamu wanaotumia AI “isiyo na upande” kuhalalisha upendeleo wao wenyewe. Mashine ni nzuri tu kama nia ya bwana wake.
Tumeachwa na maswali makali zaidi kuliko tulivyoanza nayo. AI inapoingizwa zaidi katika maisha yetu, lazima tuamue ni sehemu zipi za ubinadamu wetu tuko tayari kuzifanya otomatiki na ni sehemu zipi lazima tuzilinde. Dau si kuhusu matokeo bora ya utafutaji au barua pepe za haraka tu. Ni kuhusu sisi ni nani kama spishi na ni aina gani ya dunia tunataka kujenga. Hatuwezi kuruhusu urahisi wa teknolojia kutufanya tusione matokeo ya matumizi yake. Enzi ya AI si mwisho wa maadili ya kibinadamu. Ni mwanzo wa sura mpya, ngumu zaidi katika historia yetu. Lazima tuwe tayari kuiandika kwa nia.
הערת העורך: יצרנו אתר זה כמרכז חדשות ומדריכים רב-לשוני בנושא בינה מלאכותית עבור אנשים שאינם "גיקים" של מחשבים, אך עדיין רוצים להבין בינה מלאכותית, להשתמש בה בביטחון רב יותר, ולעקוב אחר העתיד שכבר מגיע.
Umepata hitilafu au kitu kinachohitaji kurekebishwa? Tujulishe.