Mit jelentenek az emberi értékek a mesterséges intelligencia korában?
A semleges kód mítosza
A mesterséges intelligenciáról szóló beszélgetések gyakran a technikai teljesítményre és a számítási kapacitásra összpontosítanak. Paraméterekről és petabájtokról beszélünk, mintha csak ezek lennének a fontos mérőszámok. Ez a fókusz azonban elhomályosít egy sokkal sürgetőbb valóságot. Minden nagy nyelvi modell az őt formáló emberi preferenciák tükre. Nem létezik semleges algoritmus. Amikor egy rendszer választ ad, nem az objektív igazság vákuumából merít, hanem a fejlesztők és az adatcímkézők által meghatározott, súlyozott értékek egy konkrét halmazát tükrözi. A lényeg egyszerű: nem arra tanítjuk a gépeket, hogy gondolkodjanak, hanem arra, hogy utánozzák a mi sajátos, gyakran ellentmondásos társadalmi normáinkat. Ez a logikáról az etikára való váltás a számítástechnika legjelentősebb változása az internet feltalálása óta. A felelősség terhét a hardverről azokra az emberekre helyezi át, akik meghatározzák, hogyan néz ki egy „helyes” válasz.
Az iparág a közelmúltban a puszta képességekről a biztonság és az összehangolás felé fordult. Ez technikai korrekciónak hangzik, de valójában mélyen politikai folyamat. Amikor arra kérünk egy modellt, hogy legyen segítőkész, ártalmatlan és őszinte, olyan szavakat használunk, amelyek kultúránként eltérő jelentéssel bírnak. Egy érték, amely egy San Franciscó-i tárgyalóteremben univerzálisnak tűnik, Jakartában sértő vagy irreleváns lehet. A globális lépték és a helyi értékek közötti feszültség a modern technológia elsődleges konfliktusa. Fel kell hagynunk azzal, hogy a mesterséges intelligenciát autonóm erőként kezeljük, és az emberi szándék kurált kiterjesztéseként kell tekintenünk rá. Ehhez túl kell látni a marketinges felhajtáson, hogy észrevegyük a színfalak mögött meghozott tényleges döntéseket.
Az emberi választások mechanikus tükre
Ahhoz, hogy megértsük, hogyan kerülnek értékek egy gépbe, meg kell vizsgálnunk az emberi visszajelzéseken alapuló megerősítéses tanulást, azaz az RLHF-et. Ez az a folyamat, amely során emberi vállalkozók ezrei rangsorolják a modell különböző válaszait. Kétféle választ látnak, és arra kattintanak, amelyiket udvariasabbnak vagy pontosabbnak találják. Idővel a modell megtanul bizonyos mintákat ezekhez az emberi preferenciákhoz társítani. Ez nem az igazság keresése, hanem a jóváhagyásé. A modell lényegében arra van kiképezve, hogy elnyerje emberi értékelői tetszését. Ez az erkölcsiség látszatát kelti, ami valójában csak egy statisztikai közelítése annak, amit egy adott csoport szívesen hall.
Ez a folyamat rengeteg szubjektivitást visz a rendszerbe. Ha a címkézők többsége egy bizonyos demográfiai csoportból származik, a modell természetes módon átveszi az adott csoport szlengjét, társadalmi jelzéseit és politikai elfogultságait. Ezért küzdöttek a népszerű modellek korai verziói a nem nyugati kontextusokkal. Nem voltak elromolva, egyszerűen pontosan úgy működtek, ahogy betanították őket. Azoknak az embereknek az értékeit tükrözték, akiket a minősítésükért fizettek. Ez az a réteg, ahol az olyan elvont fogalmak, mint a tisztesség és az elfogultság, konkrét kódsorokká válnak. Ez egy manuális, munkaigényes folyamat, amely jóval azelőtt zajlik, hogy a nyilvánosság látná a chat-felületet. Ez a modern intelligencia láthatatlan infrastruktúrája.
A legtöbb ember abban téved, hogy azt hiszi, a mesterséges intelligenciának van belső erkölcsi iránytűje. Nincs neki. Jutalomfüggvénye van. Amikor egy modell megtagadja a válaszadást, az nem azért van, mert „érzi”, hogy a téma helytelen, hanem azért, mert a képzési adatait erősen súlyozták az adott minta elkerülése érdekében. Ez a megkülönböztetés létfontosságú. Ha azt hisszük, hogy a gép erkölcsös, akkor nem kérdőjelezzük meg azokat, akik a szabályokat alkotják. Fel kell ismernünk, hogy minden elutasítás és minden segítő tanács egy emberi döntésen alapuló programozott válasz. Ha ezt azonosítjuk, jobb kérdéseket tehetünk fel arról, hogy ki és miért állítja fel ezeket a szabályokat.
Geopolitika a látens térben
Ezeknek a választásoknak globális hatása van. A legtöbb vezető AI-modellt elsősorban az interneten elérhető angol nyelvű adatokon képzik. Ez egy olyan digitális monokultúrát hoz létre, ahol a nyugati értékek az alapértelmezettek. Amikor egy felhasználó a világ egy másik pontján családi dinamikákról vagy jogi kérdésekről kér tanácsot, azokat egy sajátos kulturális szemüvegen keresztül szűrt válaszokat kapja. Ez nemcsak nyelvfordítás kérdése, hanem kulturális fordításé is. A hierarchia, a magánélet és a közösség árnyalatai világszerte vadul változnak, de a modellek gyakran egy kaptafára készült megoldást kínálnak. A „helyes” gondolkodás ilyen központosítása a „soft power” egy új formája, amely hatalmas hatással van a globális diskurzusra.
Ennek hatására világszerte megindult a szuverén AI-modellek fejlesztése. Olyan országok, mint Franciaország, az Egyesült Arab Emírségek és India, saját infrastruktúrába fektetnek be, hogy biztosítsák saját kulturális értékeik képviseletét. Felismerték, hogy egy külföldi modellre támaszkodni egy külföldi világkép importálását jelenti. Ez a tendencia felgyorsult, ahogy a kormányok rájöttek, hogy az AI látens tere feletti kontroll ugyanolyan fontos, mint a fizikai határok ellenőrzése. A modellek képzésére használt adatok egyfajta digitális történelemkönyvként szolgálnak. Ha az a könyv csak egy perspektívát tartalmaz, az eredményül kapott intelligencia eleve korlátozott lesz. Ezért a változatos adatkészletek iránti törekvés nem csupán sokszínűségi kezdeményezés, hanem a pontosság és a relevancia követelménye globális szinten.
A nemzetközi együttműködés tétje nagy. Ha minden nemzet saját, elszigetelt mesterséges intelligenciát épít saját merev értékrendjével, nehezebb lesz kommunikálnunk a digitális határokon át. Az alternatíva azonban egy olyan világ, ahol néhány vállalat egyetlen völgyben határozza meg az erkölcsi határokat emberek milliárdjai számára. Egyik út sem tökéletes. A kihívás az, hogy megtaláljuk a módját a helyi árnyalatoknak, miközben fenntartjuk az alapvető emberi jogok közös megértését. Ezt a problémát nem lehet jobb hardverrel megoldani. Nemzetközi diplomáciát és a technológiai ipart ma hajtó ösztönzők tiszta szemmel való vizsgálatát igényli. Ezekről a kihívásokról többet is megtudhat az AI-etika és kormányzás témájú átfogó útmutatónkban.
Döntések a hurokban
Gondoljunk Sarah-ra, a HR-esre, aki egy AI-eszközt használ több száz önéletrajz szűrésére egy új mérnöki pozícióhoz. Az eszköz arra lett kiképezve, hogy „nagy potenciállal rendelkező” jelölteket keressen. Felületesen ez hatékonynak tűnik, de a felszín alatt az eszköz olyan értékeket alkalmaz, amelyeket korábbi felvételi adatokból tanult. Ha a történelmi adatok azt mutatják, hogy a cég főleg három konkrét egyetemről vett fel embereket, az AI azokat az iskolákat fogja előnyben részesíteni. Nem „rasszista” vagy „elitista” emberi értelemben, egyszerűen csak optimalizálja azt a mintát, amelyről azt mondták neki, hogy értékes. Sarah talán észre sem veszi, hogy az eszköz kiszűri a nem hagyományos hátterű zseniális jelölteket, mert nem illenek a képzési adatok „értékprofiljába”.
Ez a forgatókönyv naponta ezernyi irodában játszódik le. Az értékek nem elvontak. Ezek jelentik a különbséget aközött, hogy valaki megkapja-e az állást, vagy egy algoritmus figyelmen kívül hagyja. Ugyanez a logika érvényes a hitelbírálatra, az orvosi triázsra és még az ítélethozatalra is. Minden esetben egy olyan emberi értéket, mint a „kockázat” vagy az „érdem”, számmá konvertálnak. A veszély az, hogy ezeket a számokat objektív igazságként kezeljük, ahelyett, hogy szubjektív választásoknak tekintenénk őket. Gyakran delegáljuk az erkölcsi ítéletalkotás nehéz munkáját a gépre, mert az gyorsabb és kényelmesebb. De a gép csak automatizálja meglévő elfogultságainkat olyan léptékben, amelyet nem tudunk könnyen ellenőrizni.
A mindennap használt termékeink teszik valóságossá ezeket az érveket. Amikor egy fotószerkesztő alkalmazás automatikusan világosítja valaki bőrszínét, hogy „jobban” nézzen ki, az egy értéket fejez ki. Amikor egy navigációs alkalmazás elkerüli a „magas bűnözési arányú” területeket, értékítéletet hoz a biztonságról és a társadalmi osztályról. Ezek nem technikai hibák, hanem az emberek által biztosított adatok és jutalomfüggvények logikus következményei. Olyan világban élünk, ahol a szoftvereink folyamatosan erkölcsi döntéseket hoznak helyettünk. A legtöbbször észre sem vesszük, amíg valami el nem romlik. Kritikusabbnak kell lennünk azokkal a „segítő” funkciókkal szemben, amelyek valójában csak beépített előfeltevések.
Az iparág legutóbbi változása az „irányíthatóság” felé mutat. A vállalatok most nagyobb kontrollt adnak a felhasználóknak az AI „személyisége” vagy „értékei” felett. Megmondhatod a modellnek, hogy legyen „kreatívabb” vagy „professzionálisabb”. Bár ez felhatalmazásnak tűnik, valójában a felelősséget visszahárítja a felhasználóra. Ha az AI elfogult választ ad, a cég azt állíthatja, hogy a felhasználó nem állította be helyesen a paramétereket. Ez az elszámoltathatóság bonyolult hálóját hozza létre, ahol senki sem felelős igazán a kimenetért. A rögzített értékek világából a folyékony, felhasználó által meghatározott értékek világába lépünk, ami saját kockázatokat és jutalmakat hordoz.
Az automatizált erkölcs ára
Szókratészi szkepticizmussal kell viszonyulnunk a „biztonságos” AI ötletéhez. Ha egy modell tökéletesen összehangolt, kinek az értékeivel van összehangolva? A mai biztonsági szűrőknek rejtett költsége van. Ezeket a szűrőket gyakran fejlődő országok alacsony bérű munkaerejével építik. Az embereknek óránként néhány dollárt fizetnek azért, hogy elolvassák az internet legszörnyűbb tartalmait, hogy a gép megtanulja elkerülni azokat. Lényegében az értékmeghatározás pszichológiai traumáját szervezzük ki a globális délre. Valóban „etikus” egy AI, ha biztonsága kizsákmányolt munkások hátán épült? Ez egy olyan kérdés, amelyre a technológiai ipar ritkán szeret közvetlenül válaszolni.
Egy másik korlát az „erkölcsi hallucináció”. Mivel ezek a modellek annyira jól utánoznak, nagyon meggyőzően tudnak hangzani, amikor etikáról beszélnek. Könnyedén idéznek filozófusokat és jogi precedenseket. De semmit sem értenek belőle. Csak a következő tokent jósolják meg egy sorozatban.
A BotNews.today mesterséges intelligencia eszközöket használ a tartalom kutatására, írására, szerkesztésére és fordítására. Csapatunk felülvizsgálja és felügyeli a folyamatot, hogy az információ hasznos, világos és megbízható maradjon.
- Ki határozza meg az „alapigazságot” olyan szubjektív témákban, mint a politika vagy a vallás?
- Mi történik, ha egy magánvállalat értékei ütköznek egy demokratikus társadalom értékeivel?
- Hogyan auditáljuk az RLHF „fekete dobozát”, hogy lássuk, mi volt valójában jutalmazva a képzés során?
- Lehet-e egy gép valaha is igazán „tisztességes”, ha a világ, amelyen képezték, eleve tisztességtelen?
A korlátozások architektúrája
A haladó felhasználók számára az AI „értékei” gyakran a rendszerüzenetben és az API-konfigurációban találhatók. Ez a technológia azon 20 százaléka, amely az élmény 80 százalékát irányítja. Amikor API-n keresztül lépsz kapcsolatba egy modellel, láthatod a „hőmérséklet” (temperature) és a „top-p” beállításokat. Ezek nem csak technikai gombok. Irányítják, mennyire térhet el a modell a legvalószínűbb (és gyakran legelfogultabb) választól. Az alacsonyabb hőmérséklet kiszámíthatóbbá és „biztonságosabbá” teszi a modellt, míg a magasabb hőmérséklet több „kreativitást”, de több kockázatot is megenged. Ezek a beállítások az értékalapú összehangolás első védelmi vonalai.
A munkafolyamat-integráció az, ahol a dolgok komolyra fordulnak. A fejlesztők most olyan „védőkorlát” rétegeket építenek, amelyek a felhasználó és a modell között helyezkednek el. Ezek a rétegek másodlagos modelleket használnak a bemenet és a kimenet értékalapú szabálysértéseinek ellenőrzésére. Ez az irányítás többszintű rendszerét hozza létre. Ezeknek a védőkorlátoknak azonban saját API-korlátaik és késleltetési költségeik vannak. Egy komplex biztonsági verem több másodperccel lelassíthatja a választ, ami jelentős kompromisszum egy éles környezetben. Ezenkívül a modellek helyi tárolása is egyre gyakoribb. A modell helyi futtatása lehetővé teszi a felhasználó számára a vállalati szűrők megkerülését, de jelentős VRAM-ot és optimalizált kvantálási technikákat, például GGUF-ot vagy EXL2-t igényel.
Az igazi geek kihívás az értékek szerinti „finomhangolás”. Ez magában foglalja egy alapmodell vételét és annak képzését egy kis, kiváló minőségű, konkrét példákat tartalmazó adatkészleten. Így hoznak létre a cégek olyan AI-t, amely tükrözi saját márkahangjukat vagy jogi követelményeiket. Ez egy módja annak, hogy az értékeket „beépítsük” a modell súlyaiba. De ez a folyamat drága, és mélyreható ismereteket igényel a gradiens ereszkedésről és a veszteségfüggvényekről. A legtöbb felhasználó ezt soha nem fogja megtenni, de akik igen, azok irányítják igazán a gép „erkölcsiségét”. Ők azok, akik meghatározzák a lehetséges határait a saját digitális ökoszisztémájukon belül. A technikai korlátok a gép etikájának tényleges határai.
Van egy AI-történet, eszköz, trend vagy kérdés, amiről úgy gondolja, hogy foglalkoznunk kellene vele? Küldje el nekünk cikkötletét — szívesen meghallgatnánk.
Az utolsó emberi előjog
A nap végén az AI egy eszköz, nem istenség. Nincsenek értékei, csak utasításai. Az emberibb interakció felé mutató közelmúltbeli elmozdulás elhomályosította ezt a tényt, így hajlamosabbak vagyunk megbízni a gép „ítéletében”. Ellen kell állnunk ennek a késztetésnek. Az etikus eredményekért való felelősség szilárdan azoknál az embereknél marad, akik ezeket a rendszereket tervezik, telepítik és használják. Kevésbé kellene aggódnunk a „gonosz” AI miatt, és jobban kellene aggódnunk azok miatt az emberek miatt, akik „semleges” AI-t használnak saját elfogultságaik igazolására. A gép csak annyira jó, amennyire a gazdájának szándékai.
Élesebb kérdésekkel maradunk, mint amilyenekkel kezdtük. Ahogy az AI egyre inkább beépül az életünkbe, el kell döntenünk, emberségünk mely részeit vagyunk hajlandók automatizálni, és melyeket kell megvédenünk. A tét nem csupán jobb keresési eredmények vagy gyorsabb e-mailek. Arról van szó, kik vagyunk fajként, és milyen világot akarunk építeni. Nem hagyhatjuk, hogy a technológia kényelme elvakítson minket a használatának következményeitől. Az AI korszaka nem az emberi értékek vége. Ez egy új, nehezebb fejezet kezdete a történelmünkben. Fel kell készülnünk arra, hogy szándékkal írjuk meg.
A szerkesztő megjegyzése: Ezt az oldalt többnyelvű AI hírek és útmutatók központjaként hoztuk létre olyan emberek számára, akik nem számítógépes zsenik, de mégis szeretnék megérteni a mesterséges intelligenciát, magabiztosabban használni, és követni a már megérkező jövőt.
Hibát talált, vagy valami javításra szorul? Tudassa velünk.