Így jutottunk el ide: Az AI-bumm rövid története
A mesterséges intelligencia jelenlegi térnyerése nem egy 2022 végi vírusként terjedő chatbottal kezdődött. Az egész egy 2017-ben megjelent, Google-mérnökök által jegyzett kutatási tanulmánnyal indult, amelynek címe: „Attention Is All You Need”. Ez a dokumentum mutatta be a Transformer architektúrát, amely alapjaiban változtatta meg, hogyan dolgozzák fel a gépek az emberi nyelvet. Ezt megelőzően a számítógépek nehezen tartották meg egy hosszú mondat kontextusát; mire a végére értek, gyakran elfelejtették a bekezdés elejét. A Transformer ezt azzal oldotta meg, hogy lehetővé tette a modell számára a különböző szavak fontosságának egyidejű súlyozását. Ez az egyetlen technikai váltás a fő oka annak, hogy a modern eszközök koherensnek tűnnek, nem pedig robotikusnak. Jelenleg épp ennek az egyetlen döntésnek a felskálázott következményeit éljük, amely elmozdult a szekvenciális feldolgozástól. Ez a történet nemcsak jobb kódról szól, hanem az információval való interakciónk alapvető, globális szintű átalakulásáról. A válaszok keresésétől a válaszok generálásáig tartó váltás minden internetfelhasználó alapvető elvárásait megváltoztatta.
Statisztikai előrejelzés a logika helyett
A technológia jelenlegi állapotának megértéséhez el kell vetnünk azt az elképzelést, hogy ezek a rendszerek gondolkodnak. Nem teszik. Ezek hatalmas statisztikai motorok, amelyek egy szekvencia következő darabját jósolják meg. Amikor beírsz egy promptot, a rendszer a tréningadatok alapján meghatározza, melyik szó következik a legvalószínűbben a bemeneted után. Ez eltérés a múlt logikai alapú programozásától. Korábbi évtizedekben a szoftverek szigorú „ha-akkor” szabályokat követtek. Ha a felhasználó egy gombra kattintott, a szoftver végrehajtott egy konkrét műveletet. Ma a kimenet valószínűségi alapú. Ez azt jelenti, hogy ugyanaz a bemenet különböző kimeneteket eredményezhet a modell beállításaitól függően. Ez a váltás egy új típusú szoftvert hozott létre, amely rugalmas, de hajlamos olyan hibákra is, amelyeket egy hagyományos számológép soha nem követne el.
A tréning mérete az, ami miatt az eredmények intelligenciának tűnnek. A cégek szinte a teljes nyilvános internetet „lekaparták”, hogy ezeket a modelleket táplálják. Ez magában foglal könyveket, cikkeket, kód-repozitóriumokat és fórumbejegyzéseket. Több milliárd paraméter elemzésével a modellek megtanulják az emberi gondolkodás szerkezetét anélkül, hogy valaha is értenék a szavak jelentését. Ez a megértés hiánya az oka annak, hogy egy modell tökéletes jogi beadványt írhat, de elbukhat egy egyszerű matematikai feladaton. Nem számol, hanem azoknak az embereknek a mintáit utánozza, akik korábban már végeztek matematikát. Ennek a különbségnek a megértése létfontosságú mindenki számára, aki professzionális környezetben használja ezeket az eszközöket. Tisztázza, miért olyan magabiztosak a rendszerek akkor is, amikor teljesen tévednek.
A BotNews.today mesterséges intelligencia eszközöket használ a tartalom kutatására, írására, szerkesztésére és fordítására. Csapatunk felülvizsgálja és felügyeli a folyamatot, hogy az információ hasznos, világos és megbízható maradjon.
Globális fegyverkezési verseny a szilíciumért
Ennek a technológiai váltásnak a hatása messze túlmutat a szoftvereken. Hatalmas geopolitikai küzdelmet váltott ki a hardverekért. A világ konkrétan a csúcskategóriás grafikus processzoroktól, azaz a GPU-któl függ. Ezeket a chipeket eredetileg videójátékokhoz tervezték, de az a képességük, hogy egyszerre sok apró számítást végezzenek, tökéletessé teszi őket az AI számára. Egyetlen vállalat, az NVIDIA, ma központi szerepet tölt be a világgazdaságban, mivel ők gyártják a modellek betanításához szükséges chipeket. A nemzetek ma már úgy kezelik ezeket a chipeket, mint az olajat vagy az aranyat. Stratégiai eszközök, amelyek meghatározzák, mely országok vezetnek majd a gazdasági növekedés következő évtizedében.
Ez a függőség szakadékot hozott létre azok között, akik megengedhetik maguknak a hatalmas számítási teljesítményt, és azok között, akik nem. Egy csúcskategóriás modell betanítása ma több száz millió dollárba kerül áramban és hardverben. Ez a magas belépési küszöb azt jelenti, hogy néhány nagyvállalat az Egyesült Államokban és Kínában tartja a hatalom nagy részét. A befolyás ilyen mértékű központosítása komoly aggodalomra ad okot a szabályozók körében világszerte. Hatással van mindenre, az adatok tárolásától kezdve addig, mennyit kell fizetnie egy startupnak az alapvető eszközök eléréséért. Az iparág gazdasági súlypontja az adatközpontok tulajdonosai felé tolódott el. Ez jelentős változás a korai internetkorszakhoz képest, ahol egy kis csapat filléres költségvetésből építhetett világszínvonalú terméket. A 2026 évben a belépési költség magasabb, mint valaha. 2026
Amikor az absztrakt délutáni munkává válik
A legtöbb ember számára ennek a technológiának a története kevésbé fontos, mint a mindennapi hasznossága. Vegyük például Sarah-t, egy marketingmenedzsert. Néhány éve a napja órákig tartó kézi kutatással és vázlatírással telt. Trendeket keresett, tucatnyi cikket olvasott el, majd ezeket szintetizálta egy jelentésbe. Ma a munkafolyamata más. Egy modellt használ a főbb trendek összefoglalására és egy kezdeti vázlat elkészítésére. Már nem író, hanem a gépi generálású tartalom szerkesztője. Ez a változás minden olyan iparágban zajlik, ahol billentyűzetet használnak. Nemcsak a sebességről van szó, hanem az üres lap eltávolításáról. A gép biztosítja az első vázlatot, az ember pedig az irányt.
Ennek a váltásnak gyakorlati tétje van a munkahelyi biztonság és a készségfejlesztés terén. Ha egy junior elemző ma már három ember munkáját el tudja végezni ezekkel az eszközökkel, mi lesz a kezdő munkaerőpiaccal? A „szuper-felhasználói” modell felé mozdulunk el, ahol egy személy több AI-ügynököt irányít komplex feladatok elvégzésére. Ez látható a szoftverfejlesztésben, ahol az olyan eszközök, mint a GitHub Copilot, teljes kódrészleteket javasolnak. A fejlesztő kevesebb időt tölt gépeléssel és többet ellenőrzéssel. Ez az új valóság másfajta készségeket igényel. Már nem kell minden szintaktikai szabályt fejből tudnod. Tudnod kell, hogyan tedd fel a megfelelő kérdéseket, és hogyan szúrd ki a finom hibákat a tökéletesnek tűnő szövegek tengerében. A szakemberek élete a 2026 évben már a promptolás és az ellenőrzés állandó körforgása. Íme néhány példa, hogyan néz ki ez a gyakorlatban:
- A szoftverfejlesztők modelleket használnak ismétlődő egységtesztek és sablonkódok írására.
- A jogi asszisztensek több ezer oldalnyi dokumentum átvizsgálására használják őket konkrét kulcsszavak után kutatva.
- Az orvosi kutatók arra használják őket, hogy megjósolják, hogyan léphetnek kölcsönhatásba különböző fehérjestruktúrák.
- Az ügyfélszolgálati csapatok rutinfeladatok kezelésére használják őket emberi beavatkozás nélkül.
A „fekete doboz” csendes költségei
Ahogy egyre inkább támaszkodunk ezekre a rendszerekre, fel kell tennünk a nehéz kérdéseket a rejtett költségeikről. Az első a környezeti hatás. Egyetlen lekérdezés egy nagy nyelvi modellhez lényegesen több áramot igényel, mint egy szabványos Google-keresés. Milliónyi felhasználóra vetítve a szénlábnyom jelentőssé válik. Ott van a vízfogyasztás kérdése is. Az adatközpontok hatalmas mennyiségű vizet igényelnek a szerverek hűtésére, amelyek ezeket a modelleket futtatják. Hajlandóak vagyunk feláldozni a helyi vízbiztonságot a gyorsabb e-mail-írásért? Ezt a kérdést sok, adatközpontok közelében élő közösség kezdi feltenni. Meg kell néznünk magukat az adatokat is. A legtöbb modellt szerzői jogvédelem alatt álló anyagokon képezték ki az alkotók beleegyezése nélkül. Ez művészek és írók által indított perek hullámához vezetett, akik szerint munkájukat ellopták egy olyan termék létrehozásához, amely végül lecserélheti őket.
Aztán ott van a „fekete doboz” problémája. Még azok a mérnökök sem értik teljesen, miért hoznak bizonyos döntéseket ezek a modellek. Ez az átláthatatlanság veszélyes, amikor az AI-t olyan érzékeny feladatokra használják, mint a toborzás vagy a hitelbírálat. Ha egy modell elfogulttá válik egy bizonyos csoporttal szemben, nehéz megtalálni és kijavítani a kiváltó okot. Lényegében fontos társadalmi döntéseket szervezünk ki egy olyan rendszernek, amely nem tudja megmagyarázni a saját érvelését. Hogyan vonhatunk felelősségre egy gépet? Hogyan biztosíthatjuk, hogy a rendszerek betanításához használt adatok ne erősítsék a régi előítéleteket? Ezek nem elméleti problémák. Ezek aktív kérdések, amelyeket a legújabb AI-fejlesztések változó sikerrel próbálnak kezelni. Van egy AI-történet, eszköz, trend vagy kérdés, amiről úgy gondolja, hogy foglalkoznunk kellene vele? Küldje el nekünk cikkötletét — szívesen meghallgatnánk.
Latencia és a token-gazdaság
Azok számára, akik integrálni szeretnék ezeket az eszközöket a professzionális munkafolyamatokba, a technikai részletek számítanak. A modellekkel való interakció nagy része az API-kon (Application Programming Interface) keresztül történik. Itt találkozhatsz a token fogalmával. Egy token nagyjából négy karakter angol szövegnek felel meg. A modellek nem szavakat olvasnak, hanem tokeneket. Ez azért fontos, mert a legtöbb szolgáltató a feldolgozott tokenek száma alapján számláz. Ha olyan eszközt építesz, amely hosszú dokumentumokat elemez, a költségeid gyorsan elszállhatnak. Kezelned kell a kontextusablakot is. Ez az az információmennyiség, amelyet a modell egyszerre „megjegyez”. A korai modelleknek kicsi ablakaik voltak, de az újabb verziók akár egész könyveket is képesek feldolgozni egyetlen promptban. Ugyanakkor a nagyobb ablakok gyakran magasabb latenciához és ahhoz vezetnek, hogy a modell nagyobb eséllyel veszíti el a fonalat a szöveg közepén.
Egy másik kritikus terület a helyi tárolás és az adatvédelem folyamata. Sok vállalat vonakodik érzékeny adatokat küldeni egy harmadik fél szerverére. Ez vezetett az olyan lokális modellek felemelkedéséhez, mint a Llama 3, amelyek belső hardveren is futtathatók. A modell helyi futtatása jelentős VRAM-ot igényel a GPU-don. Például egy 70 milliárd paraméteres modell futtatásához általában két csúcskategóriás kártya szükséges a használható sebességhez. Itt jön képbe a kvantálás. Ez egy technika, amely csökkenti a modell méretét a számításokhoz használt számok pontosságának csökkentésével. Ez lehetővé teszi, hogy egy nagy teljesítményű modell fogyasztói hardveren is fusson, a pontosság minimális csökkenése mellett. A fejlesztőknek egyensúlyt kell teremteniük ezek között a tényezők között:
- API-költségek kontra a modellek helyi futtatásának hardverköltségei.
- A kisebb modell sebessége kontra a nagyobb modell érvelési képessége.
- Az adatok helyben tartásának biztonsága kontra a felhő kényelme.
- A nyilvános API-k sebességkorlátozásának határai a csúcsidőszakokban.
Az út előre
Az AI-bumm története egyetlen jó ötlet felskálázásának története. Azzal, hogy a Transformer architektúrát hatalmas mennyiségű adattal és számítási kapacitással láttuk el, létrehoztunk valamit, ami a számítástechnika új korszakának tűnik. De még csak a kezdeti szakaszban vagyunk. A sokak által érzett zavar abból a szakadékból fakad, ami aközött van, amire a technológia képes, és aközött, amit elvárunk tőle. Ez egy eszköz az augmentációra, nem pedig az emberi ítélőképesség helyettesítője. Az elkövetkező évek legsikeresebb emberei azok lesznek, akik megértik ezeknek a rendszereknek a statisztikai természetét. Tudni fogják, mikor bízzanak a gépben, és mikor ellenőrizzék a munkáját. Olyan jövő felé tartunk, ahol az AI kezelésének képessége ugyanolyan alapvető lesz, mint a szövegszerkesztő használata.
A szerkesztő megjegyzése: Ezt az oldalt többnyelvű AI hírek és útmutatók központjaként hoztuk létre olyan emberek számára, akik nem számítógépes zsenik, de mégis szeretnék megérteni a mesterséges intelligenciát, magabiztosabban használni, és követni a már megérkező jövőt.
Hibát talált, vagy valami javításra szorul? Tudassa velünk.