Promptovi koji AI čine mnogo korisnijim
Prelazak sa razgovora na komande
Većina ljudi komunicira sa veštačkom inteligencijom kao da razgovaraju sa pretraživačem ili izvode mađioničarski trik. Ukucaju kratko pitanje i nadaju se briljantnom odgovoru. Ovakav pristup je glavni razlog zašto korisnici smatraju rezultate repetitivnim ili površnim. Da biste dobili profesionalne rezultate, morate prestati da postavljate pitanja i početi da dajete strukturne instrukcije. Cilj je preći sa ćaskanja na sistem komandi zasnovan na logici, koji tretira model kao mašinu za rezonovanje, a ne kao bazu podataka. Kada obezbedite jasan okvir, mašina može da obrađuje informacije sa preciznošću koju obični korisnici nikada ne vide. Ova promena zahteva fundamentalnu izmenu u tome kako doživljavamo interakciju. Ne radi se o pronalaženju pravih reči da biste prevarili mašinu da bude pametna. Radi se o organizovanju sopstvenih misli tako da mašina ima jasan put koji treba da prati. Do kraja ove godine, jaz između onih koji znaju da usmeravaju ove modele i onih koji sa njima samo ćaskaju definisaće profesionalnu kompetentnost u ekonomiji znanja.
Izgradnja strukturnog okvira za jasnoću
Efikasno davanje instrukcija mašini oslanja se na tri stuba. To su kontekst, cilj i ograničenja. Kontekst pruža pozadinske informacije koje su modelu potrebne da razume okruženje. Cilj definiše šta tačno treba da bude finalni rezultat. Ograničenja postavljaju granice kako bi se sprečilo da model odluta u irelevantnu teritoriju. Početnik može ponovo koristiti ovaj obrazac tako što će ga zamisliti kao brifing za novog zaposlenog. Umesto da kažete „napiši izveštaj“, kažete „ti si finansijski analitičar koji pregleda kvartalni izveštaj za tehnološku firmu. Napiši sažetak od tri pasusa fokusirajući se na odnos duga i kapitala. Ne koristi žargon i ne pominji konkurente.“ Ova jednostavna struktura primorava model da prioritizuje određene podatke u odnosu na druge. Kontekstualno utemeljenje osigurava da model ne halucinira detalje iz nepovezanih industrija. Bez ovih granica, mašina se vraća na najčešće, generičke obrasce pronađene u podacima za obuku. Zato toliko AI rezultata zvuči kao studentski esej. To je linija manjeg otpora. Kada dodate ograničenja, terate model da radi napornije. Možete videti kako ova logika funkcioniše u zvaničnoj dokumentaciji OpenAI-a koja objašnjava kako sistemske poruke usmeravaju ponašanje. Logika je jednostavna. Što više suzite polje mogućnosti, to rezultat postaje precizniji. Mašina ne poseduje intuiciju. Ona poseduje statističku mapu jezika. Vaš posao je da istaknete specifičnu rutu na toj mapi koja vodi do vašeg cilja. Ako ostavite rutu otvorenom, mašina će izabrati najprometniji autoput.
Ekonomske implikacije preciznog unosa
Globalni uticaj ove promene je već vidljiv u tome kako kompanije raspoređuju kognitivni rad. U prošlosti, mlađi saradnik bi proveo sate sastavljajući prvu verziju dokumenta. Sada se od tog saradnika očekuje da deluje kao urednik nacrta koje generiše mašina. Ovo menja vrednost ljudskog rada sa proizvodnje na verifikaciju. U regionima sa visokim troškovima rada, ova efikasnost je neophodnost za održavanje konkurentnosti. U ekonomijama u razvoju, to pruža način malim timovima da se takmiče sa globalnim gigantima skaliranjem rezultata bez povećanja broja zaposlenih. Međutim, ovo se u potpunosti oslanja na kvalitet pruženih instrukcija. Loše instruisan model proizvodi otpad. Proizvodi tekst koji se mora prepravljati od nule, što košta više u ljudskim satima nego da je čovek to jednostavno sam napisao. Ovo je paradoks moderne produktivnosti. Imamo alate koji mogu raditi brzinom svetlosti, ali zahtevaju viši nivo početnog razmišljanja da bi bili korisni. Do , verovatno ćemo videti pad potražnje za osnovnim veštinama pisanja i porast potražnje za logičkim arhitektiranjem. Ovo se ne odnosi samo na tržišta engleskog govornog područja. Ista logika se primenjuje kroz jezike kako modeli postaju veštiji u međujezičkom rezonovanju. Više o promenljivoj prirodi ovog rada možete pronaći u našem izveštaju aimagazine.com/analysis/prompting-logic koji detaljno opisuje kako firme prekvalifikuju svoje osoblje. Sposobnost usmeravanja mašine postaje fundamentalna kao što je bila sposobnost korišćenja tabela pre četrdeset godina. To je novi oblik pismenosti koji nagrađuje jasnoću i kažnjava dvosmislenost.
Имате причу о вештачкој интелигенцији, алат, тренд или питање које мислите да бисмо требали да покријемо? Пошаљите нам своју идеју за чланак — волели бисмо да је чујемо.Praktično izvršenje i logika povratnih informacija
Razmotrite dan u životu projekt menadžerke po imenu Sara. Ona ima transkript sa haotičnog sastanka koji je trajao sat vremena. Tipičan korisnik bi zalepio tekst i tražio „beleške“. Sara koristi obrazac zasnovan na logici. Ona kaže AI-u da deluje kao zapisničar. Instruira ga da identifikuje samo stavke za akciju, osobu odgovornu za svaku i pomenuti rok. Dodaje ograničenje da ignoriše bilo kakvo ćaskanje ili tehničke probleme o kojima se raspravljalo na sastanku. Ovaj pristup zasnovan na logici štedi joj dva sata ručnog pregleda. Zatim uzima rezultat i vraća ga u model sa novom instrukcijom. Traži od modela da identifikuje bilo kakve kontradikcije u rokovima. Ovo je obrazac „Kritičar-Korektor“. To je suštinska taktika jer primorava AI da proveri sopstveni rad u odnosu na izvorni tekst. Ljudi imaju tendenciju da precenjuju sposobnost AI-a da uradi stvari kako treba iz prvog puta. Potcenjuju koliko postaje bolji kada od njega tražite da pronađe sopstvene greške. Ovaj proces nije jednosmerna ulica. To je petlja. Ako mašina proizvede listu koja je previše nejasna, Sara ne odustaje. Dodaje novo ograničenje. Traži listu u formatu tabele sa kolonom za „Potencijalne rizike“. Ovo je ponovljiv obrazac za svakog početnika. Ne prihvatajte prvi nacrt. Tražite od mašine da kritikuje nacrt na osnovu određenog skupa kriterijuma. Ovde je ljudska revizija najvažnija. Sara i dalje mora da proveri da li su rokovi zaista mogući. AI bi mogao tačno da identifikuje da je neko obećao izveštaj do petka, ali ne može da zna da je ta osoba na odmoru. Mašina rukuje podacima, ali čovek rukuje realnošću. U ovom scenariju, Sara nije pisac. Ona je logički urednik. Svoje vreme troši na usavršavanje instrukcija i verifikaciju rezultata. Ovo je poseban skup veština od tradicionalnog menadžmenta. Zahteva razumevanje kako su informacije strukturirane. Ako mašini date haos, ona će vratiti brži, veći haos. Ako joj date okvir, ona vraća alat.
Nevidljivo trenje automatizovane misli
Moramo postavljati teška pitanja o skrivenim troškovima ove efikasnosti. Svaki složeni prompt zahteva značajnu računarsku snagu. Dok korisnik vidi polje za tekst, pozadinski sistem uključuje hiljade procesora koji rade na visokim temperaturama. Kako se krećemo ka složenijim obrascima promptovanja, energetski otisak jednog zadatka se povećava. Tu je i pitanje privatnosti podataka. Kada modelu pružite dubok kontekst, često delite vlasničku poslovnu logiku ili lične podatke. Gde ti podaci odlaze? Čak i uz zaštitu na nivou preduzeća, rizik od curenja ostaje briga za mnoge organizacije. Štaviše, postoji problem kognitivne atrofije. Ako se oslanjamo na mašine da strukturiraju našu logiku, da li gubimo sposobnost da sami razmišljamo o složenim problemima? Mašina je ogledalo unosa. Ako je unos pristrasan, rezultat će biti pristrasan na uglađeniji, ubedljiviji način. Ovo čini pristrasnost težom za uočavanje. Često precenjujemo objektivnost mašine. Potcenjujemo koliko naše sopstveno fraziranje utiče na rezultat. Ako tražite od AI-a da „objasni zašto je ovaj projekat dobra ideja“, on će pronaći razloge da vas podrži. Neće vam reći da li je projekat zapravo katastrofa osim ako ga izričito ne instruišete da bude oštar kritičar. Ova pristrasnost potvrđivanja je ugrađena u način na koji ovi modeli funkcionišu. Dizajnirani su da budu od pomoći, što često znači da su dizajnirani da se slože sa korisnikom. Da biste ovo razbili, morate izričito komandovati modelu da se ne slaže sa vama. Ovo stvara trenje koje je neophodno za poštenu analizu. Više o ovim sistemskim rizicima možete pročitati u najnovijim istraživanjima kompanije Anthropic u vezi sa bezbednošću i usklađenošću modela. Gradimo svet u kojem je brzina misli veća, ali je pravac misli lakše manipulisati.
BotNews.today користи АИ алате за истраживање, писање, уређивање и превођење садржаја. Наш тим прегледа и надгледа процес како би информације биле корисне, јасне и поуздане.
Ispod haube inferencijalnog motora
Za one koji žele da odu dalje od osnovnih obrazaca, razumevanje tehničkih ograničenja je od vitalnog značaja. Svaki model ima prozor konteksta. Ovo je ukupna količina informacija koju može da „ima na umu“ u jednom trenutku. Ako vaš prompt i izvorni tekst premaše ovo ograničenje, model će početi da zaboravlja najranije delove razgovora. Ovo nije postepeno bleđenje. To je čvrst prekid. U , prozori konteksta su značajno porasli, ali su i dalje ograničen resurs. Efikasno promptovanje uključuje maksimiziranje korisnosti svakog tokena. Token je otprilike četiri znaka engleskog teksta. Ako koristite reči popune, trošite memoriju modela. Integracija radnog toka je sledeći korak za napredne korisnike. Ovo uključuje korišćenje API-ja za povezivanje AI-a sa lokalnim skladištem ili eksternim bazama podataka. Umesto lepljenja teksta, model povlači podatke direktno iz bezbedne fascikle. Ovo smanjuje ručni rad „hranjenja“ mašine. Međutim, API ograničenja mogu biti usko grlo. Većina provajdera ima ograničenja brzine koja ograničavaju koliko zahteva možete napraviti u minuti. Ovo zahteva strategiju za grupisanje zadataka. Takođe morate uzeti u obzir podešavanje temperature. Niska temperatura čini model predvidljivijim i doslovnijim. Visoka temperatura ga čini kreativnijim, ali sklonim greškama. Za zadatke zasnovane na logici, uvek treba težiti nižoj temperaturi. Ovo osigurava da se model drži činjenica navedenih u vašem kontekstu. Geek sekcija promptovanja se odnosi na upravljanje ovim varijablama:
- Efikasnost tokena da biste ostali unutar prozora konteksta.
- Kontrola temperature za činjeničnu doslednost.
- Sistemski promptovi koji deluju kao trajni skup pravila za svaku interakciju.
- Integracija lokalnog skladišta kako bi osetljivi podaci ostali van oblaka.
- Upravljanje ograničenjem brzine API-ja za zadatke velikog obima.
Ova tehnička ograničenja definišu plafon onoga što je moguće. Možete videti kako se ovim varijablama rukuje u tehničkim blogovima Google DeepMind-a koji često raspravljaju o kompromisima između veličine modela i brzine rezonovanja. Razumevanje ovih ograničenja sprečava vas da tražite od mašine da uradi nešto što fizički ne može da postigne.
Trajna uloga ljudske procene
Zaključak je da je AI multiplikator sile za logiku. Ako je vaša logika zdrava, mašina će je pojačati. Ako je vaša logika manjkava, mašina će pojačati te nedostatke. Obrasci o kojima se ovde raspravlja nisu magične čini. To su načini da jasnije komunicirate sa sistemom koji ne razume nijanse osim ako ih vi ne definišete. Najkorisniji promptovi su oni koji tretiraju mašinu kao asistenta velike brzine kojem nedostaje zdrav razum. Morate obezbediti zdrav razum u obliku instrukcija. Ovo zahteva više rada unapred, ali rezultira rezultatom koji je zapravo upotrebljiv u profesionalnom okruženju. Ljudska revizija ostaje poslednji, nezaobilazan korak. Bez obzira na to koliko je prompt dobar, mašina je i dalje statistički model. Nije je briga da li su činjenice istinite. Stalo joj je samo da li se reči prate jedna drugu na način koji ima smisla. Vi ste jedini deo procesa koji razume uloge posla. Koristite mašinu da izgradite temelj, ali vi morate biti ti koji će potpisati strukturu.
Napomena urednika: Kreirali smo ovaj sajt kao višejezični centar za vesti i vodiče o veštačkoj inteligenciji za ljude koji nisu kompjuterski genijalci, ali ipak žele da razumeju veštačku inteligenciju, koriste je sa više samopouzdanja i prate budućnost koja već stiže.
Пронашли сте грешку или нешто што треба исправити? Јавите нам.