Filosofia AI pentru cei care urăsc filosofia
Alegerea practică
Majoritatea oamenilor tratează filosofia inteligenței artificiale ca pe o dezbatere despre dacă roboții au suflet. Aceasta este o greșeală care consumă timp și ascunde riscurile reale. În lumea profesională, filosofia acestei tehnologii este, de fapt, o discuție despre răspundere, acuratețe și costul muncii umane. Este vorba despre cine este responsabil atunci când un model face o greșeală care costă o companie milioane de dolari. Este vorba despre dacă un lucrător creativ deține stilul pe care a petrecut decenii perfecționându-l. Ne îndepărtăm de era în care ne întrebam dacă mașinile pot gândi. Suntem acum în era în care decidem cât de multă încredere avem în ele pentru a acționa în numele nostru. Schimbarea recentă din industrie a trecut de la chat bots care spun glume la agenți care pot rezerva zboruri și scrie cod. Această schimbare ne forțează să confruntăm mecanismele încrederii, mai degrabă decât misterul conștiinței. Dacă urăști filosofia, privește-o ca pe o serie de negocieri contractuale. Stabilești termenii pentru un nou tip de angajat care nu doarme niciodată, dar care adesea halucinează. Scopul este de a construi un cadru în care beneficiile vitezei să nu depășească riscurile unei defecțiuni totale a sistemului.
Mecanica logicii mașinilor
Pentru a înțelege starea actuală a industriei, trebuie să ignori termenii de marketing. Un large language model nu este un creier. Este o hartă statistică masivă a limbajului uman. Când tastezi un prompt, sistemul nu se gândește la întrebarea ta. Calculează care cuvânt are cele mai mari șanse să urmeze după precedentul, bazându-se pe trilioane de exemple. De aceea sistemele sunt atât de bune la poezie, dar atât de slabe la matematică de bază. Ele înțeleg tiparele despre cum vorbesc oamenii despre numere, dar nu înțeleg logica numerelor în sine. Această distincție este vitală pentru oricine folosește aceste instrumente într-un context de afaceri. Dacă tratezi rezultatul ca pe o evidență factuală, folosești instrumentul incorect. Este un sintetizator creativ, nu o bază de date. Confuzia provine adesea din cât de bine imită aceste modele empatia umană. Pot suna amabile, frustrate sau de ajutor, dar acestea sunt doar oglinzi lingvistice. Ele reflectă tonul datelor pe care au fost antrenate.
Schimbarea pe care am văzut-o recent implică o mișcare către ancorarea acestor modele în date din lumea reală. În loc să lase un model să ghicească un răspuns, companiile le conectează acum la propriile fișiere interne. Acest lucru reduce șansa ca modelul să inventeze lucruri. De asemenea, schimbă mizele conversației. Nu mai întrebăm ce știe modelul. Întrebăm cum accesează modelul ceea ce știm noi. Aceasta este o trecere de la generative art la utilitate funcțională. Filosofia de aici este simplă. Este diferența dintre un povestitor și un funcționar de arhivă. Majoritatea utilizatorilor vor funcționarul, dar tehnologia a fost construită să fie povestitorul. Reconcilierea acestor două identități este principala provocare pentru dezvoltatori astăzi. Trebuie să decizi dacă vrei un instrument creativ sau unul precis, deoarece, în prezent, este dificil să le obții pe amândouă la nivel maxim simultan.
Mize globale și interese naționale
Impactul acestor alegeri nu se limitează la birourile individuale. Guvernele tratează acum dezvoltarea acestor modele ca pe o chestiune de securitate națională. În Statele Unite, ordinele executive se concentrează pe siguranța și securitatea celor mai puternice sisteme. În Europa, AI Act a creat un cadru legal care clasifică sistemele în funcție de risc. Acest lucru creează o situație în care filosofia unui dezvoltator din California poate afecta legalitatea unui produs în Berlin. Vedem o lume fragmentată în care diferite regiuni au idei foarte diferite despre ceea ce ar trebui să aibă voie să facă o mașină. Unele națiuni văd tehnologia ca pe o modalitate de a stimula producția economică cu orice preț. Altele o văd ca pe o amenințare la adresa țesutului social și a piețelor muncii. Acest lucru creează un set separat de reguli pentru fiecare piață, făcând mai greu pentru companiile mici să concureze cu giganții care își permit echipe juridice mari.
Lanțul global de aprovizionare pentru această tehnologie este, de asemenea, un punct de tensiune. Hardware-ul necesar pentru a rula aceste modele este concentrat în câteva mâini. Acest lucru creează un nou tip de dinamică a puterii între țările care proiectează cipurile, țările care le fabrică și țările care furnizează datele. Pentru utilizatorul obișnuit, acest lucru înseamnă că instrumentele pe care te bazezi ar putea fi supuse războaielor comerciale sau controalelor la export. Filosofia AI este acum legată de filosofia suveranității. Dacă o țară se bazează pe un model străin pentru sistemul său de sănătate sau juridic, pierde un grad de control asupra propriei infrastructuri. De aceea vedem un impuls pentru modele locale și cloud-uri suverane. Scopul este de a ne asigura că logica ce guvernează o națiune nu este deținută de o corporație de pe cealaltă parte a planetei. Aceasta este partea practică a dezbaterii care se pierde adesea în discuțiile despre scenarii science fiction.
O dimineață cu inteligență sintetică
Consideră o zi obișnuită pentru un manager de marketing pe nume Sarah. Își începe dimineața cerând unui asistent să rezume trei duzini de e-mailuri. Asistentul face acest lucru în câteva secunde, dar Sarah trebuie să verifice dacă a omis un detaliu crucial despre o reducere bugetară. Mai târziu, folosește un instrument generativ pentru a crea imagini pentru o nouă campanie. Petrece o oră ajustând prompt-ul pentru că mașina continuă să dea oamenilor din imagini câte șase degete. După-amiaza, folosește un asistent de codare pentru a repara un bug pe site-ul companiei, deși ea nu știe să programeze. Ea este, în esență, dirijorul unei orchestre digitale. Nu face munca manuală, dar este responsabilă pentru performanța finală. Aceasta este noua realitate a muncii. Este mai mult despre editare și verificare decât despre creație de la zero. Sarah este mai productivă, dar este și mai obosită. Sarcina mentală de a verifica constant o mașină pentru erori este diferită de sarcina de a face munca ea însăși
BotNews.today utilizează instrumente AI pentru a cerceta, scrie, edita și traduce conținut. Echipa noastră revizuiește și supraveghează procesul pentru a menține informațiile utile, clare și fiabile.
Stimulentele pentru compania lui Sarah s-au schimbat și ele. Nu mai angajează scriitori entry level. Angajează un editor senior care folosește trei modele diferite pentru a produce aceeași cantitate de conținut. Acest lucru economisește bani pe termen scurt, dar creează o problemă pe termen lung. De unde va veni următoarea generație de editori seniori dacă nimeni nu face munca de nivel începător? Aceasta este o consecință a logicii actuale a eficienței. Optimizăm pentru prezent, în timp ce potențial golim viitorul. Mizele pentru creatori sunt și mai mari. Muzicienii și ilustratorii constată că munca lor este folosită pentru a antrena chiar modelele care acum concurează cu ei pentru joburi. Aceasta nu este doar o schimbare pe piață. Este o schimbare în valoarea pe care o acordăm efortului uman. Trebuie să ne întrebăm dacă prețuim rezultatul mai mult decât procesul și ce se întâmplă cu cultura noastră când procesul este ascuns în interiorul unei black box.
- Liderii companiilor trebuie să decidă dacă prețuiesc viteza mai mult decât gândirea originală.
- Angajații trebuie să învețe să auditeze rezultatele mașinilor ca pe o abilitate primară.
- Legiuitorii trebuie să echilibreze nevoia de inovație cu protecția forței de muncă.
- Creatorii trebuie să găsească modalități de a dovedi că munca lor este umană pentru a-și menține valoarea.
- Educatorii trebuie să regândească modul în care notează studenții când răspunsurile sunt la un click distanță.
Costurile ascunse ale automatizării
Vorbim adesea despre beneficiile acestei tehnologii fără a menționa factura. Primul cost este confidențialitatea. Pentru a face aceste modele mai utile, trebuie să le oferim mai multe date. Suntem încurajați să introducem programele noastre personale, notele private și secretele corporative în aceste sisteme pentru a obține rezultate mai bune. Dar unde ajung acele date? Majoritatea companiilor susțin că nu folosesc datele clienților pentru a-și antrena modelele, dar istoria internetului sugerează că politicile se pot schimba. Odată ce datele tale sunt în interiorul sistemului, este aproape imposibil să le scoți. Acesta este un schimb permanent de confidențialitate pentru comoditate. Vedem, de asemenea, o creștere masivă a consumului de energie. Antrenarea unui singur model mare necesită suficientă electricitate pentru a alimenta mii de case timp de un an. Pe măsură ce trecem către sisteme mai complexe, costul de mediu va crește doar. Trebuie să ne întrebăm dacă abilitatea de a genera o poză amuzantă cu o pisică merită amprenta de carbon pe care o generează.
Există, de asemenea, costul adevărului. Pe măsură ce devine mai ușor să generezi text și imagini realiste, valoarea dovezilor scade. Dacă orice poate fi falsificat, atunci nimic nu poate fi dovedit. Acest lucru afectează deja sistemele noastre politice și tribunalele legale. Intrăm într-o perioadă în care presupunerea implicită este că ceea ce vedem pe un ecran este o minciună. Acest lucru creează un nivel ridicat de fricțiune socială. Face mai greu să cădem de acord asupra faptelor de bază. Filosofia AI aici este despre eroziunea unei realități comune. Dacă toată lumea se uită la o versiune a lumii care a fost filtrată și alterată de un algoritm, pierdem capacitatea de a comunica eficient peste acele diviziuni. Schimbăm o fundație socială stabilă pentru o experiență mai personalizată și mai distractivă. Aceasta este o alegere pe care o facem de fiecare dată când folosim aceste instrumente fără a le pune la îndoială sursa sau intenția.
Aveți o poveste, un instrument, o tendință sau o întrebare despre inteligența artificială pe care credeți că ar trebui să o abordăm? Trimiteți-ne ideea dvs. de articol — ne-ar plăcea să o auzim.
Constrângeri tehnice și sisteme locale
Pentru utilizatorii avansați, conversația este despre mai mult decât etică. Este despre limitele hardware-ului și ale software-ului. Unul dintre cele mai mari obstacole este context window. Aceasta este cantitatea de informații pe care un model o poate păstra în memoria activă la un moment dat. Deși aceste ferestre cresc, ele sunt încă limitate. Dacă introduci într-un model o carte de o mie de pagini, acesta va începe în cele din urmă să uite începutul până când ajunge la sfârșit. Acest lucru duce la inconsecvențe în proiectele lungi. Există, de asemenea, problema limitelor API și a latenței. Dacă afacerea ta se bazează pe un model terț, ești la mila uptime-ului și a prețurilor lor. O schimbare bruscă a termenilor lor de serviciu îți poate distruge întreg workflow-ul. De aceea, mulți utilizatori avansați se îndreaptă către stocarea locală și execuția locală. Ei rulează modele mai mici pe propriul hardware pentru a menține controlul și viteza.
Integrarea workflow-ului este următoarea mare provocare. Nu este suficient să ai un chat box pe un site web. Valoarea reală vine din conectarea acestor modele la instrumente existente, cum ar fi spreadsheets, baze de date și software de management al proiectelor. Acest lucru necesită o înțelegere profundă a modului de structurare a datelor, astfel încât modelul să le poată înțelege. Vedem ascensiunea RAG, sau Retrieval-Augmented Generation. Aceasta este o metodă prin care modelul caută informații specifice dintr-o sursă de încredere înainte de a răspunde. Este o modalitate de a face legătura între natura statistică a modelului și nevoile factuale ale utilizatorului. Totuși, acest lucru adaugă un strat de complexitate sistemului. Trebuie să gestionezi motorul de căutare, baza de date și modelul simultan. Este o soluție cu întreținere ridicată care necesită un set specific de abilități pentru a fi gestionată eficient.
- Quantization permite modelelor mari să ruleze pe hardware de consum prin reducerea preciziei ponderilor.
- Fine tuning devine mai puțin popular pe măsură ce RAG oferă o acuratețe factuală mai bună cu mai puțin efort.
- Tokenization rămâne un cost ascuns care poate face anumite limbi mai scumpe de procesat decât altele.
- Execuția locală este singura modalitate de a asigura 100 la sută confidențialitate pentru datele corporative sensibile.
- Model distillation creează versiuni mai mici și mai rapide ale modelelor gigant pentru uz mobil.
Calea practică de urmat
Filosofia AI nu este o distragere de la muncă. Este însăși munca. De fiecare dată când alegi un model, faci o alegere despre ce fel de logică vrei să îți domine viața. Decizi ce riscuri sunt acceptabile și ce costuri sunt prea mari. Tehnologia se schimbă rapid, dar nevoile umane rămân aceleași. Vrem instrumente care ne fac mai buni, nu instrumente care ne înlocuiesc. Vrem sisteme care sunt transparente, nu sisteme care operează în întuneric. Confuzia din jurul acestui subiect este adesea intenționată. Este mai ușor pentru companii să vândă o cutie magică decât să vândă un instrument statistic complex. Eliminând balastul și concentrându-te pe stimulente, poți vedea tehnologia pentru ceea ce este cu adevărat. Este o creație puternică, imperfectă și profund umană. Reflectă cele mai bune idei și cele mai rele obiceiuri ale noastre. Scopul este să o folosești cu ochii deschiși, înțelegând compromisurile pe care le faci în fiecare interacțiune. Poți afla mai multe despre cele mai recente tendințe în machine learning pentru a rămâne în fața acestor schimbări. Pentru perspective mai profunde asupra eticii acestor sisteme, resurse precum Stanford Institute for Human-Centered AI și MIT Technology Review oferă date excelente. Poți, de asemenea, să urmărești schimbările legale în secțiunea de tehnologie a New York Times.
Nota editorului: Am creat acest site ca un centru multilingv de știri și ghiduri AI pentru persoanele care nu sunt experți în computere, dar care totuși doresc să înțeleagă inteligența artificială, să o folosească cu mai multă încredere și să urmărească viitorul care deja sosește.
Ați găsit o eroare sau ceva ce trebuie corectat? Anunțați-ne.