Какво означават човешките ценности в ерата на AI
Митът за неутралния код
Разговорът за изкуствения интелект често се върти около технически показатели и изчислителна мощ. Говорим за параметри и петабайти, сякаш това са единствените важни метрики. Този фокус обаче засенчва една по-належаща реалност. Всеки голям езиков модел е огледало на човешките предпочитания, които са го оформили. Не съществува такова нещо като неутрален алгоритъм. Когато една система дава отговор, тя не черпи информация от вакуум на обективната истина. Тя отразява специфичен набор от претеглени ценности, установени от разработчици и хора, етикетиращи данни. Основният извод е прост. Ние не учим машините да мислят. Ние ги учим да имитират нашите специфични, често противоречиви, социални норми. Този преход от логика към етика е най-значимата промяна в изчислителната техника от изобретяването на интернет. Той премества тежестта на отговорността от хардуера към хората, които определят как изглежда един „правилен“ отговор.
Индустрията наскоро се насочи от чистите възможности към безопасността и подравняването (alignment). Това звучи като техническа настройка, но всъщност е дълбоко политически процес. Когато искаме от един модел да бъде полезен, безвреден и честен, използваме думи, които имат различно значение в различните култури. Ценност, която изглежда универсална в заседателна зала в Сан Франциско, може да бъде възприета като обидна или неуместна в Джакарта. Напрежението между глобалния мащаб и местните ценности е основният конфликт в съвременните технологии. Трябва да спрем да гледаме на AI като на автономна сила и да започнем да го виждаме като курирано продължение на човешките намерения. Това изисква да погледнем отвъд маркетинговия шум, за да видим реалните избори, правени зад кулисите.
Механичното огледало на човешкия избор
За да разберете как ценностите влизат в една машина, трябва да погледнете Reinforcement Learning from Human Feedback, или RLHF. Това е процесът, при който хиляди човешки изпълнители класират различни отговори от модела. Те могат да видят две версии на един отговор и да кликнат върху тази, която намират за по-учтива или точна. С течение на времето моделът се научава да свързва определени модели с тези човешки предпочитания. Това не е търсене на истината. Това е търсене на одобрение. Моделът по същество се обучава да угажда на своите човешки оценители. Това създава глазура от морал, която всъщност е просто статистическа апроксимация на това, което определена група хора иска да чуе.
Този процес въвежда огромно количество субективизъм. Ако мнозинството от оценителите са от определена демографска група, моделът естествено ще възприеме жаргона, социалните сигнали и политическите пристрастия на тази група. Ето защо ранните версии на много популярни модели се затрудняваха с не-западни контексти. Те не бяха счупени. Те просто работеха точно така, както бяха обучени. Те отразяваха ценностите на хората, на които им е платено да ги оценяват. Това е слоят, където абстрактни концепции като справедливост и пристрастия се превръщат в конкретни редове код. Това е ръчен, трудоемък процес, който се случва дълго преди обществото да види чат интерфейса. Това е невидимата инфраструктура на съвременния интелект.
Объркването, което повечето хора внасят в тази тема, е идеята, че AI има вътрешен морален компас. Той няма такъв. Той има функция за възнаграждение (reward function). Когато един модел откаже да отговори на въпрос, това не е защото „чувства“, че темата е грешна. Това е защото неговите данни за обучение са били силно претеглени, за да избегнат този специфичен модел. Това разграничение е жизненоважно. Ако вярваме, че машината е морална, спираме да поставяме под въпрос хората, които определят правилата. Трябва да признаем, че всеки отказ и всеки полезен съвет е програмирана реакция, базирана на човешко решение. Идентифицирайки това, можем да започнем да задаваме по-добри въпроси за това кой определя тези правила и защо.
Геополитика в латентното пространство
Въздействието на тези избори е глобално. Повечето водещи AI модели са обучени предимно на данни на английски език от отворения уеб. Това създава дигитална монокултура, където западните ценности са стандарт. Когато потребител в друга част на света поиска съвет за семейни динамики или правни въпроси, той получава отговори, филтрирани през специфична културна леща. Това не е просто въпрос на езиков превод. Това е въпрос на културен превод. Нюансите на йерархията, поверителността и общността варират драстично по света, но моделите често предоставят решение тип „един размер за всички“. Тази централизация на „правилното“ мислене е нова форма на мека сила, която има огромни последици за глобалния дискурс.
Виждаме надпревара за разработване на суверенни AI модели в отговор на това. Държави като Франция, ОАЕ и Индия инвестират в собствена инфраструктура, за да гарантират, че техните специфични културни ценности са представени. Те признават, че разчитането на чужд модел означава внос на чужд светоглед. Тази тенденция се ускори, тъй като правителствата осъзнават, че контролът върху латентното пространство на AI е толкова важен, колкото и контролът върху физическите граници. Данните, използвани за обучение на тези модели, действат като дигитална книга по история. Ако тази книга съдържа само една перспектива, полученият интелект ще бъде по своята същност ограничен. Ето защо натискът за разнообразни масиви от данни не е просто инициатива за разнообразие. Това е изискване за точност и уместност в глобален мащаб.
Залозите са високи за международното сътрудничество. Ако всяка нация изгради свой собствен изолиран AI със собствен набор от твърди ценности, може да ни бъде по-трудно да комуникираме през дигиталните граници. Алтернативата обаче е свят, в който няколко компании в една долина определят моралните граници за милиарди хора. Нито един от пътищата не е перфектен. Предизвикателството е да се намери начин да се позволят местните нюанси, като същевременно се поддържа споделено разбиране за основните човешки права. Това е проблем, който не може да бъде решен с по-добър хардуер. Той изисква международна дипломация и ясен поглед върху стимулите, движещи технологичната индустрия днес. Можете да научите повече за тези предизвикателства в нашето изчерпателно ръководство за етика и управление на AI.
Решения в цикъла
Помислете за един ден от живота на мениджър по наемане на персонал на име Сара. Тя използва AI инструмент, за да прегледа стотици автобиографии за нова инженерна роля. Инструментът е обучен да търси кандидати с „висок потенциал“. На повърхността това изглежда ефективно. Но под интерфейса инструментът прилага набор от ценности, които е научил от предишни данни за наемане. Ако историческите данни показват, че компанията предимно е наемала хора от три конкретни университета, AI ще даде приоритет на тези училища. Той не е „расист“ или „елитарист“ в човешкия смисъл. Той просто оптимизира за модела, за който му е казано, че е ценен. Сара може дори да не осъзнава, че инструментът филтрира брилянтни кандидати от нетрадиционен произход, защото те не се вписват в профила на „ценностите“ на данните за обучение.
Този сценарий се разиграва в хиляди офиси всеки ден. Ценностите не са абстрактни. Те са разликата между това да получиш работа и да бъдеш игнориран от алгоритъм. Същата логика се прилага за кредитен рейтинг, медицинска триаж и дори съдебни присъди. Във всеки случай човешка ценност като „риск“ или „заслуга“ се превръща в число. Опасността е, че третираме тези числа като обективни истини, а не като субективни избори, каквито са. Често делегираме тежката работа на моралната преценка на машината, защото е по-бързо и по-малко неудобно. Но машината просто автоматизира нашите съществуващи пристрастия в мащаб, който не можем лесно да наблюдаваме.
Продуктите, които използваме всеки ден, правят тези аргументи реални. Когато приложение за редактиране на снимки автоматично изсветлява тена на кожата на човек, за да изглежда „по-добре“, то изразява ценност. Когато навигационно приложение избягва райони с „висока престъпност“, то прави морална преценка за безопасността и социалната класа. Това не са технически грешки. Те са логическото заключение от данните и функциите за възнаграждение, предоставени от хората. Живеем в свят, в който нашият софтуер постоянно прави морални избори от наше име. През повечето време дори не забелязваме, че това се случва, докато нещо не се обърка. Трябва да бъдем по-критични към „полезните“ функции, които всъщност са просто вградени предположения.
Скорошната промяна в индустрията е преместването към „управляемост“ (steerability). Компаниите вече дават на потребителите повече контрол върху „личността“ или „ценностите“ на техния AI. Можете да кажете на модела да бъде „по-креативен“ или „по-професионален“. Въпреки че това се усеща като овластяване, то всъщност прехвърля отговорността обратно върху потребителя. Ако AI даде пристрастен отговор, компанията може да твърди, че потребителят не е задал параметрите правилно. Това създава сложна мрежа от отчетност, в която никой не е истински отговорен за резултата. Преминаваме от свят на фиксирани ценности към свят на флуидни, дефинирани от потребителя ценности, което носи свой собствен набор от рискове и награди.
Цената на автоматизирания морал
Трябва да приложим Сократов скептицизъм към идеята за „безопасен“ AI. Ако един модел е перфектно подравнен, с чии ценности е подравнен? Има скрита цена за филтрите за безопасност, които виждаме днес. Често тези филтри се изграждат с помощта на нископлатен труд в развиващите се страни. На хората се плаща по няколко долара на час, за да четат най-ужасяващото съдържание в интернет, за да може машината да се научи да го избягва. Ние по същество аутсорсваме психологическата травма от определянето на ценностите към глобалния юг. Дали един AI е наистина „етичен“, ако неговата безопасност е изградена на гърба на експлоатирани работници? Това е въпрос, на който технологичната индустрия рядко обича да отговаря директно.
Друго ограничение е „халюцинацията на морала“. Тъй като тези модели са толкова добри в имитацията, те могат да звучат много убедително, когато говорят за етика. Те могат лесно да цитират философи и правни прецеденти. Но те не разбират нищо от това. Те просто предсказват следващия токен в поредица.
BotNews.today използва инструменти за изкуствен интелект за проучване, писане, редактиране и превод на съдържание. Нашият екип преглежда и наблюдава процеса, за да запази информацията полезна, ясна и надеждна.
- Кой определя „базисната истина“ за субективни теми като политика или религия?
- Какво се случва, когато ценностите на частна корпорация влязат в конфликт с ценностите на демократичното общество?
- Как да одитираме „черната кутия“ на RLHF, за да видим какво всъщност е било възнаградено по време на обучението?
- Може ли една машина някога наистина да бъде „справедлива“, ако светът, върху който е обучена, е по своята същност несправедлив?
Архитектурата на ограниченията
За напредналите потребители „ценностите“ на един AI често се намират в системния промпт и конфигурацията на API. Това са 20-те процента от технологията, които контролират останалите 80 процента от изживяването. Когато взаимодействате с модел чрез API, можете да видите настройките за „температура“ и „top-p“. Това не са просто технически копчета. Те контролират колко е позволено на модела да се отклонява от най-вероятния (и често най-пристрастен) отговор. По-ниската температура прави модела по-предвидим и „безопасен“, докато по-високата температура позволява повече „креативност“, но и повече риск. Тези настройки са първата линия на защита при подравняването на ценностите.
Интеграцията в работния процес е мястото, където нещата стават сериозни. Разработчиците сега изграждат слоеве „предпазни огради“ (guardrails), които стоят между потребителя и модела. Тези слоеве използват вторични модели, за да проверяват входа и изхода за нарушения на ценностите. Това създава многостепенна система за контрол. Тези предпазни огради обаче имат свои собствени API лимити и разходи за латентност. Сложен стек за безопасност може да забави отговора с няколко секунди, което е значителен компромис в производствена среда. Освен това локалното съхранение на тези модели става все по-често срещано. Стартирането на модел локално позволява на потребителя да заобиколи корпоративните филтри, но също така изисква значителна VRAM и оптимизирани техники за квантуване като GGUF или EXL2.
Истинското гийк предизвикателство е „фината настройка“ (fine-tuning) за ценности. Това включва вземане на базов модел и обучението му върху малък, висококачествен набор от данни със специфични примери. Така компаниите създават AI, който отразява техния специфичен глас на марката или правни изисквания. Това е начин за „твърдо кодиране“ на ценности в теглата на модела. Но този процес е скъп и изисква дълбоко разбиране на градиентното спускане и функциите на загуба. Повечето потребители никога няма да направят това, но тези, които го правят, са тези, които наистина контролират „морала“ на машината. Те са тези, които определят границите на възможното в рамките на тяхната специфична дигитална екосистема. Техническите ограничения са реалните граници на етиката на машината.
Имате история, инструмент, тенденция или въпрос, свързани с ИИ, които смятате, че трябва да обхванем? Изпратете ни вашата идея за статия — ще се радваме да я чуем.
Последната човешка прерогатива
В края на краищата, AI е инструмент, а не божество. Той няма ценности; той има инструкции. Скорошният преход към по-човекоподобно взаимодействие засенчи този факт, правейки ни по-склонни да се доверяваме на „преценката“ на машината. Трябва да се съпротивляваме на този импулс. Отговорността за етичните резултати остава твърдо у хората, които проектират, внедряват и използват тези системи. Трябва да се тревожим по-малко за „злия“ AI и повече за хората, които използват „неутрален“ AI, за да оправдаят собствените си пристрастия. Машината е толкова добра, колкото са намеренията на нейния господар.
Оставаме с по-остри въпроси, отколкото започнахме. Тъй като AI става все по-интегриран в живота ни, трябва да решим кои части от нашата човечност сме готови да автоматизираме и кои части трябва да защитим. Залозите не са само за по-добри резултати от търсенето или по-бързи имейли. Те са за това кои сме ние като вид и какъв свят искаме да изградим. Не можем да позволим на удобството на технологията да ни заслепи за последствията от нейната употреба. Ерата на AI не е краят на човешките ценности. Това е началото на нова, по-трудна глава в нашата история. Трябва да сме подготвени да я напишем с намерение.
Бележка на редактора: Създадохме този сайт като многоезичен център за новини и ръководства за изкуствен интелект за хора, които не са компютърни маниаци, но все пак искат да разберат изкуствения интелект, да го използват с повече увереност и да следят бъдещето, което вече настъпва.
Открихте грешка или нещо, което трябва да бъде коригирано? Уведомете ни.