Най-важните закони и регулации за AI, които трябва да следите
Ерата на „дивия запад“ при изкуствения интелект приключи. Правителствата по света преминават от неясни препоръки към строги закони с огромни глоби. Ако разработвате или използвате софтуер, правилата се променят под краката ви. Вече не става въпрос само за етика, а за правно съответствие и риск от милиарди в санкции. Европейският съюз зададе темпото с първия мащабен и цялостен закон, но САЩ и Китай не изостават. Тези правила ще определят кои функции можете да ползвате и как компаниите боравят с вашите данни. Повечето хора смятат, че това е далечен проблем за юристите, но грешат. Това засяга всичко – от кандидатстването за работа до начина, по който се подрежда вашият social media feed. Ставаме свидетели на раждането на регулирана индустрия, която прилича повече на банковия сектор или медицината, отколкото на отворения уеб от миналото. Тази промяна ще дефинира следващото десетилетие на техническо развитие и корпоративна стратегия. Време е да разгледаме конкретните изисквания, които се пренасят от правителствените зали директно в кода на вашите apps.
Глобалният завой към контрол върху изкуствения интелект
Ядрото на настоящата регулация е AI Act на Европейския съюз. Този закон не третира целия софтуер по един и същи начин. Той използва рамка, базирана на риска, за да реши кое е позволено и кое не. На върха на пирамидата са забранените системи. Те включват неща като биометрична идентификация в реално време на обществени места или социално оценяване от страна на правителствата. Те са просто забранени, защото носят твърде голям риск за гражданските свободи. Под тях са високорисковите системи. Тази категория включва AI, използван в образованието, подбора на персонал или критичната инфраструктура. Ако една компания създаде инструмент за пресяване на автобиографии, тя трябва да докаже, че той не е предубеден. Трябва да води подробни логове и да осигури човешки надзор. Законът се насочва и към general purpose моделите. Те трябва да бъдат прозрачни относно начина, по който са обучени. Длъжни са да спазват авторските права и да обобщават данните, използвани за обучение. Това е огромна промяна спрямо потайния начин, по който моделите се изграждаха само преди две години.
В САЩ подходът е различен, но също толкова значим. Белият дом издаде Executive Order, който изисква от разработчиците на мощни системи да споделят резултатите от тестовете си за безопасност с правителството. Използва се Defense Production Act, за да се гарантира, че AI няма да се превърне в заплаха за националната сигурност. Това не е закон, приет от Конгреса, но носи тежестта на федералните поръчки и надзора. Фокусира се върху red-teaming, което е практиката за тестване на система за слабости или вредни резултати. Китай има собствен набор от правила, които се фокусират върху истинността на съдържанието и защитата на обществения ред. Въпреки че методите се различават, целта е същата. Правителствата искат да си върнат контрола върху технология, която се разви по-бързо, отколкото очакваха. Можете да намерите повече подробности за специфичните изисквания в официалната документация на AI Act на Европейската комисия. Тези правила са новата база за всяка компания, която иска да оперира в глобален мащаб.
Тези закони имат обхват, който се простира далеч отвъд границите на страните, които ги пишат. Това често се нарича *Brussels Effect*. Ако голяма технологична компания иска да продава софтуера си в Европа, тя трябва да спазва правилата на ЕС. Вместо да изграждат различни версии за всяка държава, повечето компании просто ще приложат най-строгите правила за целия си глобален продукт. Това означава, че закон, приет в Брюксел, ефективно става закон за разработчик в Калифорния или потребител в Токио. Това създава глобален стандарт за безопасност и прозрачност. Въпреки това, създава и фрагментиран свят, в който някои функции просто са изключени в определени региони. Вече виждаме това да се случва. Някои компании забавиха пускането на напреднали функции в Европа, защото правният риск е твърде висок. Това създава дигитално разделение, при което потребителите в САЩ може да имат достъп до инструменти, които потребителите във Франция нямат. За създателите това означава, че работата им е по-добре защитена от използване като данни за обучение без разрешение. За правителствата това е надпревара кой ще стане глобален център за надеждни технологии. Залозите са високи. Ако една страна прекалява с регулациите, може да загуби най-добрите си таланти. Ако не регулира достатъчно, рискува безопасността на гражданите си. Това напрежение е новото нормално за глобалната технологична икономика. Можете да следите тези промени чрез Executive Order на Белия дом за AI, който очертава американската стратегия за балансиране между иновации и безопасност.
Помислете за един ден от живота на софтуерен инженер на име Маркъс. Преди две години Маркъс можеше да вземе набор от данни от мрежата и да обучи модел за един уикенд. Не трябваше да иска разрешение от никого. Днес сутринта му започва със среща за съответствие (compliance). Той трябва да документира произхода на всяко изображение в своя набор за обучение. Трябва да провежда тестове, за да гарантира, че моделът не дискриминира по пощенски код. Компанията му е наела нов Chief AI Compliance Officer, който има властта да спре всяко пускане на продукт. Това е оперативната реалност. Вече не става въпрос само за кода. Става въпрос за одитната следа. Маркъс прекарва тридесет процента от времето си в писане на доклади за регулаторите, вместо в писане на функции за потребителите. Това е скритият данък на новата регулаторна ера. За средностатистическия потребител въздействието е по-фино, но също толкова дълбоко. Когато кандидатствате за заем, банката трябва да може да обясни защо AI ви е отхвърлил. Имате право на обяснение. Това слага край на ерата на „черната кутия“ при автоматизираното вземане на решения. Хората са склонни да надценяват колко бързо тези закони ще спрат грешките. Те подценяват колко много тези закони ще забавят пускането на нови функции. Преминаваме от свят на beta софтуер към свят на сертифициран софтуер. Това ще доведе до по-стабилни продукти, но до по-малко радикални скокове.
BotNews.today използва инструменти за изкуствен интелект за проучване, писане, редактиране и превод на съдържание. Нашият екип преглежда и наблюдава процеса, за да запази информацията полезна, ясна и надеждна.
Практически промени за индустрията
- Задължително тестване за безопасност за всеки модел, който надвишава специфични прагове на изчислителна мощ.
- Право на потребителите да получат обяснение за всяко автоматизирано решение, което засяга правния им статус.
- Строги изисквания за етикетиране на данни и разкриване на авторски права в наборите за обучение.
- Тежки глоби, които могат да достигнат до седем процента от общия глобален приход на компанията.
- Създаване на национални AI офиси за наблюдение на съответствието и разследване на жалби.
Трябва да се запитаме дали тези правила наистина защитават обществото или просто защитават силните на деня. Помага ли една регулация от четиристотин страници на малък startup или гарантира, че само компании с правни екипи за милиарди долари могат да оцелеят? Ако цената на съответствието е твърде висока, може да подаряваме постоянен монопол на настоящите технологични гиганти. Също така трябва да поставим под въпрос дефиницията за безопасност. Кой решава какво е неприемлив риск? Ако едно правителство може да забрани определени видове AI, то може да използва тази власт и за заглушаване на несъгласието или контрол на информацията. Има скрита цена и за прозрачността. Ако една компания трябва да разкрие точно как работи нейният модел, дали това не улеснява злонамерените участници да открият слабости? Разменяме скорост за безопасност, но все още не сме дефинирали какво всъщност означава „безопасно“. Възможно ли е да се регулира индустрия, която се променя на всеки шест месеца, със закони, чието писане отнема години? Това са въпросите, които ще определят дали тази ера на регулация е успех или провал. Трябва да внимаваме да не изградим система, която е толкова твърда, че да стане остаряла, преди мастилото да е изсъхнало. Правилата в Китай, управлявани от Cyberspace Administration of China, показват как безопасността може да се интерпретира като социална стабилност. Това подчертава различните философски пътища, по които поемат нациите. Трябва да сме скептични към всеки закон, който твърди, че решава всички проблеми, докато създава нови за следващото поколение строители.
Технически стандарти и работни процеси за съответствие
За техническите среди фокусът се измества към compliance stack. Това включва инструменти за проследяване на данни (data lineage) и автоматизиран одит на модели. Разработчиците разглеждат стандартите C2PA за дигитални водни знаци. Това включва вграждане на метаданни във файловете, които оцеляват при изрязване или повторно записване. Има и движение към локално съхранение на чувствителни данни. За да спазят правилата за поверителност, компаниите се отдалечават от централизираната облачна обработка за определени задачи. Използват edge computing, за да държат потребителските данни на устройството. API лимитите също се преработват. Вече не става въпрос само за ограничаване на скоростта на трафика. Става въпрос за филтри за безопасност, които блокират определени видове заявки на хардуерно ниво. Виждаме възхода на Model Cards, които са като етикети с хранителна стойност за AI. Те изброяват данните за обучение, предназначението и известните ограничения. От гледна точка на работния процес, това означава интегриране на автоматизирано тестване в процеса на continuous integration. Всеки път, когато моделът се актуализира, той трябва да премине серия от тестове за пристрастия и безопасност, преди да бъде внедрен. Това добавя латентност към цикъла на разработка, но намалява риска от правна катастрофа. Компаниите също търсят начини да обработват заявки за изтриване на данни за обучени модели, което е значително техническо предизвикателство. Ако потребител поиска данните му да бъдат премахнати, как да „отучите“ тези данни от невронна мрежа? Тук законът се среща с границите на съвременната компютърна наука. Виждаме нов клас софтуер, проектиран специално за управление на тези правни изисквания.
Следващата година ще бъде първият истински тест за тези закони. Ще видим първите големи глоби и първите съдебни дела, които ще определят границите на правителствената власт. Значим прогрес би бил ясен набор от стандарти, които позволяват на малките компании да се конкурират, без да се давят в документация. Трябва да следим за появата на независими одитори, които могат да сертифицират, че един AI е безопасен. Целта е да преминем отвъд хайпа и страха. Нуждаем се от система, в която технологията служи на хората, без да нарушава правата им. Внедряването на **EU AI Act** ще бъде основният сигнал, който да следим. Ако прилагането е твърде агресивно, може да видим отлив на капитали към други региони. Ако е твърде слабо, законът ще бъде възприет като „хартиен тигър“. Правилата са тук. Сега трябва да видим дали наистина работят в реалния свят.
Открихте грешка или нещо, което трябва да бъде коригирано? Уведомете ни.
Бележка на редактора: Създадохме този сайт като многоезичен център за новини и ръководства за изкуствен интелект за хора, които не са компютърни маниаци, но все пак искат да разберат изкуствения интелект, да го използват с повече увереност и да следят бъдещето, което вече настъпва.