政府はどのようにAIをコントロールしようとしているのか?
マシンの新しいルールAIの「西部開拓時代」は終わりを告げようとしています。政府はもはや傍観者ではありません。彼らは、コードがどのように書かれ、どこで展開されるかを決定するルールブックを書き上げています。これは単なる倫理や曖昧な原則の話ではなく、厳しい法律と巨額の罰金の話です。欧州連合(EU)が「AI Act」で先陣を切り、米国も広範な大統領令でそれに続きました。これらの動きは、世界中のすべてのテック企業の計算式を変えています。一定のパワーしきい値を超えるモデルを構築すれば、あなたは監視の対象となります。一般公開する前に、それが安全であることを証明しなければなりません。このシフトは、自主的な安全宣言から強制的な監視への移行を意味します。一般的なユーザーにとって、これは明日使うツールが今日使うものとは少し違ったものになる可能性があることを意味します。あなたの国では一部の機能がブロックされるかもしれませんし、他のツールはデータの使用方法についてより透明性が高くなるかもしれません。目標は進歩と保護のバランスを取ることですが、その道のりは摩擦に満ちています。 倫理から執行へ新しいルールを理解するには、リスクカテゴリーに注目する必要があります。「ワンサイズ・フィッツ・オール(一律)」のアプローチから脱却し、潜在的な被害の大きさに基づいてシステムを評価する動きが主流です。これは直接的な運用の変更です。企業は単に製品をリリースして幸運を祈ることはできなくなりました。ユーザーに届く前に、自社のテクノロジーを分類しなければなりません。この分類によって、政府が適用する監視レベルが決まります。また、何かがうまくいかなかった場合に企業が直面する法的責任のレベルも決まります。焦点は「AIが何であるか」から「AIが何をするか」へと移りました。もしシステムが人間に関する決定を下すのであれば、猫の画像を作るシステムよりもはるかに高い疑いの目で扱われます。最も厳しいルールは、容認できないリスクと見なされるシステムに適用されます。これらは単に推奨されないだけでなく、禁止されます。これにより、開発者にとって明確な境界線が生まれます。彼らは越えてはならない一線を正確に知ることができます。それ以外のすべてについては、新しいレベルのドキュメント作成が求められます。企業はモデルがどのようにトレーニングされたかの詳細な記録を保持しなければなりません。また、モデルがどのように結論に達したかを説明できなければなりません。多くの現代的なモデルは本質的に「ブラックボックス」であるため、これは重大な技術的課題です。それらを説明可能にすることは、設計方法の根本的な変更を必要とします。また、ルールはトレーニングに使用されるデータがクリーンでバイアスのないものであることを要求します。つまり、データ収集プロセス自体が法的な監査の対象となるのです。現在の規制アプローチは、以下のカテゴリーで定義されています:ソーシャルスコアリングや欺瞞的な手法で行動を操作する禁止システム。重要インフラ、採用、法執行機関で使用され、厳格な監査が必要なハイリスクシステム。チャットボットのように、人間ではないことを開示しなければならない限定的リスクシステム。AI搭載のビデオゲームのように、制限が少ない最小リスクシステム。この構造は柔軟に設計されています。テクノロジーの変化に伴い、ハイリスクなアプリケーションのリストは増える可能性があります。これにより、ソフトウェアが進化しても法律は関連性を保ちます。しかし、それは企業にとって永続的な不確実性の状態を生み出します。彼らは新しい機能がより規制の厳しいカテゴリーに移動していないかを常にチェックしなければなりません。これが、マシンの力を警戒する世界でソフトウェアを構築する新しい現実です。分断されたグローバルな枠組みこれらのルールの影響は、一国の境界にとどまりません。私たちは「ブリュッセル効果」の台頭を目の当たりにしています。EUが高いテック規制の基準を設けると、グローバル企業は業務を簡素化するために、どこでもその基準を採用することがよくあります。市場ごとに10種類の異なるバージョンを作るよりも、1つの準拠した製品を作る方が安上がりだからです。これにより、欧州はシリコンバレーでAIがどのように構築されるかに多大な影響力を持つようになります。これらの基準がどのように構成されているかについては、EU AI Actの詳細をご覧ください。米国のアプローチは異なりますが、同様に重要です。政府は「国防生産法(Defense Production Act)」を利用して、テック大手に安全テストの結果を共有するよう強制しています。これは、米国が大規模なAIを国家安全保障の問題と見なしていることを示しています。一方、中国はより直接的な道を選びました。彼らの規制は、生成AIによって生成されるコンテンツに焦点を当てています。彼らは、出力が社会的価値と一致し、国家権力を損なわないことを要求しています。これにより、ログインする場所によって同じモデルが異なる挙動をする可能性がある、断片化された世界が生まれます。北京のモデルは、パリやニューヨークのモデルとは異なるガードレールを持つことになります。この断片化は、矛盾するルールの網の中で作業しなければならない開発者にとって頭痛の種です。一部の国はより多くの開放性を望み、他の国は物語のより多くのコントロールを望んでいます。グローバルなオーディエンスにとって、これはAI体験がローカライズされつつあることを意味します。単一で国境のないインターネットの夢は消えつつあります。その代わりにあるのは、あなたの場所がマシンに何を語らせるかを決定する規制された環境です。これが2024年の新しい現実です。これは、次の10年間の技術的成長を定義するシフトです。規制の目下での日常生活プロジェクトマネージャーのサラの典型的な朝を想像してみてください。彼女はAIツールを開いて、長いメールのやり取りを要約することから一日を始めます。新しい規制の下では、ソフトウェアは彼女にその要約がアルゴリズムによって生成されたものであることを通知しなければなりません。また、彼女の同意なしに会社のデータがパブリックモデルのトレーニングに使用されないようにする必要があります。これは、最近の法律に組み込まれた新しいプライバシー保護の直接的な結果です。その後、サラはテック企業の新職に応募します。その企業はAIスクリーニングツールを使用しています。これはハイリスクなアプリケーションであるため、企業はバイアスについてツールを監査しなければなりませんでした。サラには、なぜAIが彼女をそのようにランク付けしたのか、その説明を求める法的権利があります。以前なら、彼女は一般的な拒否通知を受け取っていたでしょう。今、彼女には透明性への道があります。これは、ガバナンスが企業と個人の間の力関係をどのように変えるかの具体的な例です。 午後、サラはショッピングモールを歩きます。一部の都市では、顔認識が彼女の動きを追跡してターゲット広告を表示するでしょう。厳格なEUルール下では、このようなリアルタイム監視は制限されています。モールはそれを使用する特定の法的根拠を持つ必要があり、サラに通知しなければなりません。彼女が使う製品も変化しています。OpenAIやGoogleのような企業は、すでに現地の法律に準拠するために機能を調整しています。特定の画像生成ツールがあなたの地域で利用できなかったり、公人のリアルな顔を作成できないようにする厳格なフィルターがかかっていることに気づくかもしれません。これは技術的な制限ではなく、法的な制限です。ディープフェイクが選挙を混乱させたり、バイアスのかかったアルゴリズムが人々の住宅入居を拒否したりする可能性を考えると、これらのルールの主張は現実味を帯びてきます。ガードレールを設置することで、政府はこれらの害が発生する前に防ごうとしています。これが、米国のアプローチによるAIの安全性の実践です。 BotNews.today は、AIツールを使用してコンテンツの調査、執筆、編集、翻訳を行っています。 当社のチームは、情報が有用で明確、信頼できるものであるよう、プロセスをレビューし監督しています。 しかし、サラは自分のツールが遅くなったり、制限されたりしていることにも気づくかもしれません。AIからの「申し訳ありませんが、それはできません」という応答は、多くの場合、開発者が巨額の罰金を避けようとした結果です。利便性と安全性の間の緊張は、あらゆるインタラクションで見ることができます。それは、マシンが監視されていることを常に思い出させます。この進化は静的ではありません。新しい機能が登場するたびにルールは更新されています。目標は、サラが使うAIが彼女の利益のためのツールであり、裏で彼女の利益に反して働くシステムではないことを保証することです。これは、インターネットの発明以来、私たちがコンピューターと対話する方法における最も重要な変化です。コンプライアンスの隠れたコスト規制された世界で本当に勝つのは誰なのか、という難しい問いを投げかけなければなりません。重い規制の負担は本当に一般市民を守るのでしょうか、それとも単に既存の企業を守るだけなのでしょうか?大手テック企業には、コンプライアンスを処理するために何百人もの弁護士やエンジニアを雇うリソースがあります。ガレージにいる小さなスタートアップにはそれがありません。私たちは、巨人だけがイノベーションを享受できる世界を作り出すリスクを冒しています。これは競争の減少と、ユーザーにとっての価格上昇につながる可能性があります。また、プライバシー対セキュリティの問題もあります。政府がAIモデルの内部構造へのアクセスを要求するとき、誰がそのデータを保護するのでしょうか?政府がモデルを監査して安全であることを確認できるなら、同じアクセス権を使ってモデルがユーザーから何を学んでいるかを監視することもできます。これは、公開フォーラムで議論されることがほとんどないトレードオフです。 また、イノベーションの隠れたコストも考慮しなければなりません。すべての新機能が長い承認プロセスを経なければならないとしたら、医療で命を救ったり、複雑な気候問題を解決したりするようなブレイクスルーを見逃してしまうのではないでしょうか?規制の摩擦は現実のコストです。私たちは、得られる安全性が失う進歩に見合うものかどうかを知る必要があります。また、執行の問題もあります。分散型ネットワークや国際的な規範を無視する国でホストされているモデルをどのように規制するのでしょうか?ルールはそれらに従うことを選択した企業にしか適用されず、最も危険なアクターが監視なしで自由に活動することになるかもしれません。これは誤った安心感を生み出します。私たちは法を守る市民の周りに柵を築いていますが、他の誰にとっても門は開いたままです。これらは規制当局がしばしば避ける質問です。彼らは目に見えるリスクに焦点を当て、システム的なリスクを無視しています。前進するにあたり、私たちは安全への欲求が、オープンで競争力のある市場の価値を盲目にしないようにしなければなりません。 AIに関するストーリー、ツール、トレンド、または取り上げるべき質問がありますか? 記事のアイデアをお送りください — ぜひお聞かせください。 透明性の技術的代償パワーユーザーや開発者にとって、新しい規制は具体的な技術的制約に翻訳されます。最も重要な指標の1つは計算しきい値です。米国の大統領令では、10の26乗浮動小数点演算という基準が設定されています。これ以上のパワーでトレーニングされたモデルはすべて政府に報告しなければなりません。これにより、開発者はハードウェアの使用状況とトレーニング実行の詳細なログを保持することを余儀なくされます。API制限も規制のツールになりつつあります。偽情報の大量生成を防ぐため、一部の地域では単一ユーザーが生成モデルに行えるリクエスト数に制限を設けることを検討しています。これは、これらのモデルに依存するアプリケーションを開発者がどのように構築するかに影響します。彼らは今や、コードとビジネスモデルの中でこれらの制限を考慮しなければなりません。ローカルストレージももう一つの大きな要因です。法律はしばしば、市民に関するデータが特定の地理的境界内に留まることを要求します。つまり、企業は単に中央のクラウドを使用してどこからでもデータを処理することはできません。彼らはローカルのデータセンターを構築し、維持しなければなりません。技術的な要件には以下が含まれます:AI生成コンテンツを識別するためのAPIレベルでの強制的なウォーターマーク。ローカル処理とストレージを強制するデータレジデンシー要件。10の26乗FLOPSのしきい値を超えるモデルトレーニングのための計算ログ記録。モデルの重みと決定経路の人間による監査を可能にする説明可能性レイヤー。統合ワークフローも変化しています。開発者は今や、パイプラインのあらゆる段階で安全チェックを組み込まなければなりません。サードパーティのAPIを使用するツールを構築している場合、そのAPIがどのようにデータを処理するかについて責任を負うことになります。統合がプロバイダーによって設定された安全フィルターをバイパスしないようにする必要があります。法律の「ギークセクション」こそが、本当の戦いが行われる場所です。それはレイテンシ、データレジデンシー、そしてモデルの重みの数学に関するものです。これらは、製品が実行可能かどうか、あるいはコンプライアンス要件の重みの下に埋もれてしまうかどうかを決定する詳細です。これらの技術的シフトに関する詳細は、テック政策に関する最新のニュース報道で見つけることができます。これらの変化を先取りしたい人にとって、AI規制の最新動向を追うことは不可欠です。これらのルールの複雑さは、開発者の役割がコードと同じくらい法律に関するものになりつつあることを意味しています。 未完成のコードAIをコントロールしようとする試みは、現在進行形の作業です。私たちは完全な自由の時代から、管理された成長の時代へと移行しています。今日書かれたルールが、次の10年のテクノロジーを形作るでしょう。しかし、ソフトウェアの速度は常に法律の速度を上回ります。法律が可決される頃には、テクノロジーはしばしば新しい何かに移行しています。これは、この主題を進化させ続ける生きた問いを私たちに残します:民主的なプロセスは、自らを書き換える知性を規制するのに十分な速さになれるのでしょうか?今のところ、焦点は透明性と説明責任にあります。私たちは、人間が構築したマシンを人間がコントロールし続けることを確実にしようとしています。これらのルールがAIをより安全にするのか、それとも単に複雑にするだけなのかはまだ分かりません。唯一確かなことは、規制のないアルゴリズムの時代が終わったということです。これが2024年以降の現実です。 編集者注: 当サイトは、コンピューターオタクではないものの、人工知能を理解し、より自信を持って使いこなし、すでに到来している未来を追いかけたいと願う人々のための、多言語対応のAIニュースおよびガイドハブとして作成されました。 エラーを見つけたり、修正が必要な点がありましたか? お知らせください。