black and white robot toy on red wooden table

類似投稿

  • | | | |

    新しいモデルスタック:チャット、検索、エージェント、ビジョン、そして音声

    「青いリンク10個」の終わりインターネットは、過去20年間を定義してきたディレクトリモデルから脱却しつつあります。長年、ユーザーはクエリを入力し、ウェブサイトのリストを受け取ってきました。今日、そのやり取りは洗練された機能のスタックに置き換わりつつあります。このスタックには、チャットインターフェース、リアルタイム検索、自律型エージェント、コンピュータビジョン、低遅延の音声などが含まれます。もはや目的は「ウェブサイトを見つけること」ではありません。目的は、答えを直接提供するか、あなたに代わってタスクを完了させることです。この変化は、従来のパブリッシャーにとってクリック率(CTR)に大きな圧力をかけています。AIの概要が記事の完璧な要約を提供すれば、ユーザーはわざわざ元のソースを訪れる理由がなくなります。これは単なる技術の変化ではなく、ウェブの経済構造そのものの変化です。私たちは、ナビゲーションよりも合成を優先する「アンサーエンジン(回答エンジン)」の台頭を目の当たりにしています。この新しいモデルスタックでは、可視性に対する考え方を変える必要があります。検索ページの最初の結果であることよりも、モデルのトレーニングセットやリアルタイムの検索システムの主要なソースであることの方が重要になりつつあります。 マルチモーダルエコシステムの地図この新しい環境の構造は、4つの明確なレイヤーの上に構築されています。最初のレイヤーはチャットインターフェースです。これは、ユーザーが自然言語で意図を表現する会話型のフロントエンドです。過去の硬直的なキーワード構造とは異なり、これらのインターフェースはニュアンスやフォローアップの質問を可能にします。第2のレイヤーは検索エンジンで、これは検索システムへと進化しました。単にページをインデックスするだけでなく、大規模言語モデル(LLM)に高品質なデータを供給し、正確性と鮮度を確保しています。ここで、可視性とトラフィックの間の緊張関係が最も顕著になります。ブランドがAIの回答に表示されても、その可視性が必ずしも訪問につながるとは限りません。第3のレイヤーはエージェントで構成されます。これらは、複数ステップのワークフローを実行するように設計された特殊なプログラムです。エージェントは、どのフライトが最も安いかを教えるだけではありません。サイトにログインし、予約の準備まで行います。最後のレイヤーにはビジョンと音声が含まれます。これらは、スタックが物理世界と対話することを可能にする感覚入力です。壊れたエンジンにカメラを向けて修理方法を尋ねたり、運転中に車に話しかけて長いレポートを要約させたりすることができます。この統合されたアプローチは、サイロ化されたアプリ体験を置き換えつつあります。ユーザーは、一つのことを成し遂げるために5つの異なるプラットフォームを行き来したくはありません。バックグラウンドで複雑さを処理する単一の入り口を求めているのです。この移行により、ウェブはよりプロアクティブな状態へと向かっています。情報はもはや、外に出て探しに行くものではありません。すぐに使える形式で提供されるものなのです。この変化は、すべてのデジタルビジネスに対し、システムに対してどのように価値を伝えるかを再考するよう迫っています。 情報発見の経済的シフト世界的に見て、この新しいスタックの影響を最も強く受けているのは、情報アービトラージに依存している人々です。パブリッシャー、マーケター、研究者は、仲介者が自動化される世界に直面しています。かつては、ユーザーが新しいノートPCの機能を比較するために3つの異なるブログをクリックして回ることもありました。新しい世界では、単一のAI概要がそれら3つのブログからデータを抽出し、比較表を提示します。ブログが価値を提供し、AIが注目を集めるのです。これはコンテンツの品質シグナルにとって危機を生みます。パブリッシャーがトラフィックを得られなければ、質の高いレポートに資金を提供できません。質の高いレポートが消滅すれば、モデルは要約すべき実体のある情報を失います。この循環的な依存関係は、2026年のテック業界における最大の課題の一つです。私たちは「ゼロクリック」の現実に向けた動きを目の当たりにしています。企業にとって、これは従来のSEOだけでは不十分であることを意味します。AIが信頼する「決定的なソース」となるよう最適化しなければなりません。これには構造化データ、明確な権威性のシグナル、そして真実の主要なソースであることへの集中が含まれます。世界中のオーディエンスも、情報を信頼する方法の変化を経験しています。耳元で声が事実を告げるとき、画面上のリンクを見るよりもソースを確認する可能性は低くなります。これは、これらのモデルを構築する企業に計り知れない責任を課しています。彼らはもはやインターネットへの地図を提供しているだけではありません。インターネットの「オラクル(神託)」として機能しているのです。この変化は地域によって異なる速度で進行していますが、方向性は明らかです。過去のゲートキーパーは、未来のシンセサイザー(合成者)に置き換わりつつあります。 統合アシスタントとの一日製品発表の準備をしているマーケティングマネージャーのサラを例に挙げてみましょう。以前のサラなら、朝から20個のタブを開いて時間を費やしていたはずです。Googleで競合他社のニュースをチェックし、別のツールでソーシャルメディアの分析を行い、さらに別のツールでメールの下書きを作成していました。新しいモデルスタックを使えば、彼女のワークフローは統合されます。彼女は一日の始まりにワークステーションに話しかけます。競合他社の最新の動きの要約を求めます。システムは単にリンクを渡すだけではありません。検索レイヤーを使ってニュースを探し、ビジョンレイヤーで競合のInstagram投稿を分析し、チャットレイヤーでレポートを合成します。次にサラは、エージェントレイヤーに彼女のブランドボイスに基づいた対応戦略の草案を作成するよう依頼します。システムはローカルストレージから情報を引き出し、過去のキャンペーンとトーンが一致するようにします。会議に向かう車内では、音声インターフェースを使って草案を微調整します。文書内のタイプミスに気づくと、簡単な音声コマンドで修正します。これは一連の断絶されたタスクではありません。意図の単一で連続的な流れなのです。その後、発表イベントの会場を見つける必要が生じます。彼女はスマートフォンのカメラを候補のスペースに向けます。ビジョンシステムが場所を特定し、フロアプランを呼び出し、収容人数を計算します。彼女はエージェントにカレンダーを確認させ、会場マネージャーに予約の問い合わせを送るよう指示します。エージェントがメールを処理し、フォローアップのリマインダーを設定します。サラは手動でのデータ入力ではなく、意思決定に一日を費やしました。このシナリオは、可視性とトラフィックの違いを物語っています。会場マネージャーは、サラがAIスタックを通じてそのスペースを見つけ、検証できたために問い合わせを受け取ったのです。会場のウェブサイトは検索エンジンからの従来のヒットを受け取っていないかもしれませんが、価値の高いリードを獲得しました。これが新しい発見のパターンです。閲覧よりも実行が重視されるようになっています。古いウェブの摩擦は、文脈を理解するインテリジェントな自動化の層によって滑らかにされています。これにより、専門家はスタックが情報収集やコミュニケーションのロジスティクスを処理する間、戦略に集中できるようになります。 即時回答の倫理的代償この統合スタックへの移行は、利便性の代償について難しい問題を提起しています。ユーザーがチャットインターフェースから決して離れない場合、オープンウェブの生存をどのように確保すればよいのでしょうか?私たちは、アクセスの速さのために思考の多様性を犠牲にしていないか自問しなければなりません。単一のモデルがどの情報が関連しているかを決定するとき、それは巨大なフィルターとして機能します。このフィルターは、バイアスを持ち込んだり、反対意見を隠したりする可能性があります。プライバシーの問題もあります。エージェントがフライトを予約したりカレンダーを管理したりするには、個人データへの深いアクセスが必要です。このデータはどこに保存され、誰が見ることができるのでしょうか?エネルギーコストも隠れた要因です。マルチモーダルな回答を生成するには、従来のキーワード検索よりもはるかに多くの計算能力が必要です。また、人間の専門知識をどのように評価するかという変化も起きています。AIが法的な文書や医学研究を要約できるなら、そのスキルを習得するために何年も費やした専門家はどうなるのでしょうか?リスクは、スタックを制御する少数の巨大プラットフォームに過度に依存してしまうことです。これらのプラットフォームは、私たちが世界をどのように見るかの鍵を握っています。私たちは認知能力への長期的な影響を考慮しなければなりません。検索をやめて受け取るだけになったら、情報のソースについて批判的に考える能力を失ってしまうのでしょうか? BotNews.today は、AIツールを使用してコンテンツの調査、執筆、編集、翻訳を行っています。 当社のチームは、情報が有用で明確、信頼できるものであるよう、プロセスをレビューし監督しています。 これらは単なる技術的な問題ではありません。社会的な問題です。私たちは何よりも効率を優先するシステムを構築しています。それが唯一重要な指標であるかどうかを決めなければなりません。この移行の隠れたコストは何年も明らかにならないかもしれませんが、その決定は今日、シリコンバレーやその他の場所の少数のエンジニアや幹部によって下されています。 現代のインテント(意図)の技術アーキテクチャパワーユーザーにとって、新しいモデルスタックはその「配管」によって定義されます。単純なAPI呼び出しから複雑なRAG(検索拡張生成)ワークフローへの移行が、この進化の核心です。開発者はもはやGPTのエンドポイントを叩くだけではありません。ローカルのベクトルデータベースとライブ検索結果を接続する洗練されたパイプラインを管理しています。最大のハードルの一つはAPI制限です。モデルが日常のワークフローに統合されるにつれて、処理されるトークンの量は急増しています。これがローカルストレージとエッジコンピューティングへの注力につながっています。ユーザーは、大規模モデルの力を享受しながら、自分のデータがデバイス内に留まることを望んでいます。ここでスモールランゲージモデル(SLM)の出番です。これらは基本的なタスクをローカルで処理してレイテンシとコストを節約し、重い処理が必要なときだけクラウドにアクセスします。コンテキストウィンドウも重要な指標です。コンテキストウィンドウが大きければ、モデルは会話やプロジェクトの履歴をより多く記憶できます。しかし、ウィンドウが大きくなるにつれて、モデルが焦点を失ったりハルシネーション(幻覚)を起こしたりする可能性も高まります。私たちはより構造化された出力への移行を目の当たりにしています。単にテキストを返すのではなく、エージェントがアクションをトリガーするために使用できるJSONやその他の機械可読形式を返すようになっています。これが「話すこと」と「行うこと」の架け橋です。ビジョンと音声の統合は、さらなる複雑さを加えています。リアルタイムでビデオを処理するには、膨大な帯域幅と低レイテンシが必要です。これが、これらの特定のワークロードを処理できる特殊なハードウェアへの推進力となっている理由です。目標は、タイピング、発話、視覚の間の移行がユーザーにとって見えない、シームレスな体験です。これには、スマートフォンの初期以来見られなかったレベルのハードウェアとソフトウェアの調整が必要です。 AIに関するストーリー、ツール、トレンド、または取り上げるべき質問がありますか? 記事のアイデアをお送りください — ぜひお聞かせください。 未解決の発見の未来マルチモーダルスタックへの移行は、完成したプロセスではありません。今は激しい実験の時期です。私たちは現在、ユーザーがいつ検索エンジンを使い、いつチャットインターフェースを使うべきか確信が持てないという混乱状態にあります。この混乱は、2つの体験が完全に融合するまで続くでしょう。残された大きな疑問は、ゼロクリック検索の時代にウェブがどのように資金調達されるかです。従来の広告モデルが崩壊すれば、新しいモデルがそれに取って代わる必要があります。これにはデータ利用に対するマイクロペイメントや、サブスクリプションベースのサービスへの完全な移行が含まれるかもしれません。唯一確かなことは、私たちが情報と対話する方法が永遠に変わったということです。私たちはもはやリンクを探しているわけではありません。解決策を探しているのです。新しいモデルスタックはその解決策を提供しますが、私たちが計算し始めたばかりの代償を伴います。これがより情報豊かな社会につながるのか、それともよりサイロ化された社会につながるのかは、時間が経たなければわかりません。 編集者注: 当サイトは、コンピューターオタクではないものの、人工知能を理解し、より自信を持って使いこなし、すでに到来している未来を追いかけたいと願う人々のための、多言語対応のAIニュースおよびガイドハブとして作成されました。 エラーを見つけたり、修正が必要な点がありましたか? お知らせください。

  • | | | |

    AIインフラは将来、宇宙へ移転するのか?

    地球上のコンピューティングにおける物理的限界地球は、現代のAIが求める膨大なエネルギー需要を支える場所が足りなくなっています。データセンターは今や世界の電力供給の大部分を消費し、冷却のために数十億ガロンもの水を必要としています。処理能力への需要が高まる中、AIインフラを軌道上に移すというアイデアは、SFの世界から現実的なエンジニアリングの議論へと移行しつつあります。これは単にセンサーを宇宙に送る話ではありません。収集された場所でデータを処理するために、高密度のコンピュートクラスターを地球低軌道(LEO)に配置するという話です。ハードウェアを地球の外へ出すことで、企業は冷却危機を解決し、地上の電力網の物理的な制約を回避しようとしています。重要なのは、インフラの次の段階は地上ではなく、太陽エネルギーが豊富で冷涼な環境が自然のヒートシンクとなる宇宙の真空空間に構築される可能性があるということです。 軌道上AIへの移行は、接続性に対する私たちの考え方の根本的な転換を意味します。現在、衛星は信号を地球に跳ね返す単純な鏡として機能しています。新しいモデルでは、衛星そのものがプロセッサとなります。これにより、混雑した周波数帯域を通じて膨大な生のデータセットを送信する必要がなくなります。その代わり、衛星がその場で情報を処理し、関連するインサイトのみを地上に送り返します。この転換は、海底ケーブルや地上サーバーファームへの依存を減らすことで、グローバルなデータ管理の経済性を変える可能性があります。しかし、技術的なハードルは依然として高いままです。重いハードウェアの打ち上げは高コストであり、宇宙の過酷な環境は数ヶ月で繊細なシリコンを破壊してしまう可能性があります。私たちは今、空を巨大な分散型マザーボードとして扱う、軌道上の分散型ネットワークに向けた第一歩を目撃しているのです。軌道上処理レイヤーの定義宇宙ベースのAIについて語るとき、私たちは「オービタル・エッジ・コンピューティング」と呼ばれる概念を指しています。これには、Tensor Processing UnitsやField Programmable Gate Arraysのような特殊なチップを小型衛星に搭載することが含まれます。これらのチップは、機械学習モデルが必要とする重い数学的負荷を処理するように設計されています。空調管理された部屋にある従来のサーバーとは異なり、これらの軌道上ユニットは真空中で動作しなければなりません。これらは、熱を真空中に放射するパッシブ冷却システムに依存しています。これにより、地球上の干ばつ地域でデータセンターの論争の的となっている大規模な水冷システムが不要になります。ハードウェアはまた、宇宙線の絶え間ない衝撃に耐えるために放射線硬化されている必要があります。エンジニアたちは現在、高価な物理的シールドの代わりにソフトウェアベースのエラー訂正を使用することで、より安価なコンシューマーグレードのチップが使用できないかテストしています。これが成功すれば、軌道上AIノードを展開するコストは大幅に下がるでしょう。欧州宇宙機関(ESA)の研究によると、目標は地上管制から独立して長期間運用できる自律的なネットワークを構築することです。これにより、従来のデータ中継に伴う遅延なしに、衛星画像、気象パターン、海上交通のリアルタイム分析が可能になります。これは、自然災害や地上の紛争の影響を受けない、より回復力のあるインフラへの移行です。 この移行の経済性は、ロケット打ち上げコストの低下によって推進されています。打ち上げ頻度が増すにつれ、ペイロード1キログラムあたりの価格は低下します。これにより、より優れたチップが登場するたびに数年おきに軌道上のハードウェアを交換することを検討するのが現実的になります。このサイクルは、地上データセンターで見られる急速なアップグレードパスを反映しています。違いは、宇宙には家賃がなく、太陽が一定のエネルギー源を提供してくれるという点です。これは最終的に、特定の高価値タスクにおいて、軌道上のコンピュートを地上ベースの代替手段よりも安価にする可能性があります。企業は、業界が上空へと向かう中で取り残されないよう、これが次世代AIインフラにどのように適合するかをすでに検討しています。地球低軌道への地政学的シフト宇宙への移行は単なる技術的な課題ではなく、地政学的な課題でもあります。各国はデータ主権と物理的インフラのセキュリティについてますます懸念を強めています。地上のデータセンターは、物理的な攻撃、停電、現地政府の干渉に対して脆弱です。軌道上のネットワークは、地球上では達成が困難なレベルの隔離を提供します。政府は、地上のネットワークが侵害された場合でも動作可能な「ダーク」なコンピュート能力を維持する方法として、宇宙ベースのAIを模索しています。これは、軌道上のスロットを制御することが、石油や鉱物資源の権利を制御することと同じくらい重要になる新しい環境を生み出します。軌道上のコンピュートレイヤーを支配するための競争は、主要な世界大国の間で既に始まっています。規制当局の監視という問題もあります。地球上では、データセンターは現地の環境法やプライバシー法を遵守しなければなりません。宇宙という国際水域では、これらのルールは不明確です。これにより、企業が最も物議を醸す、あるいはエネルギー集約的な処理を、厳しい地上規制を回避するために軌道上に移すという状況が生じる可能性があります。国際エネルギー機関(IEA)は、データセンターのエネルギー使用が気候目標にとって懸念材料であると指摘しています。そのエネルギー負荷を、100%太陽エネルギーで賄える宇宙に移すことは、カーボンニュートラル目標を達成しようとする企業にとって魅力的な解決策に見えるかもしれません。しかし、これはロケット打ち上げの環境への影響や、増大する宇宙ゴミの問題を誰が監視するのかという懸念も引き起こします。 グローバルな接続性も大きく変化するでしょう。現在、世界の多くの地域では、高速AIサービスにアクセスするために必要な光ファイバーインフラが不足しています。軌道上のAIレイヤーは、高価な地上ケーブルを必要とせずに、衛星リンクを介してこれらのサービスを直接提供できます。これにより、これまで伝統的なテック業界からサービスを受けられなかった遠隔地、研究ステーション、船舶に高度なコンピュート能力をもたらすことができます。焦点は、ファイバーがどこで終わるかではなく、衛星がどこに配置されているかに移ります。これは、線形のケーブルベースの世界から、球形の信号ベースの世界への移行です。 遅延と高高度インテリジェンスとの共生これが一般の人々にどのような影響を与えるかを理解するために、データがどのように移動するかを見てみましょう。遠隔地の港で働く物流マネージャーのサラを想像してください。彼女の仕事は、数百隻の自律型貨物船の到着を調整することです。以前は、生のセンサーデータがバージニア州のサーバーに送られ、処理されて戻ってくるのを待たなければなりませんでした。これでは遅延が発生し、リアルタイムの調整は不可能でした。軌道上AIがあれば、処理は頭上を通過する衛星上で行われます。船が座標を送信し、衛星が最適なドッキング経路を計算し、サラは数ミリ秒で完成した計画を受け取ります。これは、過去に反応することと、現在を管理することの違いです。 この未来におけるユーザーの典型的な一日は、次のようになるかもしれません:朝:農業用ドローンが畑をスキャンし、ローカルなインターネット接続を必要とせずに、軌道上のノードにデータを送信して害虫の発生を特定します。昼:災害現場の緊急対応チームが衛星リンクを使用して、熱画像から生存者をリアルタイムで特定する捜索救助モデルを実行します。夕方:グローバルな金融会社が、どの地上局よりも物理的に特定のデータソースに近い軌道上のクラスターを使用して、高頻度取引アルゴリズムを実行します。夜:環境機関が、軌道上で完全に検出・処理された違法な伐採や漁業活動に関する自動アラートを受け取ります。このシナリオは、システムの回復力を強調しています。大規模な嵐が地域の電力を遮断しても、軌道上のAIは機能し続けます。これは、現地の環境に依存しない分離されたインフラです。クリエイターや企業にとって、これは現地の状況に関係なくサービスが常に利用可能であることを意味します。しかし、これは「クラウド」がもはや抽象的な概念ではなく、地球を周回する物理的なシリコンの輪であることを意味します。これは、地域全体のコンピュート能力を一瞬で破壊する可能性のある軌道衝突など、新たなリスクをもたらします。このハードウェアへの依存は、私たちが理解し始めたばかりの新しい種類の脆弱性を生み出しています。この移行は、モバイルデバイスとの対話方法も変えます。複雑なタスクを衛星にオフロードできれば、スマホ自体が強力である必要はないかもしれません。これは、低電力で高知能なデバイスの新世代につながる可能性があります。ボトルネックはもはやポケットの中のプロセッサではなく、空へのリンクの帯域幅です。近づくにつれて、このリンクを提供するための競争は激化するでしょう。NASAや民間企業は、すでにこれらの宇宙と地上の通信規格について協力しています。目標は、リクエストがオレゴンの地下室で処理されたのか、太平洋上空1000マイルで処理されたのかをユーザーが知る必要のない、シームレスな体験です。 宇宙インフラの倫理的真空私たちは、この移行の隠れたコストについて難しい問いを投げかけなければなりません。最もエネルギー集約的なコンピューティングを宇宙に移すなら、私たちは単に環境問題を輸出しているだけではないでしょうか?ロケットの打ち上げは大量の排出物を生成し、オゾン層の破壊に寄与します。打ち上げや最終的な廃止措置を含む軌道上データセンターの総カーボンフットプリントが、地上のものよりも本当に低いのかを知る必要があります。宇宙ゴミの問題もあります。何千ものコンピュートノードを打ち上げることで、一度の衝突が連鎖反応を引き起こし、何世代にもわたって軌道を使用不能にするケスラーシンドロームのリスクが高まります。「死んだ」AI衛星を掃除する責任は誰にあるのでしょうか?プライバシーも大きな懸念事項です。衛星が高度なAIを使用して高解像度画像をリアルタイムで処理できるなら、絶え間なく瞬きしない監視の可能性は甚大です。地上ベースのカメラとは異なり、軌道上のセンサーは隠れるのが困難です。誰がこのデータにアクセスできるのか、そして民間企業が主権国家よりも優れた軌道上のインテリジェンスを持っている場合に何が起こるのかを問わなければなりません。宇宙でのデータ処理に関する明確な国際法がないことは、あなたのデータがプライバシー保護のない管轄区域で扱われる可能性があることを意味します。このコンテンツは、技術仕様を網羅するために自動化ツールの支援を受けて作成されました。 BotNews.today は、AIツールを使用してコンテンツの調査、執筆、編集、翻訳を行っています。 当社のチームは、情報が有用で明確、信頼できるものであるよう、プロセスをレビューし監督しています。 軌道上AIの利便性は、物理的なプライバシーの喪失に見合うものでしょうか?私たちは上空から見て考えられるシステムを構築していますが、誰がリモコンを握るのかはまだ決めていません。 AIに関するストーリー、ツール、トレンド、または取り上げるべき質問がありますか? 記事のアイデアをお送りください — ぜひお聞かせください。 最後に、デジタル不平等の問題があります。軌道上AIは遠隔地に到達できますが、ハードウェアは一握りの巨大企業と裕福な国々によって所有されています。「知的優位」が少数の人々に占有され、世界の残りの部分が彼らのインフラに依存し続けるという、新しい形の植民地主義につながる可能性があります。企業が特定の地域へのサービスを遮断することを決定すれば、その地域は現代経済で機能する能力を失う可能性があります。私たちは、地元の電力網をグローバルな軌道独占と引き換えにしているのです。私たちの最も重要なインテリジェンスが文字通り私たちの手から離れてしまう世界に対して、私たちが準備できているかを検討しなければなりません。真空状態におけるハードウェアの制約技術的な観点から見ると、この推測のギークセクションは環境の極端な制約に焦点を当てています。真空状態では、ファンを使ってヒートシンクに空気を送ることはできません。代わりに、ヒートパイプを使用して熱エネルギーを大きなラジエーターパネルに移動させる必要があります。これにより、使用できるチップの合計TDP(熱設計電力)が制限されます。地上ベースのH100 GPUが700ワットを消費する可能性がある一方で、軌道上の同等品ははるかに効率的でなければなりません。最小限の消費電力で一つのことを非常によく行う、特殊なASIC(特定用途向け集積回路)設計への移行が見られるでしょう。電力予算がソーラーパネルのサイズによって制限される場合、効率こそが唯一の重要な指標となります。 ソフトウェア側も同様に複雑です。宇宙での運用には、データ管理とAPI統合への異なるアプローチが必要です:API制限:データ送信ウィンドウは地上局に対する衛星の位置によって制限されるため、積極的なキャッシュと非同期処理が必要です。ローカルストレージ:地球からのダウンロードは遅すぎるため、衛星は大規模なモデルやデータセットを保存するために高密度で放射線耐性のあるNANDフラッシュを使用する必要があります。ワークフロー統合:開発者は、放射線がメモリ内のビットを反転させる「シングルイベントアップセット」を処理できるコードを書く必要があり、冗長な実行が求められます。帯域幅のスロットリング:メタデータとインサイトに優先順位が与えられ、生のデータは削除されるか、長期的な物理的回収のために保存されることがよくあります。現在の実験では、ワットあたりの優れたパフォーマンスのためにARMベースのプロセッサを使用することが含まれています。また、レガシーな命令セットのオーバーヘッドなしにAIワークロードを処理できるカスタム拡張を可能にするRISC-Vアーキテクチャにも大きな関心が寄せられています。目標は、「ワットあたりのインテリジェンス」比率を最大化することです。衛星が1ワットの電力で1兆回の演算を実行できれば、グローバルネットワークの実行可能なノードになります。また、衛星間レーザーリンクの開発も進んでいます。これらのリンクにより、衛星は地球に何も送り返すことなく、データやコンピュートタスクを相互に共有できます。これにより、損傷したノードや高い干渉領域を回避できる空のメッシュネットワークが構築されます。 宇宙シリコンに関する最終評決AIインフラを宇宙に移すことは、地球上で私たちが直面している物理的限界に対する論理的な対応です。エネルギー制約を回避し、冷却コストを削減し、真にグローバルな接続性を提供する手段となります。しかし、それは魔法の解決策ではありません。宇宙ゴミのリスク、打ち上げの環境への影響、規制当局の監視不足は大きなハードルです。私たちは現在、コストが高く、利益が海事や防衛などの特定の業界に限定されている実験段階にあります。これがすべてのAIの標準になるかどうかは、真空中で生き残れるハードウェアを構築する能力と、高地を扱える法的な枠組みにかかっています。未来のインフラは上を向いていますが、私たちは地面から足を離さないように注意しなければなりません。 編集者注: 当サイトは、コンピューターオタクではないものの、人工知能を理解し、より自信を持って使いこなし、すでに到来している未来を追いかけたいと願う人々のための、多言語対応のAIニュースおよびガイドハブとして作成されました。 エラーを見つけたり、修正が必要な点がありましたか? お知らせください。

  • | | | |

    DeepSeekとPerplexityが挑む、AI新時代の幕開け

    高額なAI独占の時代が終わりを告げようとしています。過去2年間、業界は「トップレベルの性能には数十億ドルのコンピューティングと膨大なエネルギー消費が必要だ」という前提で動いてきました。しかし、DeepSeekとPerplexityは、効率性が生のスケールを凌駕できることを証明しています。DeepSeekは、業界リーダーに匹敵する性能をわずかなトレーニングコストで実現するモデルをリリースし、市場に衝撃を与えました。一方、Perplexityは、従来のリンクのリストを引用付きの直接的な回答に置き換えることで、人々のインターネットとの関わり方を根本から変えています。この変化は単なる新しいツールの登場ではありません。知能の経済学における根本的な転換なのです。焦点は「モデルをどれだけ大きくできるか」から「どれだけ低コストで運用できるか」へと移りました。これらのチャレンジャーが地歩を固める中、既存の巨大企業は、誇大広告よりも実用性を優先する、無駄を削ぎ落とした専門的な競合他社の波に対して、高利益率のビジネスモデルを守らざるを得なくなっています。 知能市場への効率性の衝撃DeepSeekは、AI界のプロダクトの現実に変化をもたらしました。多くの企業が可能な限り巨大なニューラルネットワークの構築に注力する中、彼らはアーキテクチャの最適化に焦点を当てました。彼らの「DeepSeek-V3」モデルは、特定のタスクに対して全パラメータのわずかな部分のみをアクティブにする「Mixture of Experts」アプローチを採用しています。これにより、モデルは高い性能を維持しながら、生成する単語ごとに必要な計算量を劇的に削減しています。同社を巡る物語は、しばしば600万ドル未満と報じられる低いトレーニング予算に集中しており、これは「最も裕福な国家や企業だけがフロンティアモデルを構築できる」という考えに異議を唱えるものです。機械学習の参入障壁は、これまで考えられていたよりも低いことを示唆しています。Perplexityは、ユーザーインターフェースの観点からこの問題にアプローチしています。これは従来の検索エンジンではなく、「回答エンジン」です。既存の大規模言語モデルを使用してライブウェブをスキャンし、関連情報を抽出して、脚注付きのまとまった段落として提示します。この設計上の選択は、標準的なAIモデルの最大の弱点である「時代遅れ、あるいは完全に捏造された事実を述べる傾向」に対処するものです。すべての回答をリアルタイムのウェブデータに基づかせることで、Perplexityは標準的なチャットボットよりも専門的な調査において信頼できるツールを作り上げました。このプロダクトはモデルそのものだけでなく、その周囲にある検索と引用のシステム全体なのです。このアプローチは、ユーザーが検索結果の複数ページをクリックすることで得られる広告収入に依存している従来の検索プロバイダーに、計り知れないプレッシャーを与えています。 BotNews.today は、AIツールを使用してコンテンツの調査、執筆、編集、翻訳を行っています。 当社のチームは、情報が有用で明確、信頼できるものであるよう、プロセスをレビューし監督しています。 もしユーザーが最初の試行で答えを得られれば、スポンサーリンクのリストを閲覧したり、散らかったウェブサイトをナビゲートしたりする理由はありません。これは、ツールの実用性とウェブの現在の経済構造との間に直接的な対立を生み出しています。 安価なコンピューティングの地政学これらのチャレンジャーが世界に与える影響は、高性能な推論の民主化に根ざしています。モデルの実行コストが90%低下すれば、日常的なソフトウェアへの統合の可能性は指数関数的に拡大します。これまでトップティアのAPIを利用する予算がなかった新興市場のデベロッパーも、洗練されたアプリケーションを構築できるようになります。これは業界全体の重心を変えるものです。もし最も効率的なモデルが従来のシリコンバレーのハブの外から生まれるなら、巨大な国内サーバーファームの戦略的優位性は薄れ始めます。これは、モデルの主権について、また各国が少数の集中型プロバイダーに依存すべきか、それとも独自の効率的なアーキテクチャに投資すべきかという議論を強制します。これは業界を「勝者総取り」のダイナミズムから、より断片化された競争的な市場へと動かすため、注目に値するシグナルです。エンタープライズのバイヤーも、この変化を収益面で感じ始めています。低コストな推論という物語は、企業が長期的なテクノロジーのスタックを計画する方法を変えています。もしDeepSeekのようなモデルが、より高価なライバルの80%の実用性を10%の価格で提供できるなら、ほとんどの日常的なタスクにおいて、高価な選択肢を選ぶビジネス上の正当性は消滅します。これにより、最も高価なモデルは高度に複雑な推論のために予約され、大部分の作業は効率的なチャレンジャーが担うという階層化された市場が生まれます。この経済的現実は広告の世界にも影響を与えています。Perplexityは、広告を研究プロセスから気をそらすものではなく、プロセスに統合するモデルを実験しています。これは、人々がもはやホームページを訪れたり検索結果をスクロールしたりしない時代において、ブランドが消費者にリーチする方法を再定義する可能性があります。その影響は、APIを選択するソフトウェアエンジニアから、インスタントな回答の世界でオーディエンスを見つけようとするマーケティングエグゼクティブまで、あらゆる人に及んでいます。 回答エンジンと過ごす火曜日現実世界への影響を理解するために、サラという名の金融アナリストの1日を考えてみましょう。かつてサラは、市場の動きやニュースレポートを確認するために10個の異なるタブを開くことから朝を始めていました。彼女はデータを統合して朝のブリーフィングを作成するのに何時間も費やしていました。今日、彼女は回答エンジンを使って、複数のソースにまたがる特定のデータポイントを同時にクエリしています。3つの異なる四半期報告書の比較を求め、数秒で引用付きの要約を受け取ります。システムがソーステキストから直接抽出するため、受け取ったデータの綴りは正確です。彼女はもう情報を見つけることに時間を費やしません。情報の検証と、それに基づいた意思決定に時間を費やしています。これが、検索のディストリビューションの物語が実際に動いている姿です。インターフェースがリサーチャーとなり、サラはエディターとなりました。彼女のワークフローは速くなりましたが、同時にエンジンが提供する引用の正確性に依存するようにもなっています。 その日の後半、サラはデータ入力タスクを自動化するためのカスタムスクリプトを書く必要がありました。プレミアムなコストがかかる可能性のある汎用アシスタントを使う代わりに、彼女はDeepSeekのようなチャレンジャーの専門的なコーディングモデルを使います。モデルは即座にコードを提供し、推論コストが非常に低いため、会社は予算を気にすることなく、彼女が1日に何千もの小さなタスクにそれを使うことを許可しています。これがモデル市場の変化の姿です。それは貴重なリソースではなく、バックグラウンドのユーティリティになりつつあります。サラが3日間、標準的な検索バーを使っていないことに気づいたとき、従来の検索行動へのプレッシャーが目に見えるようになります。構造化されたドキュメントがあれば、リンクのリストなど必要ないのです。以下のポイントは、彼女の日常ルーチンの変化を示しています。サラは手動のニュース収集を、リアルタイムで更新される自動化された引用付き要約に置き換えた。以前は自動化するにはコストがかかりすぎた反復的なコーディングタスクに、低コストモデルを使用している。直接的な回答に価値を見出すため、従来の広告型検索エンジンへの依存度はほぼゼロにまで低下した。節約できた時間により、データ探しではなく、高度な戦略やクライアント対応に集中できるようになった。 無料の知能の隠れた代償ソクラテス的な懐疑主義は、この効率性と引き換えに何を差し出しているのかを問うことを求めています。モデルのトレーニングと実行が大幅に安価であるなら、その節約分はどこから来たのでしょうか?これらの効率的なモデルのトレーニングに使用されたデータが、より高価なものと同レベルの精査を経て取得されたのかを問わなければなりません。価格競争が激化することで、データプライバシーや知的財産権の軽視につながるリスクがあります。もし企業がモデルにあまり課金していないなら、ユーザーが入力するデータを収益化しているのでしょうか?また、回答エンジンモデルの隠れたコストも考慮しなければなりません。Perplexityがウェブサイトを要約すると、そのウェブサイトは訪問者を失います。元のコンテンツの作成者が報酬を受け取らなければ、これらのエンジンが依存している情報そのものが最終的に消滅する可能性があります。もし読者がソースを訪れなければ、2026 のジャーナリズムや研究に誰が資金を提供するのでしょうか?もう一つの難しい問いは、これらの軽量なアーキテクチャの信頼性に関わるものです。「Mixture of Experts」アプローチは、検出しにくい新しいタイプのエラーを導入するのでしょうか?スピードのために深さを犠牲にしていないかを問わなければなりません。ユーザーが元のコンテキストを確認することなく、要約された引用に過度に依存するようになる危険性があります。これは、簡潔な回答を追求するあまりニュアンスが失われ、複雑なトピックへの理解が浅くなることにつながる可能性があります。トレーニングコストに関する主張についても懐疑的であるべきです。これらの数値は完全に透明でしょうか、それとも人件費やハードウェアの環境負荷を無視しているのでしょうか?安価な知能の世界へ向かう中で、私たちは生活に統合しようとしているシステムの品質と倫理について警戒を怠ってはなりません。新製品リリースのノイズは、長期的な結果というシグナルをかき消してしまうことがよくあるのです。 新しいチャレンジャーの内部構造パワーユーザーにとって、これらのチャレンジャーの魅力は、その技術的な柔軟性と統合機能にあります。DeepSeek-V3はFP8精度に最適化されたトレーニングフレームワークを使用しており、精度を大幅に損なうことなく高速な計算を可能にしています。これは、彼らのコスト効率を説明する上で重要な技術的マイルストーンです。彼らの「Multi-head Latent Attention」メカニズムは、推論中のモデルのメモリフットプリントを削減しており、これは独自のハードウェアでこれらのモデルをホストしたいデベロッパーにとって重要な要素です。これらの新しいモデルの多くはオープンウェイトでリリースされており、ローカルやプライベートなクラウドインスタンスで実行可能です。これは、機密データをサードパーティのAPIに送信するリスクを負えない企業にとって、大きな利点です。これらのモデルを特定のデータセットでファインチューニングできる能力は、法務、医療、金融セクターなどのニッチなアプリケーションにおける価値をさらに高めます。 AIに関するストーリー、ツール、トレンド、または取り上げるべき質問がありますか? 記事のアイデアをお送りください — ぜひお聞かせください。 Perplexityは、APIを通じて異なる種類の技術的価値を提供しており、デベロッパーは検索機能を独自のアプリケーションに直接組み込むことができます。これにより、個別の検索インデックスや個別の言語モデルが不要になります。システムはグラウンディングと引用を自動的に処理します。しかし、考慮すべき制限もあります。APIのレート制限やリアルタイムウェブ検索のレイテンシは、大量のアプリケーションにとってボトルネックとなる可能性があります。ユーザーは、検索の速度と分析の深さの間のトレードオフも管理しなければなりません。これらの検索結果のローカルストレージも、情報の出所を監査する必要があるパワーユーザーにとって考慮すべき点です。現在、これらのツールの競争優位性を定義している技術的要因は以下の通りです。長文コンテキストタスク中のKVキャッシュメモリ使用量を削減するための「Multi-head Latent Attention」の使用。最新のGPUハードウェアのスループットを最大化するためのFP8トレーニングおよび推論のサポート。何千もの同時ウェブクエリを処理できるリアルタイムRAGパイプラインの統合。安全な環境でのローカルデプロイメントのためのオープンウェイトの可用性。 選択的知能の未来DeepSeekとPerplexityの台頭は、より成熟したAI市場の始まりを告げるものです。私たちは、話せるモデルという目新しさから、効率的に仕事ができるモデルという実用性へと移行しています。重心は、高品質な結果を持続可能な価格で提供できるプロバイダーへと移っています。これは現在の 2026 だけのトレンドではなく、私たちがデジタルサービスを構築し消費する方法における長期的な変化です。これらのチャレンジャーがプロダクトを洗練させるにつれ、従来の検索や高コストなモデルプロバイダーへのプレッシャーは高まる一方でしょう。ユーザーにとっては、より多くの選択肢とより良いツールを意味します。業界にとっては、力任せの計算よりもエンジニアリングの卓越性に再び焦点を当てることを意味します。真の勝者は、誇大広告サイクルのノイズと、テック経済における真の構造的変化のシグナルを見分けることができる人たちです。 編集者注: 当サイトは、コンピューターオタクではないものの、人工知能を理解し、より自信を持って使いこなし、すでに到来している未来を追いかけたいと願う人々のための、多言語対応のAIニュースおよびガイドハブとして作成されました。 エラーを見つけたり、修正が必要な点がありましたか? お知らせください。

  • | | | |

    AIチップの次なる進化:速さ、小ささ、それとも効率?

    AIを高速化する競争は、単純なクロック周波数の向上から、システムアーキテクチャを巡る複雑な戦いへとシフトしました。もはやシリコン上にトランジスタを詰め込むだけでは不十分です。業界は、プロセッサそのものの性能よりも、プロセッサとメモリ間のデータ転送速度が重要となる壁に突き当たっています。この変化こそが、現在のハードウェア時代を定義づけています。かつてチップ設計のみに集中していた企業は、今や競争力を維持するために、グローバルなサプライチェーンや高度なパッケージング技術を管理せざるを得なくなりました。最近のトレンドは、ネットワーキングやメモリが論理ゲートと同じくらい重要な役割を果たす、包括的なシステムへの移行です。この進化は、ソフトウェアの記述方法や、政府による国家安全保障の捉え方まで変えています。テクノロジーの行く末を知りたいなら、チップそのものではなく、チップ間のつながりに注目してください。プラットフォームの力は、今やこれらの異なるパーツをいかに統合し、一つのまとまったユニットにできるかにかかっています。ハードウェアの物理的な限界を無視すれば、ソフトウェアの夢はレイテンシと熱によって頓挫してしまうでしょう。 メモリの壁を突破するシリコンのスタッキング現在の変化を理解するには、チップが物理的にどのように構成されているかを見る必要があります。数十年の間、業界はフラットな設計に従ってきました。プロセッサとメモリは回路基板上で離れた場所に配置されていました。今日、その距離こそがパフォーマンスの最大の敵です。これを解決するため、メーカーは高度なパッケージング技術に目を向けています。これは、コンポーネントを積み重ねたり、インターポーザーと呼ばれる特殊なベースの上に並べたりする手法です。この「Chip on Wafer on Substrate」と呼ばれる技術により、かつては不可能だった速度での大量データ転送が可能になりました。これは単なる小さな改善ではありません。コンピュータの構築方法における根本的な変化です。**High Bandwidth Memory**(広帯域メモリ)をプロセッシングコアのすぐ隣にスタックすることで、大規模言語モデルの処理を遅らせる交通渋滞を解消できます。NVIDIAのような企業が圧倒的な強さを誇るのは、単にチップを売っているからではありません。メモリや高速インターコネクトを含む、緊密に統合されたパッケージを提供しているからです。メモリそのものも進化しています。標準的なRAMでは、現代のAIの要求には追いつけません。業界は、より高いスループットを提供する特殊なメモリへと移行しています。このメモリは高価で製造も難しく、供給のボトルネックとなっています。企業がこの特殊なメモリを十分に確保できなければ、高度なプロセッサも実質的に無用の長物です。この依存関係は、ハードウェアの物語が今やシステム全体の物語であることを示しています。血液を運ぶ血管について語らずして、脳について語ることはできません。2Dから3D構造への移行は、今日の市場において最も重要な技術的シグナルです。これは、真剣なプレイヤーと、古い設計を繰り返しているだけの企業を分かつものです。この移行には、精密な製造を可能にする施設への巨額の投資が必要です。TSMCのように、これを大規模に実現できる企業は世界でもごくわずかです。AIの地政学的現実は、これらのチップがどこで作られるかに直結しています。高度な製造のほとんどは、台湾のわずか数平方マイルのエリアに集中しています。この集中は、世界経済にとって単一障害点となります。もしそこで生産が止まれば、テクノロジー業界全体が停止してしまいます。各国政府は国内に工場を建設するために数十億ドルを投じていますが、プロジェクトの完了には数年を要します。輸出規制も大きな要因となっています。米国政府は技術的優位を維持するため、特定の国へのハイエンドAIチップの販売を制限しました。これにより、企業はこれらの規則に従うための特別なハードウェア設計を余儀なくされています。世界市場の断片化は、どこに拠点を置くかによって構築できるAIの種類が決まることを意味します。物理的な境界線がデジタルな可能性を定義する世界への回帰です。ハードウェアとプラットフォームの力のつながりは、今や国家政策の問題です。最新のシリコンにアクセスできない国は、ソフトウェア時代に競争できません。原材料から完成品システムに至るまで、サプライチェーンを支配しようとする動きが激しいのはそのためです。 開発者や中小企業にとって、こうしたハードウェアの変化は即座に影響を及ぼします。小さなスタジオを運営するクリエイター、サラを例に挙げましょう。1年前、彼女はAIツールを動かすためにクラウドプロバイダーに完全に依存していました。高額な月額料金を支払い、データが学習に使われることを懸念していました。今日では、より効率的なチップ設計と優れたローカルメモリ統合のおかげで、強力なモデルを一台のワークステーションで動かせるようになりました。彼女の一日は、コーヒーを飲みながらローカルマシンで高解像度のアセットを生成することから始まります。別の州にあるサーバーからの応答を待つ必要はありません。ハードウェアが効率的なため、オフィスが過熱することもなく、電気代も管理可能な範囲に収まっています。このローカルコンピューティングへのシフトは、チップのパッケージングとメモリ管理の向上による直接的な成果です。これにより、クリエイターはより大きな自律性とプライバシーを手にしました。しかし、これは格差も生んでいます。最新のハードウェアを購入できる層は、古いシステムに縛られている層に対して圧倒的な生産性の優位性を持っています。 この影響は、企業の予算計画にも及びます。中規模の企業は、巨大なクラウド契約か、自社専用のハードウェアクラスターへの投資かを選択しなければならないかもしれません。この決定は、もはやコストだけの問題ではありません。コントロールの問題です。ハードウェアを所有すれば、スタックを所有することになります。巨大テック企業のAPI制限や、頻繁に変わる利用規約に縛られることはありません。自社のハードウェアに合わせてソフトウェアを最適化し、パフォーマンスを最大限に引き出すことができます。これがチップシフトの現実的な側面です。AIを遠いサービスから、身近なユーティリティへと変えるのです。しかし、このユーティリティには専門知識が必要です。高性能チップのクラスターを管理することは、従来のサーバー室を管理するのとはわけが違います。複雑なネットワーキングプロトコルや液体冷却システムを扱う必要があります。現実世界への影響として、ソフトウェアチームにハードウェアのリテラシーが新たに求められています。両分野は、コンピューティング黎明期以来の融合を見せています。大規模モデルのローカル実行により、リアルタイムアプリケーションのレイテンシが低減します。高度な冷却要件が、現代のデータセンターの物理レイアウトを変えています。ハードウェアレベルの暗号化が、機密データに対する新たなセキュリティ層を提供します。独自のインターコネクトにより、企業は単一のハードウェアエコシステムに留まることを余儀なくされます。エネルギー効率が、モバイルAIパフォーマンスの主要な指標となります。 私たちは、このハードウェアへの執着がもたらす隠れたコストについて自問しなければなりません。より高いパワーを求めるあまり、これらの複雑なシステムを製造することによる環境への影響を無視していないでしょうか?現代の工場を稼働させるために必要な水とエネルギーは驚異的です。また、ハードウェアレベルでのプライバシーの問題もあります。シリコン自体にテレメトリが組み込まれている場合、私たちのデータが本当にプライベートであると確信できるでしょうか?私たちは「コンピューティングは多ければ多いほど良い」と仮定しがちですが、解決しようとしている問題が本当にそれほどのパワーを必要としているのかを問うことはほとんどありません。私たちは、最も裕福な国家や企業しか住めないようなデジタル世界を築いているのでしょうか?製造能力が少数の手に集中していることは、1秒あたりのトークン生成速度を競う中で私たちが無視しているリスクです。システム障害に対して脆弱なハードウェアのモノカルチャーを作っていないか、検討すべきです。現在のテック業界では「ハードウェアこそが運命」ですが、その運命はごく少数の人々によって書き換えられています。 BotNews.today は、AIツールを使用してコンテンツの調査、執筆、編集、翻訳を行っています。 当社のチームは、情報が有用で明確、信頼できるものであるよう、プロセスをレビューし監督しています。 パフォーマンスと透明性の間のトレードオフが、私たちが受け入れるべきものなのかを問い直す必要があります。閉鎖的なハードウェアエコシステムへの現在のトレンドは、独立した研究者がこれらのシステムが実際にどのように機能しているかを検証することを困難にしています。 パワーユーザーにとって、技術的な詳細こそが真の物語です。ソフトウェアとハードウェアの統合は、CUDAやROCmのような専門的なライブラリを通じて行われています。これらは単なるドライバではなく、コードがチップ上の数千もの小さなコアと対話するための架け橋です。多くのワークフローにおける現在のボトルネックは、クラウドプロバイダーによって課されるAPI制限です。ローカルハードウェアに移行することで、ユーザーはこれらの制限を回避できますが、ローカルストレージとメモリ帯域幅の制約に対処しなければなりません。NVLinkのようなインターコネクト速度は、複数のチップが単一のユニットとしてどれだけうまく連携できるかを決定します。インターコネクトが遅ければ、チップを増やしても収益は減少します。最新のAIハードウェアトレンドが、処理能力と同じくらいネットワーキングに注目しているのはそのためです。また、熱設計電力(TDP)も考慮する必要があります。熱くなりすぎるチップはパフォーマンスをスロットルし、理論上のピーク速度を無意味にしてしまいます。モデルの重みをメモリに素早くロードして起動遅延を避ける必要があるため、ローカルストレージの速度も重要です。市場のギークなセクションは、単純なベンチマークから、システム全体のスループット指標へと移行しています。ハイエンドクラスターにおけるインターコネクト帯域幅は、現在毎秒数テラバイトを超えています。量子化技術により、大規模モデルをより小さなメモリフットプリントに収めることが可能です。ユニファイドメモリアーキテクチャにより、CPUとGPUが同じデータプールを共有できます。特定の数学演算のためのハードウェアアクセラレータが、コンシューマー向けCPUで標準化されつつあります。ローカルAPIエンドポイントにより、異なるソフトウェアツール間のシームレスな統合が可能になります。 今後1年間の有意義な進歩は、より高いクロック周波数では測定されません。その代わりに、エネルギー効率の向上と、高度なパッケージングの民主化に注目すべきです。よりオープンなインターコネクト標準への動きが見られれば、それは重要なシグナルとなるでしょう。それは、ユーザーが単一のベンダーのスタックに縛られなくなることを意味します。また、データ移動に必要な電力を削減するチップ内ネットワーキングの発展にも注目です。真の成功とは、高性能AIが上位1%の企業だけでなく、より多くの人々にアクセス可能になることです。実用的な賭け金は高いのです。ハードウェアは、私たちがデジタル空間で構築するすべての基盤です。その基盤が集中化され、高価で、不透明であれば、テクノロジーの未来も同じものになるでしょう。私たちは、シリコンの力が市場で騒音を増やすためだけでなく、すべての人々の現実的な問題を解決するために使われる世界へ向かう必要があります。シフトは今まさに起きており、その結果は何十年にもわたって感じられることになるでしょう。 編集者注: 当サイトは、コンピューターオタクではないものの、人工知能を理解し、より自信を持って使いこなし、すでに到来している未来を追いかけたいと願う人々のための、多言語対応のAIニュースおよびガイドハブとして作成されました。 エラーを見つけたり、修正が必要な点がありましたか? お知らせください。