今週読んだことは... 1) xAIが200億ドルを調達し、200億ドルを投資 1月6日、xAIは拡大したSeries Eラウンドが目標150億ドルから200億ドルに最終決定したと発表しました。 現在、XおよびGrokアプリを通じて約6億のMAUにリーチされています。Grok 5は現在訓練中であり、1月8日にミシシッピ州サウヘイブンでのデータセンター拡張のための200億ドルの新たな投資が発表されました。 「MACROHARDRR」は現在、xAIの3番目のデータセンターであり、最近取得した発電所の近くにあり、これによりxAIの計算能力はほぼ2ギガワットに増加します。 ミシシッピ州開発局は、データセンターインセンティブとしてxAIを承認し、売上税および使用税の免除を提供しています。この大規模な建設は、州史上最大の民間投資となります。これにより数千の雇用が生まれ、近隣コミュニティへの配慮のために騒音軽減や排出モデリングの積極的な取り組みがすでに進められています。 2) マイクロンの1億ドル規模の巨大なメガファブ マイクロンは最近、米国史上最大の半導体製造施設を発表しました。彼らは1月16日にニューヨーク州オノンダガ郡のメガファブの正式な起工式を行います。この1億ドルのプロジェクトは5万人の雇用を生み出し、最大4つの半導体製造工場を保持し、ニューヨーク州史上最大の民間投資となります。 同社は高性能なDRAM、NAND、NORメモリおよびストレージ製品のポートフォリオを提供しています。Micronの収益の70%以上がDRAMであり、AIの関連性が最も顕著に現れます。彼らの高帯域幅メモリ(HBM)は、垂直に積み重ねられGPUに近い特殊なDRAMアーキテクチャです。 AIワークロードがスケールするにつれて、メモリはGPUが現代の推論や生成モデルに必要な数兆ものパラメータを処理するためのデータ導管として機能します。 AIからの急増により、DRAM価格は前年同期比で171%も急騰しました。さらに、HBMの需要は標準的なDRAMよりもはるかに速く成長しており、HBMは製造が難しく、歩留まりも低く、規模を出せるメーカーはSKハイニックス、サムスン、マイクロンなど少数のメーカーしかないため供給が制約されています。これにより、Micronの株価は2025年1月の~$99から本日~$325へと225%以上上昇しました。 3) NVIDIA:6つの新チップ、1つのAIスーパーコンピュータ Jensen HuangはCES 2026の正式な幕開けを、Vera Rubinプラットフォームの発表を行いました。Rubinは、1つの密結合システムとして動作するよう設計された6つの新しいチップで構成されています。これには次世代のGPU、CPU、ネットワーク、インターコネクトシリコンがすべて一体化して設計されています。その結果、Blackwellプラットフォームと比べて推論トークンコストを最大10倍に削減し、MoEモデルの学習用GPU数を4倍に削減できるようになりました。 Rubinは推論モデルに特化した新しいハードウェアとなります。推論コンテキストメモリ(ICM)の追加により、今日のAIにおける最大のボトルネックの一つである長期記憶とコンテキストのコストが解決されます。Vera Rubinプラットフォームは2026年1月時点で本格稼働中で、クラウドパートナー(Microsoft、CoreWeave、Nebius)が2026年下半年に展開されます。 ジェンセンはまた、空間3D入力に対して合成データ、予測、推論を生成するオープンワールド基盤モデルであるNVIDIA Cosmosを活用した物理AIの画期的な瞬間を共有しました。これにより、彼らは世界初の思考・推論・自動運転型自動車モデルを発表しました。これはカメラからアクチュエーションまで、端から端まで訓練されています。メルセデスとベンツのCLAパートナーシップは、NVIDIAがDRIVE AVシステムに8年かけて開発を重ねてきたことを象徴しています。