nvidia ベルの後の水曜日に第4四半期の財務結果を報告する予定です。
これまでにない大企業から最も注目すべき年の1つに最後の仕上げを行うことが期待されています。 Factsetが投票したアナリストは、1月に終了した四半期の売上高は380億ドルで、これは年間72%増加すると予想しています。
1月四半期は、Nvidiaの売り上げが2倍以上になった2会計年度を締めくくります。 Nvidiaのデータセンターのグラフィックス処理ユニット(GPU)がOpenaiのChatGPTなどの人工知能サービスを構築および展開するための不可欠なハードウェアであるという事実が駆動される息をのむようなストリークです。過去2年間で、Nvidiaの株式は478%上昇し、時には3兆ドル以上の時価総額で最も価値のある米国企業となっています。
しかし、投資家がChip Companyがここからどこへ行くのか疑問に思うため、Nvidiaの株式はここ数ヶ月で遅くなりました。
昨年10月と同じ価格で取引されており、投資家は、Nvidiaの最も重要な顧客が長年の大きな資本支出の後にベルトを引き締めている可能性があるという兆候に警戒しています。これは、中国からのAIでの最近のブレークスルーをきっかけに特に懸念しています。
Nvidiaの販売の多くは、通常、他の企業に賃貸するために、大規模なサーバー農場を建設する少数の企業に送られます。これらのクラウド企業は通常、「ハイパースカラー」と呼ばれます。昨年2月、Nvidiaは、2024年度の総収益の19%を単一の顧客が占めたと述べました。
モーガン・スタンレーのアナリストは今月、それを推定しました マイクロソフト Nvidiaの最新のAIチップであるBlackwellで、2025年の支出の35%近くを占めます。 グーグル 32.2%です オラクル 7.4%および アマゾン 6.2%。
これが、Microsoftまたはそのライバルが支出計画を引き戻す可能性があるという兆候がNvidiaの株を振ることができる理由です。
先週、TD Cowenのアナリストは、Microsoftがプライベートデータセンターのオペレーターとのリースをキャンセルし、交渉のプロセスを遅らせ、新しいリースを締結し、米国の施設を支持して国際データセンターに費やす計画を調整したことを知ったと述べました。
このレポートは、AIインフラストラクチャの成長の持続可能性についての恐怖を引き起こしました。それは、Nvidiaのチップに対する需要が少ないことを意味する可能性があります。 TD CowenのMichael Eliasは、彼のチームの発見がMicrosoftの「供給過剰の潜在的なポジション」を指し示していると述べました。 Nvidiaの株式は金曜日に4%減少しました。
マイクロソフトは月曜日に押し戻し、2025年にインフラストラクチャに800億ドルを費やす予定であると述べた。
「一部の地域では、インフラストラクチャを戦略的にペースまたは調整することができますが、すべての地域で強く成長し続けます。これにより、私たちは将来のために成長分野にリソースを投資し、割り当てることができます」とスポークスマンはCNBCに語った。
先月、Nvidiaの主要な顧客のほとんどは大規模な投資を宣伝しました。アルファベットはターゲットを絞っています 750億ドル 今年の資本支出で、 メタ 同じくらい費やします 650億ドル アマゾンは費やすことを目指しています 1,000億ドル。
アナリストは、AIインフラストラクチャキャピタルの支出の約半分がNVIDIAで終わると述べています。多くのハイパースカラーはAMDのGPUに手を出し、Nvidiaへの依存を軽減するために独自のAIチップを開発していますが、同社は最先端のAIチップの市場の大部分を保有しています。
これまでのところ、これらのチップは主に新しいAIモデルを訓練するために使用されてきました。これは、数億ドルの費用がかかるプロセスです。 AIがOpenai、Google、Anthropicなどの企業によって開発された後、Nvidia GPUでいっぱいの倉庫は、これらのモデルを顧客に提供するために必要です。そのため、Nvidiaは収益を増やして成長させ続けています。
Nvidiaのもう1つの課題は、先月の中国のスタートアップDeepseekの出現です。蒸留」AIモデル。十分なパフォーマンスがあり、最先端のAIを訓練および使用するために数十億ドルのNvidia GPUが必要ではないことを示唆しています。それは一時的にNvidiaの株を沈めたため、会社は時価総額でほぼ6,000億ドルを失いました。
Nvidia CEOのJensen Huangは、水曜日にAIが昨年の大規模なビルドアウトの後でもさらに多くのGPU容量を必要とし続ける理由を説明する機会を得るでしょう。
最近、Huangは「スケーリング法」について話しました 観察 2020年のOpenaiから、AIモデルがより良くなるほど、それらを作成するときにより多くのデータと計算が使用されます。
Huang氏は、DeepseekのR1モデルは、Nvidiaが呼ぶスケーリング法の新しいしわを指していると述べました。テスト時間スケーリング。」 Huangは、AIの改善への次の主要なパスは、AIまたは推論を展開するプロセスにより多くのGPUを適用することであると主張しています。これにより、チャットボットが「理由」を「推論」したり、問題を介して考える過程で多くのデータを生成したりできます。
AIモデルは、それらを作成および微調整するために数回だけトレーニングされます。ただし、AIモデルは1か月あたり何百万回も呼び出すことができるため、推論でより多くの計算を使用するには、顧客に展開されるNVIDIAチップを増やす必要があります。
「市場はR1に「ああ、おやおや、AIが終了した」と同様に応答しました。 先週のインタビュー。 「まったく逆です。」