starthome-logo 無料ゲーム
starthome-logo

AWSとOpenAIが7年・380億ドル提携 数十万GPUでChatGPTを“即時スケール”へ


AWSとOpenAIが7年・380億ドルの戦略的提携を発表しました。OpenAIは数十万GPUと数千万CPUに即アクセスし、ChatGPT系ワークロードを大規模かつ迅速に拡張する体制を整えます。企業の生成AI活用に直結する一手です。

AWSの大規模インフラでOpenAIの生成AIが即時拡張可能に

AWSとOpenAIは複数年にわたる戦略的パートナーシップを結び、OpenAIのコアAIワークロードをAWSの世界クラスのインフラ上で即時に実行・拡張できる体制を整えました。今回の契約は今後7年間にわたる総額380億ドルに相当し、OpenAIは数十万台規模の最先端NVIDIA GPUと、エージェントワークロードを迅速に拡張するための数千万台規模のCPUを活用できるようになります。

AWS側は、Amazon EC2 UltraServerなどを含む最適化されたアーキテクチャをOpenAI向けに展開します。GB300とGB2といったNVIDIA GPUをクラスタリングし、低遅延で相互接続されたシステム上に大規模クラスター(プレスリリースでは500Kを超えるチップ規模の運用実績が言及)を構築することで、ChatGPTの推論提供から次世代モデルのトレーニングまで、多様な生成AIワークロードをサポートします。

導入スケジュールとして、OpenAIはAWSのコンピューティング利用を直ちに開始し、全容量は2026年末までに導入することを目標としています。また、2027年以降もさらに拡張する能力を備え、急速に増えるコンピューティング需要に対応する見込みです。OpenAIの声明では、フロンティアAIの拡張には大規模で信頼性の高いコンピューティングが不可欠だと強調され、AWSのインフラがそのバックボーンになる旨が述べられています。

この提携は技術面の最適化だけでなく、既にAmazon Bedrock上で提供されているOpenAIのオープンウェイトモデルの利用拡大につながる点も明示されています。プレスリリースでは、Bystreet、Comscore、Peloton、Thomson Reuters、Triomics、Verana Healthといった顧客が、エージェントワークフローやコーディング、科学分析などでAmazon Bedrock上のモデルを活用している事例が紹介されており、今回の大規模インフラ提供は、そうした企業利用の裾野をさらに広げる可能性があります。

OpenAIの共同創設者兼CEOサム・アルトマン氏は、フロンティアAIを支えるための広範なコンピーティングエコシステムの強化を今回の提携の目的に挙げています。一方、AWS側のMatt Garman氏は、最適化されたコンピューティングの可用性がOpenAIの膨大なワークロードを支える理由であると述べ、両社は生成AIの提供を通じて数百万人に価値を届ける意図を示しています。

詳しくは「OpenAI」の公式ページまで。
レポート/DXマガジン編集部 權

    Loading...
    アクセスランキング
    game_banner
    Starthome

    StartHomeカテゴリー

    Copyright 2025
    ©KINGSOFT JAPAN INC. ALL RIGHTS RESERVED.