ユビタス、NVIDIA AI Summit Japan 2024で革新的な次世代AIソリューションを発表
画像1: https://www.atpress.ne.jp/releases/416735/LL_img_416735_1.png
ユビタス、NVIDIA AI Summit Japan 2024で革新的な次世代AIソリューションを発表
■LLM連携のロボットAI:人間とロボットのインタラクションの先駆け
ユビタスは、ロボットのコアとしてNVIDIA Jetsonを搭載し、高性能H100 GPU上で動作する大規模言語モデルとシームレスに統合されたLLM連携AIロボット技術を発表しました。ユーザーはロボットに自然言語で命令を出すことができ、複雑なプログラミングをすることなくロボットを理解し応答することができるようになります。こちらは視覚認識機能も組み込まれており、ロボットはコマンドを受け取るとカメラを通して特定の物体を識別することができます。この画期的な技術は、セキュリティ、ヘルスケア、小売業など幅広い分野での応用が可能であり、直感的でリアルタイムなロボットアプリケーションの新たな標準となるものです。
■NVIDIA ACEを搭載したUE5のメタヒューマン:リアルなバーチャルインタラクションの再構築
またユビタスは、NVIDIA ACEを搭載したUnreal Engine 5 (UE5)で作成されたメタヒューマンを展示しており、インタラクティブなデジタル体験の著しい進歩を実現しています。このメタヒューマンは、会話記憶、検索拡張生成(RAG)、多言語機能を備えており、複雑な文脈にも対応するインタラクションを可能にします。彼らの表情や感情的な反応は、リアルで没入感のある体験を提供します。これらの先進的なインタラクション機能とクラウドストリーミングを組み合わせることで、ユビタスは様々なデバイスからアクセス可能なシームレスで没入感のある体験を提供し、ユーザーエンゲージメントを革新します。
■Apple Vision ProによるAI Vtuber展開:新たなデバイスで没入型インタラクション体験を強化
AI Vtuber「ユビちゃん」はNVIDIA Rivaの音声合成技術とAudio-to-Faceリップシンク技術を搭載しており、音声プロンプトに即座に反応し、完璧なリップシンクとともにリアルなパフォーマンスを実現します。NVIDIAの自動音声認識(ASR)と高度なハンドトラッキング技術により、ユーザーはユビちゃんと対話し、タッチなどジェスチャーに対するユビちゃんのリアルな反応を見ることができます。この画期的な技術は、AIバーチャル・キャラクターに新たな生命を吹き込み、バーチャル・インタラクティブ体験に新しい基準を確立します。
ユビタスCEOのウェスリー・クオは、このイベントに対し以下のようなコメントを寄せています:「AIとクラウドゲーミングのリーダーとして、ユビタスはAI主導のインタラクションの未来を紹介することに尽力しています。NVIDIA AI Summit Japanは、当社のソリューションが複数の業界でどのようにイノベーションを促進できるかを強調するための完璧なプラットフォームを提供します。」
ユビタスは、ゴールドスポンサーセクションのブース19にて、これらの革新的なAI技術のライブデモンストレーションをご覧いただき、それらがどのように人間とコンピュータのインタラクションの未来を形成しているかを探求していただくよう、来場の皆様をお待ちしています。
■ユビタスについて
ユビタスは、世界最高水準のGPU仮想化技術とクラウドストリーミングプラットフォームを運営しており、先進的な技術を通じて優れたユーザー体験をご提供することに専念しており、ユーザーがネットワークに接続されていれば、スマートフォン、タブレット、ゲームコンソール、スマートテレビ、パーソナルコンピュータなどのあらゆるデバイスで、AAAのゲーミング体験を楽しむことができます。
革新的なGameCloud(R)技術を用いて、ユビタスはプラットフォームオペレーターやデジタルコンテンツ開発者のために、マルチデバイスで没入感のある体験を提供するインタラクティブなメディアコンテンツをストリーミングすることができます。この技術を用いることで幅広いアプリケーションでのメタバースの普及を支援します。また、ユビタスはGPUパワーを活用してAI開発に挑戦し、大規模言語モデル(LLM)、グラフ拡散モデル、その他の生成AIツールの開発に取り組み、さまざまな業界の課題に対する革新的なソリューションの提供を目指しています。