先日ご紹介させていただきました、AutoAI for RAGを含むwatsonx.aiに関するアップデートをお知らせします。
watsonx.ai に新たなオンデマンド・デプロイ対応モデルが追加(2025年4月23日)
IBM watsonx.ai において、オンデマンド(専用環境)でのデプロイに対応した基盤モデルが新たに利用可能となりました。
今回追加されたモデルは以下のとおりです:
参考資料:基盤モデルのオンデマンド展開について
watsonx.ai に新しい Granite 3.3 モデルが登場(2025年4月16日)
IBM の最新 AI モデル「Granite 3.3」シリーズを、watsonx.ai 上でご利用いただけるようになりました。
今回利用可能になったのは、以下の2つのモデルです:
-
granite-3-3-8b-instruct:マルチテナント・ハードウェア(共有サーバー環境)での推論を実行できます。他のユーザーと計算リソースを共有する構成により、環境構築の負担を軽減し、効率的にご利用いただけます。
-
granite-3-3-2b-instruct:オンデマンド(専用環境)でのデプロイに対応しており、他システムとの統合や柔軟な構成調整が行えます。要件に応じた高度なカスタマイズにも適しています。
watsonx.ai に Meta の最新 Llama 4 マルチモーダルモデルが登場(2025年4月7日)
IBM watsonx.ai で、Meta の最新の多言語・マルチモーダル基盤モデル「Llama 4」シリーズをご利用いただけるようになりました。
Llama 4 モデルは、効率的な計算を実現する「Mixture of Experts(MoE)」アーキテクチャを採用しており、トレーニングや推論に必要なリソースを削減しながら高精度な結果を提供します。さらに、Llama 4 はネイティブでマルチモーダルに設計されており、複数の言語によるテキストや画像の理解に特化している点も特長です。これにより、従来の後付け型では難しかった高度な情報統合と判断を可能にします。
現在、以下の Llama 4 シリーズを watsonx.ai で推論に使用できます:
複数の正解を評価データに設定可能に(2025年4月4日)
AutoAI for RAG 実験では、評価用データ資産において、1つの質問に対して複数の正解を登録できるようになりました。これにより、生成された回答の評価精度が向上し、より柔軟なパフォーマンス分析が可能になります。
パターン作成・評価における設定の影響を可視化(2025年4月4日)
AutoAI for RAG 実験の実行後に、各設定が最適なパターンの生成・ランキングにどの程度影響したかを確認できるようになりました。設定の重要度を可視化することで、パターン評価の根拠が明確になり、調整や再実験の指針が得られます。
具体的な画面推移を以下に示します。図2以降が新たに追加された機能です。

↑(図1)実験の実行中は、進捗マップを通じてパイプラインの構築および最適化の過程が視覚的に確認できます。各ノードにカーソルを重ねることで、詳細情報が表示されます。

↑(図2)実験が完了すると、「Setting importance(重要度設定)」をクリックすることで、最適化されたパターンの生成およびランク付けにおいて、各設定項目がどの程度影響を与えたかを確認できます。設定の重要度がゼロであった場合、すべてのRAGパターンにおいて同一の最適化指標スコアをもたらしており、ランキングには影響を与えていないことを示します。

↑(図3)実験パイプラインを表示するリーダーボードを確認し、最適化されたメトリックの結果に基づいて各パターンのランク付けを確認できます。「Vector store distance metric(ベクトルストア距離指標)」の列が新たに追加され、取得フェーズでどのような距離指標(コサイン類似度orユークリッド距離)を使って関連情報を探したかが確認できるようになりました。

↑(図4)パイプライン名をクリックすると、その詳細情報が表示されます。サンプルの質問と回答に基づいて評価された、各種評価指標におけるパイプラインのスコアを確認することができます。
データ取得方式のカスタマイズに対応(2025年3月31日)
AutoAI for RAG 実験において、ベクトル化インデックスからのデータ取得方法を柔軟に設定できるようになりました。シンプル取得方式とウィンドウ取得方式の選択に加え、チャンク数やウィンドウサイズも調整可能となり、精度と応答性の最適なバランスを実現できます。
以上、アップデートに関するお知らせでした。今後も継続的なアップデートを通じて、さらに進化を続けてまいります。ぜひご期待ください。