期待の入社2年目若手君(🐤)の成長物語 後編です!
前回のあらすじ:若手君は今流行りの生成AIに必要なデータ・レイクハウス(watsonx.data)について学びました。
今回は基盤のインフラについて学んでいきます。
先輩さん(🐓)
前回はデータ・レイクハウスの基本とwatsonx.dataのメリットについて学んだね。
若手君(🐤)
はい。watsonx.dataを使えば、クラウド環境だけでなく、オンプレミスでも一貫性のあるデータ・レイクハウスを構築できますね!
でも、オンプレミスでデータ・レイクハウスを構築する必要がある場面って、どんな時なんでしょうか?
クラウドの方がインフラのことを気にしないで良いので、より手軽に使えると思うのですが、どういう場面でオンプレミスのデータ・レイクハウスは必要になるんですか?
~📖データ・レイクハウスをオンプレミスで使うメリットとは?📖~
🐓
まず1番重要な点はデータの秘匿性だ。
以前から多くの企業でデータのクラウドシフトが進んでいるんだけど、会社として機密度が高いデータや、業界として取り扱いにガイドラインがあるデータは、クラウドではなくオンプレミスに置かれることが多いんだ。
🐤
機密度が高いデータというのは、例えばどんなデータなんでしょうか?
🐓
例えば、顧客情報や生態認証のデータ、信用情報、クレジットカード番号、銀行口座番号などの個人の資産に関係がある情報や、刑事手続きおよび犯罪歴に関する情報、健康情報、性自認など個人のセンシティブな情報、こういったものは取り扱いに細心の注意を要するし、多くの企業では自分たちでインフラの管理が容易なオンプレミスで取り扱うことが多いんだ。
最近は生成AIで色んなデータの利活用が進んでいるけど、こういったセンシティブなデータは変わらず秘匿性の高い場所に保管し続ける必要があるんだよ。
🐤
確かに、取り扱いに気を付けなければならないデータは、自分の手の届くところで保管したいですね。
生成AIでもそれは何ら変わらないです!
他にはオンプレミス運用にはどんなメリットがあるんですか?
🐓
もう1つはクラウド-オンプレミス間のデータ転送に付随するコストの問題が生じないという点だ。
例えば、クラウド主体の運用でオンプレミスの環境とデータが頻繁に行き来する場合、性能が担保された専用のネットワークを整備する必要があったり、クラウドからのデータ転送コストを気にする必要があったりするんだけど、オンプレミス主体だとそういう課題が発生しないメリットがあるんだ。
🐤
なるほど!クラウドを利用する場合には、ネットワーク回線の帯域や品質、データ転送コストといったそれぞれの要素も考慮に入れておく必要があるんですね。
オンプレミスでもデータ・レイクハウスが必要になる理由が理解できてきました!
~😓オンプレミス運用が抱えている課題について理解しよう😓~
🐓
だけどさっきも話していたように、オンプレミスは自分たちで運用する分クラウドより手間がかかってしまう部分があるんだ。
🐤
例えば、どんな問題をオンプレミスは持っているんですか?
🐓
その1つがデータのサイロ化によるデータコピーの手間だ。
サイロとは本来、工業用品や家畜の飼料を保管しておく貯蔵庫を意味しているんだけど、企業では部門ごとに色々なシステムが稼働していて、それぞれの部門のシステムが個別に設計・運用されていった結果、システム同士が情報連携されず、それぞれ孤立してしまっている様子をITではサイロに見立ててこう表現するようになった。
様々なデータを統合してデータ分析を行うためには、サイロ化した各システムからデータを1か所に持ってくる必要があって、担当者はまず各地のシステムのデータを分析基盤がある拠点にコピーする作業が必要になる。
データを各地のシステムからコピーして保管するので、データ分析基盤にはコピーを保管する容量と、パフォーマンス良く分析するための性能の高いストレージが必要になるんだ。
🐤
当たり前の話ですけど、色んなシステムからデータをコピーしてくるとなると、そのデータ収集だけですごく手間と時間がかかりますよね。
さらにコピーを保管するためのストレージも必要ということになると、その分の費用も考えなきゃいけないですね。
🐓
そういうことだね。
そして、こういった運用が始まる前には、データ分析を行うためのシステム基盤を設計・導入する必要があるんだけど、そこでも利用するハードウェア間の互換性を確認して正常に動作するか検証をしたり、ベンダー間の調整業務など調達にも色々手間が増えて時間を消費してしまうことがよくあるんだよ。
🐤
実際に動かなかったら大変だからちゃんとハードウェア間の互換性を検証するのは大事な工程ですよね。
でも、それでどんどんアプリケーションを導入するまでの時間が遅くなるのは、大きな負担になっちゃいますね。
🐓
そして実際に運用が開始して、何かトラブルがあった際にはサポートに問い合わせる必要があるんだけど、複数のベンダーの製品を併用している場合、基本的にベンダーは自分の会社の製品しか調べることはできないから、お客様は自分たちで主体的に問題箇所を特定して製品毎でそれぞれのベンダーに問題解決を依頼する必要がある。
同じように、ハードウェアをバージョンアップする際には、それぞれのファームウェアの互換性についても、お客様主体で確認する必要があるんだよ
🐤
入れて終わりじゃないんですね。
運用していく中では考えなきゃいけないことがいっぱいあるんですね・・・。
🐓
最後に、こういったシステム設計の裏で絶対に欠かすことができないのがデータ保護、いわゆるバックアップだ。
タイトなプロジェクト案件では、本番システムの設計や運用を考えるだけで手一杯になってしまって、バックアップへの意識が後手になってしまいがちなんだけど、バックアップはデータを守る最後の砦だから、この部分は絶対に抜かりがあってはならないよね。
🐤
バックアップは何かあった時のために絶対取らないとだめですね!
うーん、でも、こう聞くとオンプレミス運用の手間ってすごく大変なことがいっぱいあるんですね。
いくらメリットがあるって言われても、これだとクラウドの方が簡単だと思っちゃいますね。
だってインフラストラクチャって、あくまでデータ・レイクハウスやAIというアプリケーションを動かすための手段ですよね?
それなのに、その導入や運用・保守が大変って話だと本末転倒になっちゃいます。
もっと導入がパパっと素早く出来て、運用やサポートに問い合わせる時も全部集約されていて楽で、もっとコストパフォーマンス高くデータ分析を行える手軽なソリューションがあったら良いのになって感じちゃいました。
🐓
それにうってつけのプラットフォームがIBM Fusion HCIだよ。
🐤
Fusion HCIって社内で聞いたことあります!どんな製品なんですか?
~🤩オンプレミス基盤を迅速に導入・手間なく運用できるIBM Fusion HCIって何?🤩~
🐓
Fusion HCIはオンプレミス基盤に必要なコンピューティングノード、ストレージ、ネットワーク、コンテナ基盤のOpenShift、そしてこれらの運用ツールを1パッケージで提供するアプライアンス製品なんだ。

IBM Fusion HCIの主要コンポーネント
🐤
1台に色々な役割が内包しているってことですか?
アプライアンスって複数の製品が1パッケージにまとまったものですよね?
🐓
そう、でもただのアプライアンスってわけじゃない。
Fusion HCIでは通常のコンテナ基盤構築と比較して、導入時の工数を大きく削減することができるんだ。
Fusion HCIはIBMが事前にハードウェア・ソフトウェア互換性を検証した上でアプライアンスとして提供しているので、当たり前だけど事前の互換性検証の手間は不要になる。
OpenShiftの導入も専用コンソールを用いて簡単に進められるので、構築の負荷を大きく軽減することができるんだ。
カタログスペック上は最短4時間、通常数日もあればアプリケーションの稼働を開始できる。
だからお客様はインフラ基盤構築に関する負荷から解放されて、期限に定めのあるプロジェクトでも、本来注力すべきアプリケーションに専念できる。
実際にりそな銀行様の導入事例でも、この点を高く評価頂いたことが決め手となったんだよ。
参考事例:りそな銀行が実現する 信頼と金融取引の透明性 ~スピード重視のコンテナ活用
🐤
導入の手間が少なくなるのはすごく良いですね!
OpenShiftはすごく便利だけど、実際に導入するのには色々と知識と準備が必要みたいな話を聞いたことがあります。
🐓
楽になるのは導入だけじゃないぞ。
Fusion HCIでは保守窓口がIBMで一元化されることで運用負荷を削減できるんだ。
Fusion HCIではサーバー、ネットワーク、ストレージ、watsonx.dataが稼働するコンテナプラットフォームのOpenShift、そして実際にアプリケーションとして使うwatsonx.dataまで、すべてIBMがワンストップでサポートを提供している。
障害時は、お客様はIBMサポートに連絡さえすればよいので、問題の切り分けは不要になるし、トラブル時に複数のベンダーに問い合わせる必要もない。
サポート対応時のよくある話で、ベンダーをたらい回しにされてしまうという話もあるぐらいだからね。
アップデートの際も、Fusion HCIとして1パッケージで提供されているので、アップデートの度に互換性を確認する必要もないというメリットもあるんだ。
🐤
運用ツールも一緒に提供されているって話ですし、導入した後の保守対応もすごくシンプルになりそうですね!
🐓
さらにユニークな特徴として、Fusion HCIでは標準でバックアップ機能を提供しているんだ。
Fusion HCIではIBMが事前検証済みのバックアップ機能がセットになっていて、最初から使うことができるから、データ保護について一から考える必要もない。
新しいインフラ基盤を導入する際には、考慮しなきゃいけないことが多数あって、バックアップは後手になってしまいがちって話をしたけど、Fusion HCIであればこういった負担を大きく削減できる。
🐤
バックアップが標準で一緒になっているってすごいですね!
考えなきゃいけないことがたくさんある中で、バックアップ設計について考える負担から解放されることでも、より本業のアプリケーションに専念しやすくなりますね。
🐓
バックアップまで内包しているアプライアンス製品はたぶん業界的にも珍しいと思うよ!
そして実は、データ・レイクハウスをFusion HCIで使うことによって得られるメリットもあるんだ。
Fusion HCIは各地のストレージにあるファイルを一時的にキャッシュして、まるでそのファイルが手元にあるかのように扱うことができる機能を持っている。
これにより各地にあるストレージのファイルやクラウドに保管されているファイルを、データ分析用のストレージにコピーする手間や、保管するための高性能なストレージとその容量にかかるコストを削減することができるんだ。
🐤
導入や運用負担を大きく削減するだけじゃなく、データのサイロ化の話も解消して快適に使える機能も提供するなんてすごいですね!
至れり尽くせりなインフラ基盤に見えてきました!
~💡コスパもばっちり!データ分析・AIのオンプレミス運用はFusion HCIで決まり!💡~
🐓
最後に、Fusion HCIではコスト面の削減も期待できるんだ。
一般的な仮想基盤上にOpenShiftを構築する場合と比較すると、TCOと呼ばれるオンプレミス運用にかかるコストの5年間の総額を、平均して1/2以下に収めることができているらしい!
このように、Fusion HCIは従来のオンプレミス基盤の導入や運用にかかっていた工数や時間、コストを最適化して、インフラ運用にかかる手間を最小限に抑えるんだ。
お客様はタイトなプロジェクト案件の中でも安心して、watsonx.dataでのデータ活用や、生成AIの導入に専念することができる。
Fusion HCIはまさにデータ分析や生成AIのためのプラットフォームといえるんだよ!
🐤
ありがとうございます!
Fusion HCIがwatsonx.dataや生成AIとすごく相性が良いことがばっちり理解できました!
早速来週のお客様とのミーティングでぜひご紹介してみたいです!

問い合わせ情報
より詳細な説明のご相談についてはIBMJapanStorage@ibm.comまで!
またはIBM の営業もしくはエキスパートまでご相談ください。
#StorageFusion
#watsonx.data