ProVision

 View Only

AIの信頼性 : 信念を持ってAIの現在と未来へ取り組む

By IBM ProVision posted Tue June 04, 2024 03:59 AM

  
IBMには、AIに対する4つの信念があります。本稿ではそのうちの2つである「オープン」と「信頼」について、これらが生み出す利点と、それを世の中に届けるためのIBMの取り組みについて説明します。オープンであることの利点は、最先端技術をスピーディーに市場に届けられることと、透明性が担保され利用者が適切なAIモデルを選択できることです。また、信頼できるAIの利点は、安心してビジネスに使えることです。ぜひIBMと共に、安全で安心して使えるAIの未来に向けて取り組んでいきましょう。
望月 朝香
Mochizuki Tomoka
日本アイ・ビー・エム株式会社
研究開発 標準&製品コンプライアンス
AI 倫理プロジェクトマネージャー
日本IBMに入社し、ソフトウェア開発研究所にてLotus製品の開発やサービス・デリバリーに従事。2016年よりグローバリゼーション技術にて、翻訳業務を支援・管理するシステムの開発・運用、グローバリゼーション情報を提供する社内ポータル・サイト作成・管理、教育コース企画・開発などに従事。 2023年より現職。2023年12月に、日本AI倫理チームで「AIリスク教本」を執筆・出版。
 

IBMのAIに対する4つの信念とは

IBMは、Open(オープン)、Trusted(信頼できる)、Targeted(明確な対象)、Empowering(力を与える)という4つの根源的な信念を掲げてAIにアプローチしています(図1参照)[1][2][3]。
これらはIBMのAI技術開発や製品/サービスへの反映に留まらず、IBMのAIに対する活動にも取り込まれています。また生成AIの登場から、透明性があり信頼できるAIの重要性が世界中で考えられるようになっています。本稿では関連が深い「オープン」と「信頼」に焦点を当て、それがもたらす利点と、IBMが行っている取り組みについて紹介します。
 
図1. IBMのAIに対する信念  
 

スピーディーさと透明性はオープンな活動で実現する

AIがオープンであることの利点を二つ挙げると、オープンコミュニティーで培われた最先端技術をスピーディーに市場に届けられること、透明性があるので利用者が適切なAIモデルを選択できることです。
IBMはオープン・イノベーションの力を信じています。人々の集合的な知識に基づいて協働することは衆力功をなし  、単独で行うよりも画期的な技術を生み出すスピードも、それを市場に届けるスピードも格段に速まります。またAIモデルに関する技術情報をオープンにして透明性を担保することで、利用者は安心してビジネスに最も適したAIを選択して利用できるようになります。ここで、このオープンのためにIBMが取り組んでいることを3つ挙げます。それは (1) 「価値観を共有する仲間とオープンなコミュニティー作り」、(2) 「適切なAIモデルを利用者が選択できる環境」、そして(3)「技術の惜しみないオープン化」です。ひとつずつ説明します。
 
(1)  価値観を共有する仲間とオープンなコミュニティー作り
現在IBMは、価値観を共有する仲間とオープンなコミュニティーで協働しながらAIへのアプローチを進めています。本稿ではAI Alliance、U.S. Artificial Intelligence Safety Institute(US AISI)、2024年の選挙という3つの取り組みを紹介します。
 
まずAI Alliance[4]は、2023年12月5日にIBMとMeta社が発起人となりオープンで安全な責任のあるAIの推進に向けて世界を跨った50以上の設立メンバーとともに発足したコミュニティーです図2。6つの注力分野(規制政策の支援、信頼と安全、ツール、基盤モデル、ハードウェア、スキルと教育)を含むAI技術全体において、さまざまな分野の構築者や専門家を集めてメンバー主導のワーキンググループを構築し、協力的かつ透明性を持ってAIの技術や課題に取り組んでいます。そして、その成果や利点を社会に反映することを目指しています。
 
図2. AI Alliance メンバー (2024年3月時点)  
 
また2024年2月8日、U.S. Artificial Intelligence Safety Institute(US AISI)の下に、安全で信頼できるAIの開発・普及を支援することを目的としたコンソーシアム(AISIC)が設立されました[5]。ここにIBMを含む200を超える組織が参加し、生成AIに対するリスク管理、AIの能力評価、レッド・チーミング(サイバー攻撃や公平性・人権侵害リスク等への耐性を市場投入前にテストするチーム)、安全性とセキュリティーといった各ワーキンググループの活動が開始しています。
 
2024年の選挙というのは、世界各国で大型選挙が続く2024年への取り組みのことです。2024年2月16日に、「2024年選挙におけるAIの欺瞞的使用に対抗するための技術協定(A Tech Accord to Combat Deceptive Use of AI in 2024 Elections)」がミュンヘン・セキュリティ会議(MSC)で発表されました[6]が、IBMもこの協定に参画しています。これは20社以上がオープンに協力し、ディープフェイク(AIを使って人物の外観や特性を模倣し、画像、動画、音声を人工的に創り出すディープラーニング技術やそのコンテンツ)の悪用など、AIを不正利用した選挙活動妨害を防止・支援しようとするものです。 
 
衆力功をなすということわざがありますが、国際的に問われている安全で信頼できるAI社会のスピーディーな実現に向けて様々な企業、組織、業界、学会、研究機関、そして政府が協働し、足並みを揃えてオープンな活動で取り組んでいくことは、極めて効果的であり、現在そして未来に向けて必要不可欠です。
 
(2)適切なAIモデルを利用者が選択できる環境 
IBM watsonxは、IBM製の基盤モデルであるGranite, Sandstone, Slate 以外にもオープンソースモデルを提供する「マルチ基盤モデル」を実現しています[7] 。これによって利用者が企業の利用用途やコンプライアンス要件に応じて適切なAIモデルを選択して活用できるようになることも、オープンへの取り組みの特徴の一つです。 
 
(3)技術の惜しみないオープン化
IBM製の基盤モデルであるGranite に触れましたが、2024年5月7日、IBM はIBM製の基盤モデルであるGraniteのコード生成モデルのファミリー(パラメータ・サイズが30億、80億、200億、340 億の4つのモデル)をオープンソース化したことを発表しました[8] 。オープンソース化したGraniteのコード生成モデル・ファミリーは、生成、修正、説明可能性において、現在利用可能なオープンソースのコード生成モデルの中で、高い水準のパフォーマンスを発揮できることが示されていますが、できるだけ多くの開発者が簡単にコードを書くことができる未来を実現するために、そしてそこから得られるオープン・イノベーションの力を信じ、これらを惜しみなく公開しました。皆が使えるようになることと、そこから新しい価値が創造され、更なるAIの発展が望めるようになることもオープンの良さです。またこのGranite は発表当時から技術情報を論文として開示しています。閉鎖的にせず情報開示を行うことで、利用者は安心して適切なAIモデルを選択して使えるようになると先に述べましたが、たとえば何を学習したのか分からないモデルを使ったAIは、もしかしたら出力にリスクがあるかもしれず、安心して使うことができません。この透明性については、次のAIに対する「信頼」のところで触れることにします。
 

安心してビジネスに使えるAIとその社会のために、技術と法律でアプローチ

信頼できるAIの利点とは、一言で言い表すとするならば「安心してビジネスに使える」ことです。何を学習しているのか分からないAIモデルを使った場合、どんなに精度がよくても、もしかしたらAIの出力で著作権侵害だと訴えられてしまうかもしれません。学習データに第三者の著作物が不適切に含まれてしまう可能性もあるからです。またAIモデルに透明性があっても、導入したAIシステムに技術面や法律面で問題があり、企業として予期せぬ落とし穴に落ちてしまうかもしれません。AIの悪用やリスクによって、個人のプライバシーが安易に侵害される世の中になる可能性もあります。これでは、安心してビジネスにAIを使うことができません。安心してビジネスに使えるAI、そして安全にAIを使える社会作りに向けてIBMが取り組んでいることを3つ紹介します。
 
(1)安心して使える、信頼できるAIモデルを構築する
IBMは、IBM製の基盤モデルGraniteについて学習データセットの説明を公開し、透明性を担保した信頼できるAIモデルを市場に届けることに取り組んで  います。具体的には、2023年11月30日に更新された「Granite基盤モデル」の論文[9]で、学習に使用した個々のデータセットの情報を公開していますが、これは基盤モデルを提供する大手企業としては珍しいです。また、IBMの信頼と透明性の原則に沿ったデータガバナンスは、データのクリアランスと収集、前処理、トークン化のプロセスで実施されています。たとえばIBM製の基盤モデルに使われる学習データセットは常にデータのクリアランスが行われ、データセットの詳細な説明、データ所有者、使用目的、地理的位置、データ分類、ライセンス情報、使用制限、個人情報などの機密性、誰がデータにアクセスできるのか、データはどのように取得されるのか、といったことを評価しています。そして文書品質チェックやその他の基準を含む、ガバナンス、リスク、コンプライアンス基準に照らしてデータセットを評価することで、収集したデータの約2/3を取り除き(前処理以前のサイズで 6.48 TBだったデータが前処理後のサイズで 2.07 TB になるまで取り除かれる)、信頼性の高い学習データを使用していることが読み取れます(図3参照)。こういった情報開示によって、データの収集と編成段階でどのようなデータガバナンスで行われたのか、構築と学習の段階ではどのような学習データを使っていて、使用されたアルゴリズムは何か、検証と導入段階ではどのような評価フレームワークが用いられたのか、運用段階では利用用途に応じたリスク対策と利用ポリシーが考慮されているのかといったAIライフサイクルを通じた技術仕様に関する詳細を公開(見える化)し、同時に各段階でIBMの信頼と透明性の原則を適用することで、信頼できるAIの構築を実現しています。IBM製の基盤モデルは、技術と法律の側面から様々な手法を駆使し、信頼性の確保に対応して構築されています。AIリスクをゼロにすることはできませんが、多数ある基盤モデルの中から信頼できるものを選択することで、リスクを低減させることができます。
 
図3. IBM のキュレーションした事前学習データセットのガバナンス状況統計量(granite.13b 学習時点) (出典: [9])
 
(2)倫理的で信頼できるAI の使い方かどうかを審査する
IBMでは倫理審査チームが、生成AIにかかわらず従来のAIも含めてAIプロジェクトの審査を行い、AIの利用用途を中心に技術と法律の側面から、不利益を被る人がいないか、IBMの信頼と透明性の原則に沿っているか、法律や規制を遵守しているかについて確認しています。そしてもしAIのリスクがあれば、ひとつひとつ低減するための措置を行いビジネスで安心して使うことができるように取り組んでいます。これは明確な倫理ガイドラインと責任あるAIガバナンスに基づいて行われており、基盤モデルの開発だけでなくAIの利用用途においても、AIがなぜその判断をしたのか理解可能な形で利用者に説明できる(説明可能性)、公平な出力である(公平性)、セキュリティーが担保されている(堅牢性)、AIを利用していることやその目的が開示されている(透明性)、使用するデータが適切に収集・保管・利用され個人のプライバシーが尊重・保護されている(データの権利/プライバシーの尊重)、法規制に遵守している、といったことへの対応がなされています。
 
(3)テクノロジー企業として責任を持って社会に働きかけている
生成AIの人気の高まりによりAIの悪用やリスクが増えていますが、この問題に対処しつつ、AI がビジネスや社会にとって有益であることが保証されるようになるには、技術だけでなく、法規制を立案・適用・実施するよう各国政府に働きかけるといったといった法律の面からアプローチすることも必要です。たとえば、生成AIを使って簡単に作成できるようになったディープフェイクがもたらす問題について、「ディープフェイク対策として政策立案者が今すぐできること」というIBMの公開記事[10]の中で、IBM 最高プライバシー&トラスト責任者のクリスティーナ・モンゴメリーとIBM Policy Lab シニア・フェローのジョシュア・ニューは、「今必要なのは、技術的解決策と法的解決策の両方」であると考えており、ディープフェイクの害を軽減するための法的解決策として「政策立案者はAIが生成したコンテンツを含む同意のない親密な視聴覚コンテンツを公開した者や、そうすると脅迫した者に対して、厳しい刑事責任と民事責任を課すべき」と述べています。
 
IBMの会長兼最高経営責任者(CEO)であるアービンド・クリシュナが「信頼が私たちの活動のライセンスです」と述べたように、IBMはテクノロジー企業として責任を持ち、信頼できるAIの未来を築くために社会に働きかけています。生成AIがもたらす課題への解決に向けて、日本だけなく国際的にもまだ取り組んでいる最中ですが、時を同じくして続々と高性能のAIモデルが開発され、様々な使い方が出来るのも事実です。開発するAI、使うAIに対して、関わる全ての人が倫理的で明確な信念に基づき、技術面と法律面から信頼できるAI社会を築くために邁進していただくことを願っています。
 

おわりに

IBMのAIに対する4つの信念のうち、「オープン」と「信頼」に関して、これらの信念が生み出す利点と、それに対してIBMがどのように取り組んでいるのかについて述べてきました。IBMのAIに対する信念はAI倫理に深く結びついています。日本IBMのAI倫理チームは、日本市場におけるAIの信頼性を世界トップレベルに導き、日本企業の国際競争力を高めることを目的に、その未来の実現に向けて尽力しています。日本IBMのAI倫理チームが、日本企業の皆さまの活動の一助を担えれば幸いです。ぜひIBMと共に、オープンで信頼できるAIの仕組みの構築と普及に向けて前進していきましょう。
 
[参考文献]

[1] IBM : 自社のビジネス・ニーズに合わせた生成AIのカスタマイズを実現するwatsonx.ai, https://jp.newsroom.ibm.com/2023-10-03-blog-watsonx-tailored-generative-ai

[2] IBM : 生成AI活用はこれまでの基礎の上に成り立つ。 ビジネスのための信頼性重視で「AIファースト」時代をリード, Smarter Business, https://www.ibm.com/blogs/smarter-business/business/generative-ai-nikkeibp/

[3] Karan Sachdeva : The Future of AI: Open, Trusted, Targeted and Empowering, https://www.linkedin.com/pulse/future-ai-open-trusted-targeted-empowering-karan-sachdeva

[4] IBM:AI Alliance, https://thealliance.ai/

[5] NIST : U.S. ARTIFICIAL INTELLIGENCE SAFETY INSTITUTE, https://www.nist.gov/aisi

[6] 2024 AI Elections accord : A Tech Accord to Combat Deceptive Use of AI in 2024 Elections, https://www.aielectionsaccord.com/

[7]倉田 岳人:タスクごとに使い分けられる様々なIBM製基盤モデル, IBM Community Japan, https://community.ibm.com/community/user/japan/blogs/provision-ibm1/2023/11/12/vol99-0013-ai

[8] IBM : Open sourcing IBM’s Granite code models, https://research.ibm.com/blog/granite-code-models-open-source

[9] IBM Research : Granite Foundation Models, https://ibm.biz/techpaper-granite-13b (オリジナル), https://ibm.biz/techpaper-jp-granite-13b (和訳)

[10] クリスティーナ・モンゴメリー(Christina Montgomery, ジョシュア・ニュー(Joshua New):ディープフェイク対策として政策立案者が今すぐできること, https://jp.newsroom.ibm.com/2024-03-05-Blog-Heres-What-Policymakers-Can-Do-About-Deepfakes

IBMIBM ロゴは、米国やその他の国におけるInternational Business Machines Corporationの商標または登録商標です。他の製品名およびサービス名等は、それぞれIBMまたは各社の商標である場合があります。現時点でのIBMの商標リストについては、https://www.ibm.com/legal/copyright-trademarkをご覧ください。 

ProVision一覧はこちらから


#Highlights
#Highlights-home

0 comments
101 views

Permalink