インサイト

生成AIは金融業界をどのように変えていくのか

How is GenAI transforming the financial landscape

人工知能(AI)は進化を続け、その存在感を高めています。AIが資産運用会社にどのように新しい可能性をもたらすのかを検証します。

December 2024

人工知能(AI)は近年、実用化が進んでいます。AIによる署名検証、自然言語処理、教師なし学習、予測分析は身近なものとなりました。実際には、最初のチャットボットELIZAがマサチューセッツ工科大学(MIT)で作製されたのは、1960年代にまで遡ります。

インターネット、携帯電話、クラウドが発展したように、AIは資産運用会社が生き残るための次世代ツールの一つです。もはやAIを使うべきかどうかではなく、AIをいつ、どのように使うべきかが論点となっています。AIの可能性は非常に大きく、主要な市場プレーヤーと差別化できる可能性があり、今後10年以内に、その可能性が具現化され、実際に運用インフラの一部として必須のものになると考えられています。

本稿では、大規模言語モデルに関する洞察、幾つかの課題とリスクへの取り組み、そして重要な点として最新技術の生成AI活用の可能性について概説します。

ここ数年、AIの利用に関する議論が高まってきている背景には、生成AIの登場が挙げられます。生成AIの登場でテキスト、音声、動画、画像など異なる形式の情報を含むマルチモーダル・フォーマットで新しいコンテンツの作成が可能となっています。

ChatGPTは既に一般的な用語となりました。GPTは 「generative pre-trained transformer」の略で、トランスフォーマー(変換)・アーキテクチャを提供するソフトウエアですが、トランスフォーマー・アーキテクチャは、情報を単語として読み取るのではなく、単語を数値に変換することを可能にします。これらの数値はトークン(最小単位の文字の並び)を表し、ヴェクター(相互に独立した複数の値の組み合わせ)として非常に高速な処理が実現可能です。

これらの言語モデル(GPTまたは生成AIとも呼ばれる)は文章を読み取り、単語間の相関を作成し、それを使ってあたかも本当に質問に答えているかのように回答します。これは、自然言語が新しいプログラミング言語になったことを意味します。

また、人間が実際に機械に話しかけることが可能となるのは大変意義深く、人間の言葉を入力し始めると、機械はその要求を理解し、応答します。今後は個人としてではなく、資産運用会社として、それを活用することも視野にはいってくると考えられています。

一方で、多くの大規模言語モデルが存在し、しかもそれらはマルチモーダル・フォーマットであるため広範囲で混乱が生じることも予想されます。どのモデルを使うべきか、基礎となるアーキテクチャは何を使うべきか、またどんな活用事例があるかもここで考察します。
 

プロンプト(入力する命令や指示)は新しいプログラミング言語になる

最初に理解すべきことは、質問方法で、それが回答のクオリティーを決定します。これはプログラミング方法により、アウトプットのクオリティーが決まるのと同じです。

次のステップは、独自のデータを用いてこれらの言語モデルをどのように向上すべきか検討することです。その場合、独自の情報源を付与するRAG(検索拡張生成)に拡張する必要があります。この拡張によって、貴社の様々なデータセットに基づいたナレッジ(知見)を作成することができます。言語モデルは、一般的なChatGPTにはない、貴社のデータに基づいた回答を提供します。これにより、貴社の知的財産(IP)を保護しながら、AIの能力を活用することができるようになります。

最後の検討事項は、きめ細やかなパラメーターの微調整とトレーニングをどのように実施するのかです。大規模言語モデルに何をさせたいか分かっていれば、それを正確に実行するように正しいトレーニングすることができます。これらをもって真の知的財産の創出が完了します。これらに関係する専門知識を持つ個人や組織は、同業他社よりも明らかに優位に立つことになります。「AIが自分の仕事を奪うのか」という疑問は頻繁に耳にします。その可能性はないと思いますが、AIの上手な使い方を知っている人があなたの仕事を奪う可能性が存在することは事実です。

現在の大規模言語モデルの精度は60~70%程度です。しかし、モデルのトレーニングを改善し、パラメーターの微調整を通じて回答の精度を高められれば、AIの真の価値を活用することが可能です。更にその先を展望すれば、小規模言語モデルの進化が予想されます。ファンドの会計業務、カストディ業務、取引照合、あるいは独自のデータに基づく特定の分析業務など、特定分野について訓練された言語モデルを設計することが可能です。これによって、現在、社内において様々な役割を果たすために、それぞれの特定分野に専門家を抱えているのと同じ効果を発揮できることになります。
 

AIがもたらすリスク

リスクを考慮せずにAIを語ることはできません。独自の言語モデルを構築しようとしているのであれば、以下の点に考慮すべきです。

  • 説明可能性
    一般的な機械学習モデルでは、実装されたモデルによってAIが回答を作成します。一方で、生成AIは、トレーニングを重ねることで進化します。子供が毎日学校に通うようなものだと考えてください。今日、質問に対し、ある答えを得たとします。半年後に同じ質問をすると、それまでの半年間の学習に基づいて、全く違う答えが返ってくるでしょう。
  • 重大なサイバーリスク
    AIは繊細な生態系のようなものです。データの一つひとつがつながり合い、共に稼働することによりバランスの取れたシステムが作り上げられています。サイバー攻撃によってデータの一部が破壊されるなど、有害なたった一つの変化により、このバランスが完全に崩れてしまう可能性があります。すべてが相互につながっているため、問題の一部分だけを解決しても十分ではないかもしれません。そのため、言語モデルを訓練するデータセットに油断なく気を配ることが重要になります。
  • ハルシネーションの管理
    AIにおけるハルシネーション(もっともらしい誤情報を生成すること)は、大規模な言語モデルが、存在しない、あるいは人間には検出できないパターンやオブジェクトを認識するときに起こります。これによって、誤った、あるいは誤解を招く、さらには無意味な回答が行われます。組織では、AIテクノロジーにより、洗練されたインテリジェントな回答を提供するプロンプトが可能である状態を確保しなければなりません。
  • ジェイルブレイク
    言語モデル内でのジェイルブレイク(機器に施されている制限を非正規な方法で解除し、自由にソフトウエアを導入・実行できるようにすること)は、ハッカーがチャットボットに人間が構築した倫理的な障壁を回避するよう指示して、通常は許されない応答を生成するときに発生します。
  • AIにおけるバイアスのリスク
    回答はバイアスがかかったデータから学習される可能性があるため、バイアスがかかっていないデータで言語モデルを訓練することが重要です。そのためには、組織は必ず倫理意識が高いAIプロバイダーと協働する必要があります。

ステート・ストリートでは、生成AIがもたらす機会を4つの主要テーマにまとめました。

  1. ドキュメント・インテリジェンス
    非構造化ドキュメントからのデータ抽出の自動化および合理化。エラーや不備のリスクを軽減して、トレーサビリティ(過程や来歴の追跡可能性)を向上させます。
  2. データ品質管理
    データ検証の強化および自動化。誤ったアラートを削減して、真の例外事象に対処する効率性を高めます。
  3. お客様のライフサイクル/オンボーディング(初期研修)
    セルフサービス型のチャットボット。お客様のニーズを予測し、製品のオプション情報を教育して、AIがデータ変換するアカウント・インテリジェンスによるオンボーディングを自動化して合理化します。
  4. コパイロット/生産性
    生成AIのコパイロット(さまざまなツールで操作者をAIで支援する機能)の活用。

内部および外部からの照会に対して迅速な対応をし、エクスペリエンスをパーソナライズします。

ステート・ストリートの400人を超えるAIの専門チームは、未来の金融インフラを設計し、情報価値をを極限まで高め、すべてのデータの基盤となるプラットフォームをお客様に提供することに注力しています。
 

Share

最新インサイト

最新インサイトの送付をご希望の方は、以下の記入をお願いします。