経済や社会の注目テーマを「ポジティブ」と「ネガティブ」の両面から分析し、その本質に迫る本コーナー。講師の解説を、投資信託の商品理解や顧客への説明に役立ててほしい。今回のテーマは「生成AIとリテール金融」だ。
(『ファンドマーケティング』2023年9月発行号より転載)
視点1
関数やコードも生成可能な大規模言語モデル
2022年11月にテキスト生成AI(人工知能)の「ChatGPT」が登場し、世界中で大きく注目されました。生成AIは人の指示を基に、文章や画像、音声など様々なコンテンツを新たに生成することが可能で、企業活動や社会に大きな変化をもたらすと言われています。
ChatGPTが話題になる以前から、インターネットの文章やニュース記事などからテキストデータを学習し、言語処理タスクを解くことができる「大規模言語モデル」の開発が活発に行われてきました。膨大なデータのパターンや関連性を学習させることで、ある単語やフレーズの次にどのような単語・フレーズが続くのかを予測し、人間が使用する自然言語の関係性をモデル化したものです。
大規模言語モデルを用いると、翻訳や文章生成、要約、添削・校正のほか、表計算ソフトの関数やプログラムのコードなども生成できます。これにより、従来のシステムでは難しかった非定型な業務も実行させることができるようになります。一方、後述するように、生成AIは誤った回答をすることがあるので、正確性が求められる業務は人間が生成AIを補助的に使いながら取り組むことが求められるでしょう(図表1)。
視点2
ハルシネーション、著作権、サイバー攻撃などのリスク
米メタが「Llama 2」、米グーグルが「PaLM2」を発表し、米マイクロソフトはGPTを提供する米オープンAIと連携を強めるなど大規模言語モデルの開発競争が加速しています。日本国内においても、ソフトバンクやNTT、NEC、サイバーエージェントなどが独自の大規模言語モデルの開発を公表しており、日本語や日本文化に強いモデルの開発が期待されます。さらに今後は、特定の業界・業種に特化した対話型AIなど、サービスが多様化していくでしょう。
生成AIの利用が定型業務の効率化やクリエイティブなコンテンツ生成に繋がる一方、様々なリスクが懸念されます。まず、生成AIは統計的に確率が高い回答を割り当てる仕組みであるため、アウトプットが誤っている可能性があります。特に、事実と異なる情報をもっともらしく出力する「ハルシネーション(幻覚)」という現象が起こりうるので、回答をそのまま鵜呑みにするのは危険です。
次に、著作権違反。生成の過程が一定程度ブラックボックス化されていることから、「著作権違反にあたるようなデータが学習されている」「生成物が意図せず盗作になってしまう」恐れがあります。ほかにも、プライバシーの観点で、入力した個人情報や企業の機密情報を生成AIの再学習に使われるリスクや、サイバー攻撃リスクなどが挙げられます。
また足元では、グローバルで生成AIの法規制についての議論が活発になっています。金融領域においても、規制が策定される可能性があるので、動向を注視しておきたいところです。これらのリスクは、他のITサービスと同じように、今後第三者認証が出てくるかもしれませんが、利用する生成AIがきちんとしたものかどうかを確認する必要があるでしょう。
こちらの記事は会員登録で続きをご覧いただけます
『フィナンシャル・マーケティングWEB』会員なら
全国の トップセールスのノウハウ記事 が全文読める
『ファンドマーケティング』の最新号の記事が スマホで発売日前に読める
『保険マーケティング』の記事が スマホで読める
新着記事や注目記事が分かる 会員限定メルマガ が届く