マーカス・シュルラー
ミシェル・シスト, PhD
ウォーテク・ウォジャチェク, PhD
フランツ・モール
パトリック・J・ワイェック, CFA
ユルゲン・ジャンセン
近年、人工知能は急速に進歩しており、投資業界全体でリサーチの効率やレポーティング、リスク管理等の大幅な改善に対する期待が高まっています。しかし、新たな学術研究や産業界の研究は、急速に進歩するこの技術について、より冷静な見方を示しています。
最近の調査結果では、信頼性のギャップが依然として存在することや人間の判断と監督が引き続き必要であること、短期的な価値創造に限界があることが指摘されており、AI の影響が当初の熱狂が示唆していたよりも限定的である可能性が示唆されています。投資家にとって、メッセージは明確です。つまり、AI は有力な機会であり続けますが、初期段階の熱狂によってではなく、規律を持ち証拠に基づいた導入を通じて、最もよく活用されるということです。
この投稿は、投資マネジメントの専門家向けのAIの最新動向に関する四半期ごとの分析の第3回目です。今回の記事は、隔月刊行のニュースレター「Augmented Intelligence in Investment Management」に寄稿した投資の専門家や学者、規制当局者の分析を基に、AIの可能性と落とし穴やリスク管理手法を探った以前の記事を基に作成されています。今回は、その可能性をより実践的に理解することに焦点を当てています。
最近の論文を詳しく見てみると、業界の楽観的な見通しを抑える可能性のある3つの共通するテーマが明らかになります。
1.信頼性の問題
AIの目覚ましい進歩にもかかわらず、高度な意思決定を必要とする金融環境下でのAI導入では、その信頼性に大きな課題があります。NewsGuard (2025) による最近の分析では、主要なAIチャットボットからの虚偽または誤解を招く発言が急増しており、エラー率は約10% から 60%近くへと上昇していると報告されています。
こうした「ハルシネーション」の拡大は、単なる統計的な異常ではありません。OpenAI の内部調査 (2025 年) では、ハルシネーションはモデルトレーニングの構造的な特徴であるケースが多いことが判明しました。つまり、現在のベンチマークでは「不確実性を織り込んだ回答」よりも自信のある回答を高く評価し、その結果もっともらしいが正しくない発言が推奨されて生成されやすくなっているのです。
懸念は倫理的な整合性の問題にも及びます。Biancottiら(2025)は、暗号通貨取引所でヘッジファンドでもあったFTXのガバナンス崩壊にヒントを得た金融の意思決定シミュレーションにおいて、いくつかの主要モデルが個人的な利益と規制の遵守というトレードオフに直面した際、倫理的または法的に疑問のある行動を推奨する確率が高いことを示しています。正確さや透明性、説明責任が仕事で重要視される投資専門家にとって、規制された多くの金融ワークフローでAIが自律的に動作するにはまだ十分に信頼できないことを、これらの研究は総合的に強調しています。
2.人間の判断価値というプレミアム
研究の2つ目のテーマは、AIは人間の専門知識に取って代わるのではなく、むしろそれを補完し、人間による質の高い検証の重要性を高める可能性があるということです。
MITの神経科学研究 (Kosmynaら、2025 年) では、LLM と対話する参加者は、記憶の想起や創造性、実行推論に関連する領域で脳の活動が低下することがわかりました。AI は初期の分析を加速させるかもしれませんが、こうしたシステムに過度に依存すると、堅実な投資判断の基盤となる認知能力が鈍ってしまう可能性があります。
また、AI を導入しても、顧客と対面する場面で人間の存在の必要性が減るわけではありません。Yangら(2025)は、人間のアドバイザーが同席していれば、人間が分析的価値を加えない場合であっても、顧客はAIが生成した投資アドバイスを非常に信頼できると認識していることを示しました。同様に、Leら (2025) は、人間とAIのコラボレーションが隠されるのではなく明示的に行われると、顧客満足度が向上することを発見しました。
自動化も制限されたままです。大規模タスクのベンチマークにおいて、Xuら (2025) は、複雑な複数ステップのタスクを高度な AI エージェントが自律的に完了する割合が、わずか約30%であることを確認しました。Tomlinson (2025) による別の研究では、200,000件を超えるCopilotインタラクションを分析し、およそ40%のケースでモデルアクションがユーザーの意図から大きく逸脱していることが示されています。
これらを総合すると、投資会社はAIを人間に代わるものではなく人間を補助するツールと見なし、機械生成されたアウトプットの品質を継続的にファクトチェックする必要があることが分かります。このような継続的かつ構造化された監督によって、AIで機械生成された効率的な付加価値を低下させ、人間の確認に起因する業務の複雑化とコスト増加を引き起こします。特に、AIの出力結果は誤っている時でさえ、妥当に見えることが多いからです。研究では、認知能力の低下を防ぐための組織ポリシーの重要性も強調されています。
3.構造的および経済的制約
最後に、マクロ経済的な制約も期待を抑制します。Acemoglu (2024) は、たとえ楽観的な仮定の下でも、今後10年間の AI による総体的な生産性の向上は、限定的にとどまる可能性が高いと指摘しています。初期の分析の多くは「学習しやすい」タスクから得られていますが、より困難で文脈に依存するタスクでは、自動化の範囲がより限られていることが示されています。
また、規制はさらなる摩擦をもたらします。Foucault etら (2025) と Prenio (2025) は、金融仲介における AI の導入により、新たな集中リスクやインフラへの依存、監督上の課題が生じ、規制当局は慎重に行動する必要があると指摘しています。これによりコンプライアンスのコストが増加し、業界全体での導入が遅れる可能性があります。これらの構造的要因は、AI の影響が一般に想定されているよりも漸進的で、破壊的でない可能性があることを示唆しています。
AIの進歩の監視
AI の可能性は現実的ですが、その影響は業界が AI をどれだけ思慮深く責任を持って活用するかにかかっています。AIは業界の将来において中心的な役割を果たすことになるでしょう。しかし、当初の想定よりもその軌跡は線形になることはなく、人間による効果的な管理・判断に依存する、より複雑なものとなる可能性が高いのです。
参考文献
Acemoglu, D. The Simple Macroeconomics of AI, National Bureau of Economic Research, Working Paper 32487, May 2024
Biancotti et al., Chat Bankman-Fried: an Exploration of LLM Alignment in Finance, arXiv, 2024
Foucault, T, L Gambacorta, W Jiang and X Vives (2025), Barcelona 7: Artificial Intelligence in Finance, CEPR Press, Paris & London.
Kosmyna, et al. Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task, MIT Media Lab, June 2025
Le et al., The Future of Work: Understanding the Effectiveness of Collaboration Between Human and Digital Employees in Service, Journal of Serivce Research, vol. 28(I) 186-205, 2025
NewsGuard, Chatbots Spread Falsehoods 35% of the Time, September 2025
Prenio, J., Starting with the basics: a stocktake of gen AI applications in supervision, BIS, June 2025
Tomlinson, et al., Working with AI: Measuring the Applicability of Generative AI to Occupations, Microsoft Research, 2025
Xu et al, TheAgentCompany: Benchmarking LLM Agents on Consequential Real World Tasks, ArXiv, December 2024
Yang, et al., My Advisor, Her AI and Me: Evidence from a Field Experiment on Human-AI Collaboration and Investment Decisions, ArXiv, June 2025
この投稿が気に入られたらEnterprising Investorのご購読をお願い致します。
執筆者
Markus Schuller, Michelle Sisto, PhD, Wojtek Wojaczek, PhD, Franz Mohr, Patrick J. Wierckx, CFA and Jurgen Janssens
(翻訳者:安部 智宏, CFA)
英文オリジナル記事はこちら
AI in Investment Management: From Exuberance to Realism - CFA Institute Enterprising Investor
注) 当記事はCFA協会(CFA Institute)のブログ記事を日本CFA協会が翻訳したものです。日本語版および英語版で内容に相違が生じている場合には、英語版の内容が優先します。記事内容は執筆者の個人的見解であり、投資助言を意図するものではありません。
また、必ずしもCFA協会または執筆者の雇用者の見方を反映しているわけではありません。