金融を目指すすべての学生へ キャリタスファイナンス 金融ビジネスの価値・魅力が見つかる!就活生のためのサイト

金融ビジネスの価値・魅力が見つかる!就活生のためのサイト

  • articles 注目記事
  • Column 識者によるコラム
  • Guide 就活ノウハウ
  • Special 特集
  • Event イベント

会員登録

Login

注目記事2019.11.20

金融に求められる「説明可能なAI」とは

AI(人工知能)の発達はめざましく、もはや「人間が将棋でAIに負けた」というニュースでは私たちも驚かなくなりました。ところが「なぜAIに負けたか、理由がわからない」と聞くと、ちょっと不思議に思ってしまいます。実はここにAIの抱える問題があります。今回はそんなAIの問題点と金融の関係について考えてみます。

AIはブラックボックス

金融業界におけるAIの活用は着実に進んでいます。例えば株価の予想。株価は様々な事象の影響を受けて決まります。事業の収益、天候、経済指標、業界の競争環境、ライバル企業の動向…。AIはそれらの膨大な事象の中から法則や周期性を見つけて、30分後、1時間後に株がどのような動きを見せるか予想します。

融資の判断にAIを活用するケースも増えています。例えば中小企業が金融機関に融資を申し込むと、これまでは損益計算書や貸借対照表などの財務データを基準に、融資の判断が行われていました。それを人間が行うと、判断に時間がかかる、判断を誤る、といった欠点が考えられます。そこでAIの力を借りることで、審査の時間を短縮するとともに、間違いのない融資が実行できるわけです。

不正の防止にもAIは威力を発揮します。大手証券会社では一日に数十万件もの取引が行われており、そこに不正な取引が紛れ込んでいないか、常に厳格に監視されています。しかし、人間の力だけでは限界があるのも事実。そこでAIの力を借りて、不正な取引が行われていないかを自動的に判定する仕組みの導入が検討されています。

AIに対しては「人間の仕事が奪われる」といった否定的な見方がされていましたが、実際はこのように人間を助け、ビジネスをより正しい方向へと導くために活用されているのです。

しかし一方では、別の意味で「果たしてAIに任せておいていいのか」といった見方も強くなっています。それが“AIのブラックボックス化”です。

「AIのせいで融資できません」では済まされない

ブラックボックス化とはどういうことでしょうか。AIを使うと高度な分析が可能になりますが、あまりに高度すぎて、AIの下した判断の根拠が人間には理解不能になってしまうということです。

将棋でAIに負けてしまって、「なぜ負けたかわからない」と首をかしげるぐらいなら、まだ笑い話で済ませられます。しかし、笑い話で済ませられない分野はたくさんあります。

例えば医療です。AIが医師の診断を助け、「手術すべきだ」という判断を下したとしても、医師が「なぜ手術が必要か」を患者に説明できないようでは、責任ある医療とはいえないでしょう。

あるいは工場の生産ラインの場合、いったんストップすると膨大な額の損害が発生します。いくらAIが「不具合が発生する可能性があるのでラインをストップせよ」という判断を下したところで、本当に不具合が発生する恐れがあるのか、人が説明できないようでは損害に対する責任の持ちようがありません。

就活生の皆さんが気になる話もあります。採用の現場においてもAIを導入することで、より正しい採用判断が下せるのでは、という話です。しかし、仮にAIが採用の合否を決定するようになった場合、「なぜ彼(彼女)を採用し、別の彼(彼女)を不採用にしたのか」を上司に説明できないということが起きないとも限りません。これでは責任ある採用活動はできません。

当然、同じことは金融機関の場合にも考えられるわけです。株価についてAIが予想を下したとして、その理由を担当者が説明できなければ、いくら薦められたところでその銘柄を顧客が受け入れることはないでしょう。融資判断についても、融資不可という結論の場合、「AIがダメだと申しております」という説明では、取引先は納得しません。

こうした問題の原因は、要するに「AIの判断根拠を人が説明できない」、つまり“ブラックボックス化”にあります。そこで注目されているのが「説明できるAI」です。

説明責任を果たすために

説明可能なAIはXAIと呼ばれます(Explainable AI=XAI)。従来のAIがブラックボックス型だったのに対し、XAIは「ホワイトボックス」と呼ばれることもあります。

XAIは「なぜその判断を下したのか」という根拠を説明してくれます。そのため融資不可の場合でも、担当者がきちんと納得のいく説明をすることができます。同様に株価の予想でも、「なぜこの株が上がると予想したのか」という説明責任を果たすことができます。

政府も「人間中心のAI社会原則」に「説明責任の確保」を盛り込んでいるように、これからは「AIに任せればOK」という風潮にはならず、必ずそこには説明責任が求められるようになるでしょう。金融の最前線においてXAIの活用は進んでいくと考えられます。

まとめ

金融というのは非常に厳格なルールが適用される世界ですから、コンピュータのなじみやすい領域といえます。一方で“信頼”や“信用”といった人間くさい要素に満ちた世界でもあります。AIのような最先端のテクノロジーが活躍すると同時に、人間が人間に説明するというアナログな“つながり”が消えることはないでしょう。そう考えると、説明責任に裏付けられたXAIへの期待が高まるのも当然かもしれません。

Articles
【編集部おすすめ】
金融業界の注目企業ランキング

Articles
【編集部おすすめ】
金融系職種の注目ランキング

Articles
【編集部おすすめ】
金融業界のインターンシップ検索

Articles
【編集部おすすめ】
金融業界の注目企業

Articles
【編集部おすすめ】
エントリ―受付中の金融企業

Articles
【編集部おすすめ】
金融系の職種を募集中の企業