“FINTECH - Reshaping the Future of Finance Services”

72 73 筆者以信用卡公司審核申請為例。究竟該不該批準 A 君的信用卡申請? 銀行通過數據,包括個人資料,如年齡、學歷、入息、有沒有破產紀錄 等等,透過演算法,決定不予批准。但為什麼拒絕批出?所持的理由是 什麼?,AI 或 ML 演算法的模型,要求能夠給出解釋性理由;而顧客也 有權知道遭拒絕的因由。這是歐盟《一般資料保護條例》制定有關「權 利解釋權」的立法精神;也是在商業應用時,企業愈來愈需要重視客戶 知情權的大趨勢。 看深一層,無論AI 或ML演算法,其模型設計的目的,一、是作出預測, 或二、發現資料變數之間的潛在關聯特徵 。隨著 AI 的技術發展與廣泛 應用,演算法也愈來愈複雜,有如一個黑箱,很多演算法的預測精確能 力提高,卻缺乏解釋性,令人對此龐然複雜的演算法,如墮入五里迷霧 之中,這種發展方向的可持續性確實並不理想。因此,演算法能夠對決 策結果作出解釋,幫助人類對相關事件 / 商業行為 / 消費習慣⋯⋯等的 演算法結果作出分析,是當前 AI 一個重要的前沿發展方向 簡單來說,解釋性是透過分析所輸入相關變量與預測結果之間的關聯, 對於所得出的預測結果,解釋究竟是哪些變量所起的作用。也可以這樣 說,演算法給出的預測結果,是根據什麼而作出。 購物籃子的分析啟示 以購物籃分析 (Market Basket Analysis) 為例,電子商務巨擘亞瑪遜的 銷售推薦系統值得一提,例如,當你網購一把刮鬍刀時,系統同時向你 推薦 B 商品;而系統所推薦的商品,對準潛在客戶的精確性很高,而且 為相應推薦提供解釋──因為系統清楚告訴你,購買了這刮鬍刀的其他 顧客,同時也買了 B 商品,兩者是配搭一起購買的。有研究發現,這種 帶解釋性的推薦,有效地提高顧客的購買意欲。對銷售商來說,無疑有 助提高營銷額。 在機器學習中,有一種稱為「監督式學習」(Supervised learning)方 法。簡單來說,是電腦程式通過一些訓練資料(如一些歷史數據)中, 學到或建立一個模型,據此模型推測新的實例作出相應的預測。譬如上 文提到的,銀行發不發給信用卡予這個人?保險公司是否接受某人的投 保?這都屬於「監督式學習」的範疇。 在「監督式學習」中,最簡單的模型是決策樹模型 (Decision Tree Model)。該模型模仿人們日常所做決策的思路,按照一條條規則進行相 應預測。用生活的例子來說明,上文提到的信用卡申請,銀行根據一些 數據,包括個人資料,如單身、沒擁有物業、居住在城市的低收入地區、 曾有借貸違約紀錄等,於是模型作出推斷──「拒絕申請」。決策樹模 型具有很好的解釋性,但在模型精確度上面表現欠佳。最近興起的神經 網路深度學習 (Deep Learning),集成學習(Ensemble Learning) 可 以顯著的提高決策樹模型的準確性,但由於模型過於複雜,很難具有解 釋性。這樣的模型往往只能給出預測結果,不能給出預測理由。雖然模 型有很高的預測能力,但如果演算法的結果缺乏解釋性,始終沒有決策 說服力。對公司來說,一個 AI 演算法模型,最好能夠具高解釋性和高 推測性。因此,目前 AI 或 ML 演算法,如何在不犧牲高推測性的前提 下提高解釋性,是專家正在研究攻關的重點領域。 人工智能機遇與挑戰

RkJQdWJsaXNoZXIy MzUzMDg=