可解释税务算法:更加安全可信可靠

2022年11月09日 版次:08        作者:张晨希

在今年8月召开的2022世界机器人大会主论坛上,中国科学院院士、清华大学人工智能研究院院长张钹在发言中提到,纯粹靠数据学习生成的人工智能不可解释,处于不可控状态,为了避免危险,需要发展安全、可靠、可信的智能算法。作为一名一直关注人工智能发展的税务人,这一新颖的提法立刻吸引了我。为深入了解该问题,我着手研读了由杨强等人合著的《可解释人工智能导论》一书。

可解释性是指人能够理解模型在其决策过程中所做出的选择,即怎么决策,为什么决策和决策了什么,这项技术已被认为是人工智能能否被广泛应用的关键因素。在《可解释人工智能导论》一书中,作者围绕“让人工智能结果具备可解释性”这一议题,从阐释可解释人工智能的基础知识入手,介绍了前沿的可解释智能算法,并通过详细描述可解释智能算法在金融、政府、社交等领域中不同场景的应用,例如反洗钱风险识别、司法救助智能客服、银行贷款信用评价等,拓宽读者视野。

阅读本书,启发了我对当前人工智能如何更好服务智慧税务建设的思考。近年来,人工智能快速发展,社会各个领域对人工智能的依赖性日益加深。在税务领域,伴随“智慧税务”建设加快推进,人工智能在发票电子化改革、纳税服务、日常征管、风险管理和行政管理等多个领域的作用越来越重要。不可否认的是,完全基于数据学习的人工智能因缺乏解释性导致其在税务领域的应用推广遇到阻碍,例如基于机器学习的发票虚开人工智能算法模型在模拟中可以得到很高的识别率,但是应用到实际工作中因无法给出虚开认定的具体原因,导致税务人员难以了解算法背后的业务逻辑,影响其实际落地成效。可解释人工智能算法作为近年来的前沿技术,如能在智慧税务建设中充分运用、与现有系统结合,可以在纳税咨询、风险识别、内控督导、以税资政等领域大有作为,为智慧税务建设提供更具安全性、平衡性和时效性的人工智能技术。

面向税务端,打造可信可交互的可解释税务算法执法体系。利用智能算法从归集的海量税收大数据中精准识别税收风险疑点并推送至纳税人端、税务端进行处理,已成为当下各地税务部门提高精准执法质效的常用方法。可解释智能算法通过将税收数据、业务逻辑、法律依据、智能算法融合,在识别出风险疑点的同时,能够解释风险疑点产生的业务逻辑及法律依据,便于税务人员在执法过程中正确理解适用法律,进一步带动执法标准的明确统一。同时在处理过程中,税务人员可以通过完善业务逻辑与算法进行交互,让数据、业务、算法不断迭代完善,逐步形成可信可交互的可解释税务算法执法体系。

面向纳税人,构建公平透明的可解释税务算法服务体系。书中详细介绍了可解释税务算法在智能诊疗服务、12348司法热线中的应用实例,这对构建公开透明的税务智能咨询服务算法体系提供了借鉴。可解释算法可通过文本、视频、语音等多种方式与使用者进行交互,其可解释性让咨询者能够更好地理解问题,从而更加信任智能税务客服。

面向监管方,打造依法合规的可解释税务算法监督体系。书中介绍了可解释性算法在金融监管领域的应用实例,采用可解释人工智能算法可以协助监管者更好地理解算法模型以防范风险。智慧税务建设过程中,应同步建设人工智能算法的可解释税务算法监督体系,包括算法可追溯性和算法内控,以便对人工智能应用进行必要的监测和约束,做到算法使用过程可控、算法识别结果可评、算法误用责任可追。例如,数据收集和模型学习过程中是否符合隐私保护及数据安全条例,算法结果是否有准确无误的解释及认证,算法的不正当使用导致系统性风险等应与系统建设同步考虑、同步防范,进一步提升智能算法服务质量和效率,筑牢系统安全防线,保障金税四期建设行稳致远。

(作者单位:国家税务总局杭州市税务局)