人工智能的发展给人们的生活带来了不少诱人的好处,例如自动工厂、自动驾驶等。这种智能化的发展所用到的技术往往是深度学习技术。然而,深度学习技术的背后却有着一个严重的问题,这就是模型的可解释性问题。模型在人类判断中难以予以直观的解释,这是目前人工智能应用面前面临的一个严重问题。
可解释性问题的困扰主要源于人工智能的黑盒子本质。如果机器学习算法 包括深度学习 研究变得越来越普遍,那么这种算法所生成的模型的可解释性问题就将愈发厉害。目前,人工智能的推理方法并不能发现一些由人而不是由软件控制的隐藏关系。
在解释问题方面,黑盒模型(Black Box)的模型难以满足人们的需求。一个模型的目标是在给定输入和正确输出的情况下,生成一个对于此问题的合理解释。如果所生成的模型不能给出合理的解释,那么人们就很难对模型的准确性进行评估。
尽管用于机器学习的深度学习网络对图像和语音等数据的识别能力有很大的提高,但此类网络所产生的结果却无法解释,包括如何把物体分类为某一类、如何记录音频的特征等等问题。由于深度学习算法往往是由大量的传递和反传神经网络组成,其结果往往不容易被解释。
黑箱的深度学习算法应该具备可解释性,符合人类的期望和要求。为了找出真正可靠的解释和结果预测,必须有针对性的学习和研究,构建解释性技术和算法。
解释性深度学习需要遵循以下原则:
1、神经网络结构应该简单明了,建立透明的数据模型;
2、考虑优化模型参数和提高模型的准确性;
3、提供一些基于数据驱动的约束,以保证解释的给出正确性;
4、构建应适合于人类或其他相关群体的未知领域或常识性问题。
以上四个原则可以确保得出易于理解和可接受的解释结果。 对于研究人员来说,许多新的技术开发和领域探索都是需要团队合作的。在解释性深度学习方面,例如,联邦学习算法、迁移学习算法和增量学习算法等都是有效的可解释性技术。
解释性深度学习具有重要的实际意义。它不仅可以为人们提供更好的自由选择和知识分享基础,并且可以促进各种科学领域的发展。显然,人工智能和深度学习技术的人性化应用也必然成为未来研究和实践的重要方向。