在能源、医疗保健和金融等高风险、高价值的行业中,在没有对机器的推理进行解释性理解的情况下,不能相信机器的决策,因为这样的风险实在太高。机器学习是诸多 AI 系统的组成元件,因此,我们必须精确了解机器学习到的内容。机器学习是一种很好的方法,能够处理大量资料,并告诉我们资料中“有什么”。但是 AI 系统要成为人类决策者的可靠顾问,它仍需要具备解释“缘由”的能力。
AI 的应用部署普及得十分迅速,在动辄价值数百万,甚至关系到人类健康和安全的问题上,也有机器进行决策。在能源、医疗保健和金融等高风险、高价值的受监管产业中,要相信的机器学习产生的决策,而又没有对决策推理过程的理解,这样的风险是在太高。企业对可解释 AI (XAI) 的需求与日俱增。
对许多人而言,机器学习、深度学习或神经网络等传统 AI 技术就是 AI 的定义。但是这些传统 AI 方法的阿克琉斯之踵就是,它们都是“黑盒”的,也就是说,无法解释它们为何会得出某个答案。
相反,Beyond Limits 的认知 AI 解决方案始终都是“可解释的”。我们的认知引擎能提供明确的审计跟踪,解释其建议背后的类人推理,展示证据、风险、确定性和模糊性。这些审计跟踪可以被人类理解,也可以被机器解读。可解释性是建立信任人工智能的关键。
可解释 AI 无法经由事后添加或插件形式添加至现有系统上,它必须是原始设计的一部分。Beyond Limits 系统涵盖了完整的可解释性,提供高级别提醒,以及可深入探讨的推理轨迹(详尽证据、概率和风险)。可解释 AI 解开了技术的神秘面纱,也迈出了人工智能与人类以信任互惠关系开展协作的第一步。
This website uses cookies. By continuing to use this website or by clicking “Accept All Cookies,” you are giving consent to cookies being used. For more information on cookies and how you can disable them visit our Cookie Policy.