怡心湖

人工智能安全可信的可验证问题之探讨

人工智能要达到安全可信的要求就需要考虑可验证问题。所谓可验证问题即第三方保障和背书问题。第三方需要评估智能模型安全可信性的衡量指标和评测标准,尤其是对边界性和可回溯性的验证和测试。相应地,设计者也需要一个能够验证智能模型安全可信性的平台,对模型的改进提供反馈指导。

此文由 怡心湖 编辑,若您觉得有益,欢迎分享转发!:首页 > 常识论 » 人工智能安全可信的可验证问题之探讨

()
分享到:

相关推荐