人机信任校准(Human-AI Trust Calibration)是指在人工智能系统与人类用户交互过程中,通过技术手段使双方对系统能力边界形成准确认知的动态调节机制。其核心在于让AI系统既能获得用户合理信任以发挥辅助价值,又能避免因过度信任导致依赖风险或信任不足造成系统闲置。这种平衡状态既需要系统具备透明展示自身置信度的能力,也需要用户建立对AI局限性的客观认知。
在产品实践中,信任校准常通过不确定性量化、决策解释、性能可视化等技术实现。例如自动驾驶系统用彩色光带显示识别置信度,医疗AI标注诊断建议的准确率范围。当前研究热点包括基于眼动追踪的实时信任度监测、动态难度调节的渐进式交互设计等,这些技术能有效提升AI产品的安全性和用户体验。微软研究院2021年发表的《The Role of Explanation in Human-AI Trust Calibration》对该领域有系统论述。