“信息资源管理一级学科·一流学者100分钟系列讲坛”第21期于2024年12月28日在信息学院会议室(立信725)举办。本期嘉宾邀请到了武汉大学本科生院院长兼教师教学发展中心主任、人机交互与用户行为研究中心主任吴丹教授,以“基于可解释模型的人智交互用户信任研究”为主题,为校内师生带来了一场精彩的学术盛宴。讲坛由信息学院副院长孙晓宁副教授主持。
吴丹教授在人智交互、用户信息行为等领域有着深厚的研究背景和丰富的研究经验,特别是在用户信任与可解释模型方面有着独到的见解。本期报告主要从人智交互视角下的可解释模型、用户信任可解释模型、用户可信感知影响因素、用户可信使用必要条件四个维度展开。
吴教授首先介绍了可解释性研究的背景,强调了人工智能领域中高可解释性、强泛化能力的重要性。随后详细阐述了人工智能可解释性与用户信任之间的关系,指出不透明的决策会降低用户对系统的信任,影响系统效果。在此基础上,她还介绍了人智交互可解释性的输出类型,如数值解释、文本解释、视觉解释和混合解释,并讨论了这些输出类型的优缺点。此外,吴教授还讨论了准确度、忠实度、满意度、信任、鲁棒性、复杂度、可理解性和使用意愿等评估指标,为听众分享了一个全面的理论框架。
在学术信息推荐情境中,吴教授展示了原型系统在有无解释内容的情况下用户信任的差异,并通过对实验结果的分析,提取了影响用户信任的关键范畴,包括系统认知、使用意愿和使用行为等,研究表明,提供解释内容能够显著提升用户的信任感知。在个性化广告推荐情境中,吴教授讲解了算法透明度对用户可信感知的影响,通过眼动追踪、调查问卷和半结构化访谈等研究方法,揭示不同透明度水平下用户感知可信度的变化,以及用户在访问算法透明度信息时的关注点。在另外的一项研究分享当中,吴教授基于启发式方法探讨了算法素养的提升路径,通过情境启发和知识启发的干预方法开展了用户实验,结果显示用户的算法知识、算法技能、算法感知、算法动机和算法思维均得到了显著提升。
最后,吴教授还对未来的人智交互用户信任研究进行了展望,提出了技术革新辅助用户数据采集、交互优化提升系统使用满意度、以及关注用户信任促进人智共赢等研究方向。吴教授强调,随着技术的发展,我们有能力从更多维度收集用户数据,更深入地理解用户需求,从而设计出更完善的智能系统。
报告结束后,师生们就“用户信任”、“可解释模型”和“算法素养”等议题与吴丹教授展开了热烈的讨论。本期论坛不仅拉近了学院师生与信息资源管理高水平研究学者的距离,也为大家从事的相关研究提供了全新的视角和分析思路。
附:主要相关研究文献
1.吴丹,刘欣宜,冷新宇.人机交互视角下智能决策可解释性研究进展:方法、评估与实现路径[J].图书情报工作, 2025.
2.陈韵怡,吴丹,夏子硕.面向学术信息推荐的用户信任可解释模型构建[J].情报学报, 2025.
3.吴丹,武瑜轩.个性化推荐算法透明度对用户感知可信度的影响[J].情报理论与实践, 2024, 47(11): 91-100.
4. Jing Liu, Dan Wu. Dynamic Algorithmic Awareness based on FAT Evaluation: Heuristic Intervention and Prediction[J]. Journal of the Association for Information Science and Technology, 2025.
5.吴丹,刘静.人工智能时代的算法素养:内涵剖析与能力框架构建[J].中国图书馆学报, 2022, 48(6): 43-56.
(信息学院 卢奕宸 孙晓宁供稿)
报告人简介:
吴丹,武汉大学二级教授,博士生导师。现任武汉大学本科生院院长兼教师教学发展中心主任,武汉大学数智教育教学研究中心主任,武汉大学人机交互与用户行为研究中心主任。入选国家级人才计划特聘教授、青年学者、青年拔尖人才。国家重点研发计划项目、国家社科基金重大项目、国家自然科学基金重大研究计划项目首席专家。担任国际学术期刊Aslib Journal of Information Management主编、中国图书馆学会用户研究与服务专业组副主任、中国科学技术情报学会信息行为研究专业委员会副主任等。研究方向为信息组织与检索、人机交互、智慧图书馆。