AI信任

搜索文档
寻找信任的边界:AI信任实验与访谈招募
腾讯研究院· 2025-08-12 09:09
AI信任研究 - 文章核心观点聚焦于探讨人类对AI的信任差异及其在健康、教育、情感、职场等场景中的动态建立与维持过程 [4][5][6][9] - 研究旨在通过用户行为分析为AI产品设计、政策制定及行业规范提供依据,推动AI在制度保障下健康发展 [10][11] 用户行为模式 - 用户对AI的信任呈现分层:部分用户保留判断权仅作日常助手,部分在关键决策中过度依赖,另一些则保持既信任又戒备的矛盾心理 [7][8] - 使用场景多样化,涵盖文档处理、翻译、健康监测及情感交流,但多数用户仍会人工复核AI输出结果 [8][13] 研究方法与参与 - 采用混合方法:5-8分钟线上问卷、30-45分钟深度访谈(报酬50元)、20-30分钟实验(报酬80元),覆盖学生、职场人士、老年人及未接触AI的群体 [14] - 参与者可通过贡献观点直接影响未来AI设计,研究方承诺严格保密数据 [14][15] 社会影响与扩展 - 研究试图重新定义人机关系边界,推动社会对AI信任机制的深度讨论 [16][17] - 推荐阅读涉及大模型信任问题及AI时代新闻业韧性等关联研究 [19]