研究称 ChatGPT、Claude 等模型过度高估了人类的逻辑水平

研究人员通过经典的博弈论实验“凯恩斯选美比赛”(猜数字游戏)对 AI 进行了测试。实验要求参与者预测他人的选择以获得胜利。理论上,这需要深层的逻辑推演,但人类在实际操作中往往难以达到这种理想状态。有趣的是,当 AI 与人类对弈时,它们虽然能根据对手的背景(如大学生或专家)调整策略,但依然倾向于认为人类会做出最理性的选择。这种“把人想得太聪明”的偏差,导致 AI 在预测人类真实决策时经常失准。

这项研究提醒我们,尽管 AI 可以精准地模拟人类的人格特质,但在处理涉及真实人类行为的经济预测、策略建模等复杂任务时,如何校准 AI 对人类非理性行为的认知,将是未来技术发展的关键挑战。

划重点:

  • 🧠 认知存在偏差: ChatGPT等模型倾向于假设人类是完全理性的决策者,忽略了人类行为中的非理性因素。

  • 🎯 预测结果失准: 由于“想得太多”,AI 在博弈实验中往往因为高估对手的逻辑层次而错失最符合现实的判断。

  • ⚠️ 潜在应用风险: 专家警告,这种认知脱节可能影响 AI 在经济建模等需要精准预测人类行为领域的表现。

AI 前线

小红书开源InstanceAssemble!轻量级布局可控生成框架,复杂多实例图像生成精度再突破

2025-12-29 9:46:10

AI 前线

意大利勒令Meta暂停WhatsApp AI禁令!欧盟同步调查,Meta被指滥用市场支配地位打压竞品聊天机器人

2025-12-29 9:46:10

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索