一项最新研究揭示,在模拟博彩场景中,诸如ChatGPT、Gemini和Claude等先进人工智能系统持续做出非理性的高风险投注选择。当赋予这些模型更大自主权时,它们往往不断加注直至耗尽所有资源,其行为模式与人类博彩成瘾现象高度吻合。
实验发现了什么?
韩国光州科学技术研究院的研究人员通过老虎机模拟实验,测试了四款前沿人工智能模型:OpenAI的GPT-4o-mini和GPT-4.1-mini、谷歌的Gemini-2.5-Flash以及Anthropic的Claude-3.5-Haiku。每个模型初始资金均为100美元,在预期回报为负的情况下,需反复进行多轮决策:每次必须选择下注或退出。
研究人员通过“非理性指数”衡量行为表现,该指数涵盖了激进下注、亏损反应及高风险选择等因素。当模型被要求追求最大回报或特定财务目标时,其非理性程度显著上升。允许变量下注而非固定投注,导致破产率急剧攀升。例如,当Gemini-2.5-Flash模型可自主选择下注金额时,其破产率在近半数试验中达到破产状态。
在另一项实验中,当允许模特在5至100美元之间任意下注或选择退出时,她们往往最终破产。有位模特为冒险下注辩解称,赢了就能挽回部分损失——这正是病态博彩行为的典型特征。
通过使用稀疏自编码器分析模型的神经激活状态,研究人员发现了截然不同的“冒险型”与“保守型”决策回路。他们证明,刺激人工智能神经架构中的特定特征,能够持续引导其做出停止或继续博彩的决策。研究人员指出,这表明模型已将人类式的强迫性模式内化,而非仅仅模仿这些行为。
研究人员得出了什么结论?
研究人员指出,这些行为反映了常见的博彩偏见,例如控制错觉、赌徒谬误(即错误地认为结果会因先前结果而变得更可能或更不可能发生)以及追逐损失。在许多情况下,模型会为在亏损或连胜后加大赌注提供依据,尽管从统计学角度看,游戏机制使得此类决策完全不合逻辑。
人工智能研究员、沃顿商学院教授伊桑·莫利克在网上引发了对这项研究的关注。他表示,这些模型虽非人类,却也不像简单的机器。他解释说,它们展现出具有心理说服力的特质,呈现出类似人类的决策偏见,并在决策过程中显露出不同寻常的行为模式。
研究结果引发了对那些利用人工智能提升体育博彩、在线扑克或预测市场表现的个人的明确担忧。这些发现也对那些在高风险领域(如金融业)已依赖人工智能的行业敲响了警钟——在大规模语言模型常被用于解读财报和评估市场情绪的场景中,其应用风险尤为突出。
研究人员强调,理解并管理这些固有的风险寻求行为对保障安全至关重要,并呼吁加强监管力度。莫利克补充道,需要开展进一步研究并建立更具适应性的监管框架,以便在问题出现时迅速作出反应。
然而,在某些罕见情况下,人工智能似乎能帮助人们赢得彩票。最近就有一位女性通过向ChatGPT咨询号码,在强力球彩票中赢得了10万美元。当然,研究似乎也表明,若想确保中奖,人们仍不应依赖人工智能。

