最近,人们发现了一个有趣的现象,即AI模型在选择数字时表现出类似人类的购买和避好行为,这证明了模型在回答问题时重复训练数据中的常见内容。这种行为具有确定“人性化”的特点,虽然模型本身并不具备人类的认知能力。
在实验中,一些工程师要求几个主要的LLM聊天机器人随机选取0到100之间的数字。结果显示,所有模型都有一个“最喜欢的”数字,表明它们在选择数字时表现出了偏好。即使在“温度”下,这三个模型在选择的其他数字时也表现出类似人类的偏见。这种现象揭示了人工智能模型表现出的“人性化”特征,解答人们与这些系统时需要记住其模仿人类行为的本质提供了启示。
Gramener 的一些工程师进行了一项非正式但仍然引人入胜的实验,他们简单地要求几个主要的 LLM 聊天机器人在0到100之间选择一个随机数字,结果并不随机。
三个经过测试的模型都有一个 “喜欢” 的数字,在最确定性的模式下,这个数字总是它们的答案,但即使在更高的 “温度” 下,这个数字也经常出现,而 “温度” 是模型通常具有的一种设置,可以增加其结果的变化性。
OpenAI 的 GPT-3.5Turbo 非常喜欢47。此前,它喜欢42—— 这个数字当然因道格拉斯・亚当斯在《银河系漫游指南》中将其定义为生命、宇宙和一切的答案而闻名。Anthropic 的 Claude3 Haiku 选择了42,Gemini 喜欢72。
更有趣的是,所有三个模型在选择其他数字时都展现出类似人类的偏见。
所有模型都倾向避免选择低位和高位数字,Claude 从不选择超过87或低于27的数字,即使有这样的数字,也是异常值。两位重复的数也被严格避免:没有33、55或66,但77出现了(以7结尾)。几乎没有以0结尾的数字 —— 尽管 Gemini 有时会选择0。
为什么会这样呢?AI 不是人类!它们为什么在意 “似乎” 随机?它们最终已经获得了意识,这是它们展示的方式吗?
不。就像通常的情况一样,我们过度赋予了拟人化。这些模型并不关心什么是随机的。它们不知道 “随机性” 是什么!它们回答这个问题的方式与回答其他问题的方式相同:查看它们的训练数据,重复在看起来像 “选择一个随机数字” 的问题之后最常出现的内容。它出现的次数越多,模型就重复它的次数越多。
尽管人工智能模型的这种行为被认为是“人性化”的特点,但我们需要意识到这并不代表模型具有真正的认知能力。模型选择的数字行为实际上只是模型重复训练数据中的常见内容,因为模型本身并不理解随机性,无法进行有效进行。因此,在这些系统的互动中,人们需要牢记它们只是模仿的人类行为,而并非真正思考或理解。
文章内容仅供阅读,不构成投资建议,请谨慎对待。投资者据此操作,风险自担。
奥维云网(AVC)推总数据显示,2024年1-9月明火炊具线上零售额94.2亿元,同比增加3.1%,其中抖音渠道表现优异,同比有14%的涨幅,传统电商略有下滑,同比降低2.3%。
“以前都要去窗口办,一套流程下来都要半个月了,现在方便多了!”打开“重庆公积金”微信小程序,按照提示流程提交相关材料,仅几秒钟,重庆市民曾某的账户就打进了21600元。
华硕ProArt创艺27 Pro PA279CRV显示器,凭借其优秀的性能配置和精准的色彩呈现能力,为您的创作工作带来实质性的帮助,双十一期间低至2799元,性价比很高,简直是创作者们的首选。