Gate 广场|3/5 今日话题: #比特币创下近一月新高
🎁 解读行情走势,抽 5 位锦鲤送出 $2,500 仓位体验券!
随着白宫表示已向参议院提交凯文·沃什担任美联储主席的提名,美国参议院未通过叫停特朗普打击伊朗的投票,比特币于今日凌晨创下 2 月 5 日以来新高,最高触及 74,050 美元,加密货币总市值回升突破 2.538 万亿美元。
💬 本期热议:
1️⃣ 凯文·沃什的提名是否意味着降息预期升温?
2️⃣ 当前关口,你是持币待涨、顺势追多,还是反手布局回调?
分享观点,瓜分好礼 👉️ https://www.gate.com/post
📅 3/6 15:00 - 3/8 12:00 (UTC+8)
🚨 最新消息:OpenAI 发布了一篇文章,证明 ChatGPT 总是会编造内容。
不是有时。不是等到下一次更新。是永远如此。他们用数学证明了这一点。
即使拥有完美的训练数据和无限的计算能力,AI 模型仍然会自信满满地告诉你一些完全错误的事情。这不是一个他们正在修复的漏洞。这解释了这些系统在根本层面上的工作原理。
而他们自己的数据也非常残酷。OpenAI 的推理模型 o1 在 16% 的情况下会产生幻觉。它们的新模型 O3?33%。它们的新 o4-mini?48%。他们最新模型提供的信息中,几乎一半可能是虚构的。“更智能”的模型实际上在越来越多地说谎。
这就是为什么无法修复的原因。语言模型的工作原理是根据概率预测下一个词。当遇到不确定的情况时,它们不会停止,也不会发出信号。它们会假设,并以绝对的信心进行推测,因为这正是它们被训练的目的。
研究人员分析了衡量这些模型质量的前十个人工智能标准。十个标准中,有九个对“我不知道”与给出完全错误答案的评分一样:零分。整个测试系统实际上惩罚诚实,奖励猜测。
因此,AI 学会了最优策略:总是猜。永远不承认不确定。这看起来很自信,即使它们是在编造。
OpenAI 提出的解决方案是什么?让 ChatGPT 在不确定时说“我不知道”。他们的计算显示,这意味着大约 30% 的问题没有答案。想象一下,向 ChatGPT 提问三次,得到“我不够自信回答”。用户会在夜里离开。因此,解决方案存在,但会毁掉这个产品。
这不仅仅是 OpenAI 的问题。DeepMind 和清华大学也独立得出了相同的结论。世界上最顶尖的三个 AI 实验室,分别工作,结果都一致:这是永久性的。
每次 ChatGPT 给出答案时,问问自己:这是真实的,还是仅仅是自信的假设?
这是 Come-from-Beyond 👇 的回答:
他们开始理解为什么
#QUBIC #Aigarth .* 将“说‘我不知道’”的能力放在了核心关注点上
$QUBIC