数学能帮助AI聊天机器人停止编造内容吗?
数学是通往不编造内容的聊天机器人的路径吗?
聊天机器人如ChatGPT有时会给出错误的答案。但研究人员正在构建能够验证自己数学答案的新AI系统——也许还能做更多。
Vlad Tenev(左)和Tudor Achim,Harmonic的创始人,在加州帕洛阿尔托的总部。Credit...Gabriela Hasbun为《纽约时报》拍摄
2024年9月23日
最近的一个下午,Tudor Achim给一个名为Aristotle的AI机器人出了一个脑筋急转弯。
这个问题涉及到一个10x10的表格,里面填满了一百个数字。如果你收集每一行的最小数字和每一列的最大数字,他问,最小的大数字是否可能大于最大的小数字?
机器人正确地回答了“不”。但这并不令人惊讶。像ChatGPT这样的流行聊天机器人也可能给出正确的答案。不同的是,Aristotle证明了它的答案是对的。机器人生成了一个详细的计算机程序,验证了“不”是正确的回答。
像OpenAI的ChatGPT和谷歌的Gemini这样的聊天机器人可以回答问题、写诗、总结新闻文章和生成图像。但它们也会犯违背常识的错误。有时,它们会编造东西——这种现象被称为幻觉。
Achim先生是硅谷一家名为Harmonic的初创公司的首席执行官和联合创始人,他正在努力构建一种永远不会产生幻觉的新AI。今天,这项技术专注于数学。但许多领先的研究人员相信他们可以将同样的技术扩展到计算机编程和其他领域。
因为数学是一个有严格证明方法的学科,可以证明答案是否正确,像Harmonic这样的公司可以构建能够检查自己答案并学会提供可靠信息的AI技术。
谷歌的DeepMind,这家科技巨头的中央AI实验室,最近推出了一个名为AlphaProof的系统,就是这样运作的。在国际数学奥林匹克竞赛中,该系统达到了“银牌”水平,解决了比赛中六个问题中的四个。这是机器首次达到这一水平。
感谢您的耐心等待我们验证访问权限。如果您处于阅读模式,请退出并登录您的《纽约时报》账户,或者订阅《纽约时报》的全部内容。
感谢您的耐心等待。
已经是订阅者了吗?登录。
想要《纽约时报》的全部内容吗?订阅。