#1 - 2024-1-18 01:45
Nightwing (SHAFT系動畫小組 →https://bgm.tv/group/shaft)
Nature Deepmind



Fig. 2: AlphaGeometry advances the current state of geometry theorem prover from below human level to near gold-medallist level.
圖2:AlphaGeometry 將幾何定理證明器的當前狀態從低於人類水平提升到接近金牌得主水平。


#2 - 2024-1-18 01:53
(SHAFT系動畫小組 →https://bgm.tv/group/shaft)
相關聖杯戰爭: https://aimoprize.com/ ($10M fund)
#3 - 2024-1-18 01:53
(The Raisin Rises)
差不多国集水平
#3-1 - 2024-1-18 08:59
树梢树枝树根根
国集水平难道不是比imo金牌更高吗(bgm38)
#3-2 - 2024-1-18 20:50
东坡Des1ope
树梢树枝树根根 说: 国集水平难道不是比imo金牌更高吗
还真是,我糊涂了
#4 - 2024-1-18 02:35
(嘻嘻)
草,牛逼(但有没有可能是过拟合)
#5 - 2024-1-18 09:44
(未登堂者)
几何题目为啥如此特殊,能被AI 先研究出来?其他方向风声很少,没研究过自动证明器。
#5-1 - 2024-1-18 09:48
MP
因为定式多吧
#6 - 2024-1-18 09:47
(且视他人之疑目如盏盏鬼火,大胆地去走你的夜路。 ...)
金牌平均水平也不是很高吧(bgm38)
#6-1 - 2024-1-18 12:18
absurd
就算是拿銅獎裡面,也有很多人後面成為數學教授了,怎麼可能水平不高,更別說金獎
#6-2 - 2024-1-18 12:59
MP
absurd 说: 就算是拿銅獎裡面,也有很多人後面成為數學教授了,怎麼可能水平不高,更別說金獎
我是说金牌几何水平,因为平面几何是最好拿分的了;金牌整体水平当然高啦
#6-3 - 2024-1-18 13:53
absurd
MP 说: 我是说金牌几何水平,因为平面几何是最好拿分的了;金牌整体水平当然高啦
哦,是這樣啊
#7 - 2024-1-18 10:28
(一川yan草,满城风絮,梅子黄时雨。)
几何侧重训练的程度比其他三个方向高不少,要是组合也有这个水平,或许能展望一下人工智能证明黎曼猜想了。
#8 - 2024-1-18 10:56
(真棒啊!)
能进国集水平放IMO基本都是金牌吧
#9 - 2024-1-18 11:05
(待:天起凉风,日影飞去)
期待解数论题的ai
#10 - 2024-1-18 12:15
(休息一下,吃點炸雞漢堡吧)
我剛好看到這個新聞,我的兩個宿友(都是數學phd學生)都聊了一下這個問題,感覺挺屌的。
#11 - 2024-1-18 12:44
晚上刚看了 blog,这是 LLM 加上一个符号逻辑程序 (感觉类似 lean 或者 coq) 组成的系统,AI 只提供思路,求解最终需要这个逻辑程序去做,是比较特化的一个设计。
LLM 会先尝试加辅助线或者引导一些中间结果,减小搜寻空间,再用程序去尝试暴力自动证明化简之后的子问题。
DeepMind 确实选了个合适的项目,几何题很多都比较程式化,如果是数论之类可能就没这么容易解决了。
总体看下来数学对深度学习来说还是很难,什么时候能把人工写的那个证明程序去掉,完全用模型解出来,并且不限代数这个分支,就会有趣多了。
#11-1 - 2024-1-18 13:34
面包
有类似 Coq 的形式化验证工具参与是非常合理的,它可以保证当 AI 一旦给出证明,这个证明就一定是正确的。对于仅由人工神经网络构成的 AI 给出的数学证明,首先这证明不一定对;然后如果是对的,也需要进行额外的检查才能确保其正确性

人类使用形式化验证工具来做数学证明的原理其实和 AlphaGeometry 是类似的。形式化验证工具提供的自动证明是机械的暴力搜索,一般只用来解决比较显然的问题;对于复杂一些的问题,也是需要设立若干个中间引理,当一个引理足够显然时就可以让工具自动证明。设立哪些引理的证明思路是关键,这本来需要依靠人的直觉,而现在看起来 AI 也可以建立类似的直觉

我没看他们的 blog,不知道他们用的符号逻辑程序的表达能力怎么样。但如果他们用 Coq 的话,我目前不知道有哪个数学分支是 Coq 无法表达的
#12 - 2024-1-21 09:11
(Don't feel. Think.)
原来金银铜的差距可以被量化而且这么大(bgm38)