ChatGPT,已经成为天才数学家陶哲轩的研究助手了!
不止ChatGPT,他还直接在网上宣布:
多种AI工具都会纳入自己的工作流。
最近这些日子,陶哲轩对AI可是青眼有加,甚至在网上只谈论一个话题:AI,特别是大语言模型在数学研究中的应用。
期间,各种ChatGPT的“隐藏功能”都被陶哲轩挖了出来:
大到寻找公式、辅助证明定理;小到改写论文语句、查询小语种数学名词的发音。
而为何突然对AI协助工作这么关注?陶哲轩用自己的老本行数学对AI做了个类比:
传统的计算机软件就像是数学中的标准函数,比较死板;
AI工具更像是数学中的概率函数,会更加灵活。
对这个类比,中科院计算所研究员包云岗直接称赞很形象。
也有网友表示:
AI生成的内容有时候真的会有“神来之笔”,帮助人们更好地工作。
不过也有网友对陶哲轩用ChatGPT协助搞数学研究接受无能,毕竟之前很长一段时间大众对ChatGPT的吐槽都集中在数学能力上。
于是,在陶宣称ChatGPT在数学中可以完成一些半成品工作时,有人直接在评论区发问:
你是认真的吗?我可是(你的)超级粉丝。
那话说回来,一个“数学菜鸡”ChatGPT在一个大数学家手里究竟能有什么用处?
一起来看~
ChatGPT对搞学术的来说“刚刚好”
总的来讲,陶哲轩大概的意思就是:
ChatGPT数学能力虽然不咋滴,但对做学术研究的人来说是个发散思维的好工具。
(对普通人来说有点不太专业,但对搞数学的学术人员来说刚刚好)
那这个刚刚好的尺度ChatGPT是如何拿捏的?
陶哲轩直接给出了他用ChatGPT求解数学题的几个示例:
刚开始,他直接把同事询问的问题逐字逐句抛给了ChatGPT。
ChatGPT也有模有样地回答了起来,期间还提到了一个高度相关的术语:对数矩生成函数,甚至在给出的答案中还讨论了一个具体的例子。
这术语,这举例…乍一看,甚至骗过了陶哲轩的“法眼”,不过在检查一遍之后,陶发现:
答案是错的!
Emmmmm,按理说一般人的逻辑到这里就该结束了——得出结论:ChatGPT的数学能力不太行。
但陶哲轩还没有止步,他仔细分析了ChatGPT给出的解答过程,发现并不是完全错误的,还是有可取之处。
比如说,ChatGPT在解答过程中用的是lmgf公式,而在克拉默定理给出的标准答案中用到的是lmgf公式的Legendre变换。
虽然不是正确的解题思路,但也很接近正确答案了。
(有点意思)紧接着他又用儿子帮忙做的ChatGPT手机短信版再试了一个数学问题:
我该如何证明有无穷多个素数?
虽然给出的证明的是意料中的不完全正确,但陶发现ChatGPT给出的论证思路是可以被固定下来的,并且这个思路他之前还从未见过。
这一通试用下来,直接打开了陶哲轩的思路。
既然ChatGPT在具体数学问题上给出的答案是不完全正确的,那不如索性发挥发挥它生成答案部分正确的特性:
在处理数学问题时,可以让ChatGPT这类大语言模型做一些半成品的语义搜索工作。
也就是说,ChatGPT不用提供确切的答案,只用生成一些可能的提示(类似于帮你找灵感balabala)。
这样一来,依据ChatGPT生成的提示+传统搜索引擎搜索,就能很轻松找到答案了。
随后,陶哲轩还具体上手演示了一把。
首先要有技巧地抛出一个问题,假设陶想找库默尔定理但记不起来这个定理的名字,他是这样来问的:
我正在找一个关于(balabala)的公式,它是一个经典的理论但我想不起名字,你能给我解答吗?
最终ChatGPT给出的答案是Legendre公式(一个相关的结果),然后根据这个答案用传统的搜索引擎就可以轻松找到库默尔定理。
话说回来,既然都只是用作数学研究中的一个工具,为啥在陶哲轩眼中AI会更合适,而传统搜索引擎就不太行呢?
AI“思维逻辑”更发散
陶直接从传统计算机软件和AI工具的内部运行逻辑分析了一通。
先来说传统的计算机软件,它的运行逻辑类似于函数𝑓:𝑋→𝑌,这是一个很标准的数学概念。
具体来说,若输入的𝑥在给定域𝑋中,软件就能够可靠地给出范围𝑌中的单个输出𝑓(𝑥),若输入𝑥不在给定域𝑋中,则就不能给出结果或者说乱给一些结果。
而AI工具,就不会像传统计算机软件那样死板,它运行的逻辑不是基于经典函数,而是类似于概率 kernel μ:𝑋→Pr(𝑌)。
输入𝑥,AI会从一个概率分布μₓ中采样,然后随机输出。而这个概率分布,集中在完美结果𝑓(𝑥)附近。
不过这样也会导致一些随机偏差和不准确结果的产生。
但整体比较下来,AI工具还是具有一定的优势。
一方面它更加灵活,可以比传统的软件工具更优雅地处理嘈杂或格式不好的输入𝑥。
另一方面,在一定程度上AI的“思维方式”也会更加发散。
在宣布把AI工具纳入自己的工作流之后,陶哲轩还在mathstodon上不断更新用AI工作的帖子。
比如说用AI写邮件:
或者发现了ChatGPT在处理数学问题时的亮点:能够识别不同语言的数学概念音译版。
AI半自动证明定理,审稿人难了
陶哲轩对AI的观察,也在学术圈引起了一场讨论。
他指出,阅读AI写的论文和人写的论文体验完全不同。
阅读人写的论文,通常能在上下文和风格上捕捉到一些线索,通过这些线索可以快速分离出论文的“肉”,加快阅读速度。
AI生成的数学论文,文字看起来都很有说服力,必须一行一行仔细看才能发现其中的缺陷。
纽约大学教授马库斯将其解读为:同行评议从此更难了。
不过网友中也有人认为,让审稿人必须一行一行仔细看,而不是依赖于肤浅的格式信号,也算得上一件好事。
还有人脑洞大开,想知道AI能否提出一些全新的数学猜想。
AI能不能提出猜想不知道,但是AI自动、半自动证明定理已经是现实,并且走向实用化了。
还是陶哲轩,2月份他在加州大学洛杉矶分校的IPAM(纯数学与应用数学研究所)组织了一场机器学习辅助证明主题研讨会,会上展示了很多这方面的前沿成果。
IBM研究员Jason Rute展示了一种受AlphaGo启发的方法,将定理证明类比成围棋,下一个步骤相当于下一手棋,得证相当于获胜。
谷歌科学家吴宇怀则分享了大语言模型在自动形式化(Autoformalization)上的进展。
而陶哲轩本人对AI的兴趣也不止于此,用机器学习解决实际问题也在他的涉猎范围之中。
刚刚在澳大利亚的一场讲座上,他还分享了如何用数学结合机器学习预测火灾变化。
参考链接:
[1]https://mathstodon.xyz/@tao/109945628011027107
[2]http://www.ipam.ucla.edu/programs/workshops/machine-assisted-proofs/
[3]https://twitter.com/GaryMarcus/status/1632191991021965313