DEEP LEARNING FOR SYMBOLIC MATHEMATICS论文解读笔记

文章目录

导读

近日看到一篇论文,Facebook的神经网络用自然语言表示数学式,秒解微分方程。首先放上论文的下载地址,方便详细阅读原文。论文链接:https://arxiv.org/pdf/1912.01412.pdf
DEEP LEARNING FOR SYMBOLIC MATHEMATICS论文解读笔记

介绍

Facebook AI Research的研究人员Guillaume Lample 和 François Charton 开发了一套新算法,只需一点思考的时间就可以解出一阶微分方程。他们训练了一个神经网络来执行必要的符号推理,首次实现了对数学表达式的微分和积分。这项成果是迈向更强大的数学推理的重要一步,也是利用神经网络超越传统模式识别任务的新方法。

神经网络在解决统计或近似问题上比执行计算或处理符号数据更好。 在本文中,我们证明了它们在数学上更精细的任务(例如符号积分和求解微分方程)方面表现出令人惊讶的出色表现。我们提出了一种表示数学问题的语法,以及生成可用于训练序列到序列的大型数据集的方法。 序列模型。我们获得的结果优于Matlab或Mathematica等商业计算机代数系统。

方法

  • 数学作为自然语言
    数学表达式可以表示为树,运算符和函数为内部节点,操作数为子代,数字,常数和变量为叶。 以下树表示表达式:
    DEEP LEARNING FOR SYMBOLIC MATHEMATICS论文解读笔记
    DEEP LEARNING FOR SYMBOLIC MATHEMATICS论文解读笔记
    DEEP LEARNING FOR SYMBOLIC MATHEMATICS论文解读笔记

总结

在本文中,我们证明了标准的seq2seq模型可以应用于困难的任务,例如函数集成或求解微分方程。 我们提出了一种生成任意大的方程式数据集及其相关解的方法。 我们证明,在这些数据集上训练的简单转换器模型在计算函数积分和求解微分方程方面都表现出色,其表现优于依赖大量算法和启发式技术的最先进的数学框架(如Matlab或Mathematica)以及 复杂的实现(Risch,1970)。 结果还表明该模型能够以完全不同的方式编写相同的表达式。考虑到神经模型难以执行诸如整数加法或乘法之类的简单任务,这些结果令人惊讶。 但是,提出的假设有时是不正确的,并且通常需要考虑多个波束假设才能获得有效的解决方案。 解决方案本身的有效性不是由模型提供的,而是由外部符号框架提供的(Meurer等,2017)。 这些结果表明,将来,标准数学框架可能会受益于将神经组件集成到其求解器中。

注:更多详细介绍请参考原文,再次附上论文地址【传送门】