算法与数学之美
2019-04-11 20:30
被数学题难倒的AI
做数学题一直令多数人头疼不已的事情。近期,DeepMind团队最新研究了利用AI来解数学题,但结果令人大跌眼镜——水平不及高中生。
数学也难倒了AI。
数学可能是大多数人在求学过程中最头疼的一门科目。近日,DeepMind团队便对“AI做数学题”进行了研究,结果大跌眼镜:“万能的AI”在面对数学问题也是不知所措!
人类解题能力超群的关键在于,人类并非主要通过经验和证据,而是通过推断、学习,以及利用定理、公理和符号操纵规则。
DeepMind团队便对神经架构和类似系统的评估(以及最终的设计)提出了新的挑战,开发了一个数学问题的任务处理套件,涉及以自由形式文本输入/输出格式的系列问题和答案。
不过,在研究过程中,DeepMind发现,AI非常擅长做的数学题都是比较偏简单的,例如:查找数字中的位值、四舍五入小数/整数等。但是在诸如素数检测、因式分解以及多项式操作等方面,性能结果存在显著的差异。
AI做数学的能力不及高中生水平?
AI挑战人类最难学科
深层模型远未达到人类所表现出的稳健性和灵活性,由于自身能力的限制,深度学习无法超越所经历的环境去生成新的东西,并且面对存在对抗性构建的输入时极其脆弱。
与神经模型相比,人类智能擅长的一个领域是关于物体和实体的离散组合推理,即“代数泛化”,这个领域也体现了神经模型和人类智之间的差异。
人类在这个领域内的概括能力是复杂的、多方面的。先来看这个数学题:
当:f(x)= 2x 3,g(x)= 7x-4,h(x)= -5x-8时
求:g(h(f(x)))
人类解决这道数学题时候,用到的各种认知技能有:
将字符解析为数字,算术运算符,变量(一起形成函数)和单词(确定问题)等实体
计划(例如,以正确的顺序识别功能以进行撰写)
使用子算法进行函数合成(加法,乘法)
利用工作记忆来存储中间值(例如合成h(f(x)))
通常应用已获得的规则,转换,过程和公理知识
DeepMind在这篇论文中引入了一个由许多不同类型的数学问题组成的数据集,对于模型来说,优于缺乏上述人类能力,在处理跨系列的问题类型(包括我们在下面详述的泛化)的时候难度更大,更难获得良好的表现。
该领域对于一般的神经结构的分析是重要的。除了提供广泛的问题外,还有其他几个优点:
数学提供了一个自洽的宇宙(self-consistent universe);
符号在不同的问题类型中是相同的,是的数据集更容易得到扩展的;
在一种问题类型上学习的规则和方法通常适用于其他地方。例如数字的加法在任何地方都遵循相同的规则,并且在其他问题中作为“子程序”出现,具体体现在乘法中,以及具体且更抽闲的体现在多项式中;
具有转移知识能力的模型将在数据集上获得更好的表现(知识迁移可能是解决更难问题的必要条件)。
数学本身也是一个有趣的领域,虽然解决该数据集中大多数中学数学问题的模型本身不具备应用程序,但它们可能会导致更强大的模型,这些模型可以解决有趣且实质性的新数学问题。
或者更一般地说,寻求验证以捕获算法/系统推理为目标的新架构的实验经常从这个领域中得出,这并非巧合。因此,在为这些模型提供大规模的训练和评估框架时,希望为继续研究超越数学的机器推理提供坚实的基础。
请看以下数学问题集示例:
问题:对于r,求解-42*r 27*c=-1167和130*r 4*c=372。
答案:4
问题:计算-841880142.544 411127。
答案:-841469015.544
问题:Letx(g)=9*g 1。Letq(C)=2*C 1。Letf(i)=3*i-39.设w(j)=q(x(j))。计算f(w(a))。
答案:54*a-30
问题:设e(l)=l-6.2是e(9)和2的因子吗?
答案:错
问题:设u(n)=-n**3-n**2。设e(c)=-2*c**3 c。令l(j)=-118*e(j) 54*u(j)。l(a)的衍生物是什么?
答案:546*a**2-108*a-118
问题:从qqqkkklkqkkk中选择了三个字母而没有替换。给出序列qql的概率
答案:1/110
研究中的主要贡献
数据集和泛化测试
研究人员发布1个序列到序列的数据集,包括许多不同类型的数学问题(见图1),用于测量数学推理,同时提供生成代码和预生成的问题。
数据集附带两组测试:插值测试,一个针对训练集中出现的每种类型的问题;外推测试,测量沿着各种难度轴的概括超出训练期间的概括。将外推测试作为模型是否采用允许它们进行代数泛化的能力的额外度量。
实验和模型分析
本文利用一个实验评估来研究最先进的神经架构的代数能力,实验表明它们在某些类型的问题上表现良好,但肯定不是全部,而且只有适度的数量一般化。我们对他们如何学习回答数学问题及其失败模式提供了一些见解。
由于该数据集背后的构建过程,有大量现有模型可以进行调整、专门构建或定制,以解决提出的问题,特别是在符号求解器或计算机代数系统的帮助下。
模型检验
随着问题和答案的复杂性或语言多样性的增长,撇开传统符号方法可能的脆弱性或可扩展性的限制,我们对评估通用模型更感兴趣,而非已经内置数学知识的模型。
使这些模型(总是神经架构)从翻译到通过图像字幕解析无处不在的原因,是这些函数逼近器缺乏偏差,因为它们的设计中编码的域特定知识相对较少(或没有)。
虽然有一些神经网络驱动的方法可以直接访问数学运算(例如加法或乘法,或更复杂的数学模板,这无疑是我们在本文中提出的任务中具有竞争力,我们将局限于一般的序列处理架构,这些架构用于其他非数学任务,以便为将来的比较提供最一般的基准。
论文研究了两种(广泛的)模型,这些模型已经证明了它们在序列到序列问题上的最新技术:循环神经架构,以及最近引入的Attention/Transfomer结构。我们还尝试使用可微分神经计算机,这是一种具有“外部存储器”的复现模型(其大小与网络中的参数数量无关)。
理论上,这可能非常适合解决数学问题,因为它可以存储中间值以供以后使用。然而,却无法从中获得不错的表现,即使对于内存插槽的数量和大小的超参数扫描等,在训练一天后才能达到10%的验证性能,而大多数模型在不到一个小时内就能获得这一点。
图2:注意力LSTM和Transformer体系结构都包含一个解析问题的编码器和一个解码器,它将正确的答案右移1个映射到每个位置的答案中的下一个字符(因此允许自回归预测):
(a)注意LSTM将问题编码为一系列(关键,值)位置,然后由解码器进行处理
(b)变压器有几个阶段的自我注意和输入注意
循环结构
LSTM 是一个强大的序列到序列模型构建模块,它在许多领域都达到了最先进的结果,尽管它很简单,但仍然是循环神经网络的一个核心构建模块。本文测试了两个标准的循环结构。
第一个(也是最简单)模型,称作“Simple LSTM”是直接将问题提交到LSTM,一次输入一个字符(采用1-hot编码);
第二个模型称作“Attentionnal LSTM”,是引入具有注意力结构的编码器/解码器。
在这两种体系结构中,还使用了一个简单的更改来提高性能。所描述的模型必须在解析问题之后直接输出答案。
近期,一种称为关系递归神经网络或关系内存核(relational memory core,RMC)的递归体系结构被开发出来作为LSTM的替代品。这个重复单元有多个记忆槽,它们通过注意力相互作用。
TRANSFORMER
Transformer模型是一个实现机器翻译的最先进结果的序列到序列模型。图2b对其做了简要的描述。该模型由编码器和解码器组成,前者将问题(表示为向量序列)转换为另一个相同长度的序列,后者将编码的问题和答案转换为答案预测。
性能分析
训练和评估方法
与序列到序列模型中常见的方法一样,这些模型使用贪婪解码器(每一步输出多数类)自回归地预测答案。通过Adam优化器最小化正确字符的对数概率之和,学习率为6×10-4,β1= 0.9,β2= 0.995,ε= 10-9。使用批量大小为1024的8个NVIDIA P100 GPU进行500k批次分割,绝对梯度值限幅为0.1。
实验结果
图3显示了不同结构的平均插值和外推(extrapolation)性能。
图3模型精度(正确答案的概率)在各个模块之间取平均值。RMC是关系递归神经网络模型。
LSTMs vs RMCs
使用具有多个内存插槽的RMC不会提高性能;也许RMC很难学会使用插槽来操纵数学实体。对于给定数量的隐含单元,RMC的数据效率更高,但训练速度更慢(因为它们有更多的参数),LSTMs具有更好的渐近性能。
Simple vs Attentional LSTM
Attentional LSTM和Simple LSTM具有相似的性能。有人可能会怀疑Attentional LSTM什么也不做,但事实并非如此,因为与解析LSTM大小相同的Simple LSTM模型获得的性能要差得多。我们推测,注意力模型并没有学习算法解析问题,因此每一步改变注意力焦点的能力并不重要。
“思考”步骤数
对于Attentional LSTM模型,可以观察到,将“思考”步骤的数量从0增加到16,可以提高性能。
Transformer vs 最好的非transformer模型
Transformer在几乎所有模块上的性能与递归模型相同,或者明显优于递归模型。这两种体系结构具有相当数量的参数。人们可能会预先期望LSTM执行得更好,因为它的顺序体系结构可能更类似于人类执行的顺序推理步骤。然而,实验表明,这两种网络都没有做太多的“算法推理”,并且Transformer相对于LSTM架构具有各种优势,例如:
使用相同数量的参数进行更多计算;
具有更好的梯度传播;
有一个内部连续的“记忆”。
对神经网络来说最简单的数学问题
最简单的问题类型是查找数字中的位值,以及四舍五入小数和整数,所有模型在这些方面都获得了近乎完美的分数。涉及比较的问题也往往相当容易,因为这类任务是相当感性的(例如比较长度或单个数字)。
对神经网络来说最困难的数学问题
也许并不奇怪,一些最难的模块包含了更多的数字理论问题,这些问题对人类来说也很难,比如检测素数和因式分解。
Transformer模型在“加或减几个数字”模块和“乘数或除数”模块的性能为90%或更高。然而,在混合算术模块上,性能下降到大约50%。我们推测这些模块之间的区别在于前者可以在相对线性/浅/平行的方式(因此解决方法通过梯度下降相对容易发现),而没有用括号评估混合算术表达式的快捷方式,其中需要计算中间值。
这证明模型没有学习任何代数/算法操作值,而是学习相对简单的技巧来获得许多模块的良好答案。对于其他需要中间值计算的模块,如多项式求值和一般组合,也是如此。
多项式操纵性能
Transformer和递归模型之间的一个显着差异是多项式操作。Transformer在多项式展开、收集项、加法、组合、微分和提取命名系数方面做得明显更好。从理论上说,Transformer的并行顺序特性更擅长于处理多项式,其中几个系数必须同时保存在内存中,以便相互作用。
编辑 ∑Pluto
来源:arXiv
封面图来源:pixabay
声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
_____________________
如何应对视觉深度学习存在的问题
算法与数学之美
2019-04-10 20:30
我们经常见到介绍计算机视觉领域的深度学习新进展的文章,不过针对深度学习本身的研究经常告诉我们:深度学习并不是那个最终的解决方案,它有许多问题等待我们克服。
曾经在 UCLA 任教,如今来到约翰霍普金斯大学的认知科学与计算机科学教授 Alan L. Yuille 撰写了一篇学术报告(arxiv.org/abs/1805.04025)分析总结了他眼中深度学习在计算机视觉领域的优势和不足,也介绍了自己认为有潜力的解决办法。经过近期的一次修订之后,他也在 thegradient.pub 上发表了这篇论文的通俗介绍文章《The Limitations of Deep Learning for Vision and How We Might Fix Them》(视觉深度学习有哪些限制,我们要如何克服它们)。全文翻译如下。
风水轮流转的深度学习
如今的深度学习热潮已经是第三次来临了。上世纪 50 年代和 80 年代的两次 AI 热潮虽然也产生了不小的热度,但很快就归于冷清,因为那时的神经网络既无法带来多少性能提升,也没能帮助我们增加对生物视觉系统的理解。2010 年之后愈演愈烈的这次新浪潮就不一样了,如今的神经网络在各种各样的 bechmark 中都取得了前所未有的成绩,也在真实世界中得到了不少应用。其实我们现在在深度学习中用到的许多基础思路在第二次浪潮中就已经出现了,不过,也只有到了第三波浪潮中出现了大规模数据集、高性能计算设备(GPU)之后,它们的威力才得以发挥出来。
神经网络的起起落落也反应了人类对智慧的研究、以及热门的学习算法的不断变化。在第二次浪潮中,我们见证了传统 AI 如何夸下海口、又如何交不出及格的答卷。1980 年代的第二次寒冬就这样来了。这次寒冬中我们也见证了 SVM、核方法等机器学习方法的兴起。如今我们会称赞那些在寒冬中不顾反对之声一直坚持研究神经网络、深度学习的研究人员们,但走向另一个极端的是,当年很难发表一篇关于神经网络的论文,如何则很难发表一篇不是关于神经网络的论文。这并不是什么好的发展方式。如果研究者们能够积极探索各种不同的方法和技术,而不是一窝蜂地涌入深度学习的话,也许整个 AI 领域可以进步得更快一些。而且还有一件事令人担心,如今的 AI 课程有不少已经完全省略了旧时代的 AI 技术,仅仅关注当前趋势的走向。
深度学习的成功与失败
直到 2011 年 AlexNet 在 ImageNet 上带来跨越式的表现提升之前,计算机视觉研究领域都对深度学习抱着怀疑的态度。这之后,深度学习越来越成为图像分类、物体检测等许多任务中的标准工具,研究人员们提出的各种网络架构和建模、训练技巧也让深度学习的表现越来越好。
相比于图像分类,物体检测任务针对的图像通常含有一个或更多的物体,背景也更大。用于解决目标识别任务的神经网络通常会分为两个阶段工作,第一个阶段会为物体位置和大小选出一些候选边界框,然后在第二阶段中挑选出正确地包含了物体的边界框并进行分类。在 ImageNet 出现之前,这项任务上表现最佳的方法是 PASCAL 物体检测竞赛中的 Deformable Part Models,它也是那时候主流的物体检测和图像分类算法。在各种其他计算机视觉任务中,不同架构的深度学习模型也分别带来了大规模的表现提升。
深度学习方法已经引入各种视觉任务当中
但是,即便深度学习相比于以往的方法有很大优势,它也并不是一种通用的解决方案。在这里,我们重点分析它面对的三方面的限制。
首先,深度学习绝大多数时候都需要大量标注数据。这种方法本身的偏向性也就使得研究人员们更多研究的是那些「有充足数据的、获取标注很容易的任务」,而不是「真正重要的任务」。
目前我们也确实有一些方法可以降低对监督的需求,比如迁移学习、小样本学习、无监督学习、弱监督学习等等。但目前为止,这些方法的表现并不如监督学习那样令人满意。
其次,深度学习在研究人员们构建的评价数据集上表现良好,但对于数据集之外的真实世界图像可能会表现得非常糟糕。所有的数据集都有偏向,早期的视觉数据中的偏向尤其明显,研究人员们也很快就学会了如何利用这些偏向(比如在 Caltech101 数据集中检测「鱼」就很简单,因为只有这一类物体的背景是水,这种情境偏向就可以被利用起来)。随着数据集变得更大、深度神经网络的表现越来越好,这些问题如今稍有缓解,但仍然不容乐观。比如下图中,在 ImageNet 上训练一个能够检测沙发的模型,如果展示给它的图像的视角是 ImageNet 中很少出现的,那么它就不一定能检测出图中的沙发。更具体地说,深度神经网络的偏向是对于数据集中很少出现的情况会表现很糟糕。然而在真实世界应用中,这种偏向尤其可能带来很多问题,在某些情况下如果视觉系统出现失效可能会带来严重的后果。举个例子,用来训练自动驾驶汽车的数据集从来就不会包含路面上坐着一个婴儿的状况。
在 UnrealCV 环境中,研究人员们变化摄像机的角度,让 Faster-RCNN 模型识别不同角度的室内环境照片。随着视角变化,检测到沙发的 AP 在 1.0 到 0.1 之间剧烈变化
第三,深度学习对于图像中的变化过于敏感,人类则难以被欺骗得多。我们不仅已经知道标准的对抗性攻击可以对图像做出人类无法感知的微小改变,但可以让深度神经网络的识别结果发生彻底的变化,同时神经网络还对背景环境的变化过于敏感。下图中,研究人眼们把不同的物体拼贴到一张森林中的猴子的照片上。这会让深度神经网络把猴子误识别为人,同时也把吉他误识别为鸟,我们猜测这大概是因为「拿着吉他的更有可能是人类而不是猴子」以及「树林中的猴子周围更有可能出现一只鸟而不是吉他」。深度神经网络记忆相关性的能力在此时反倒成了累赘。近期有许多研究都挖掘了深度神经网络对于背景环境变化过于敏感的问题。
在照片中增加不同的物体,会影响照片中原有的猴子的识别结果
这种敏感问题也可以归因到数据集的大小上。对于每种物体,它在数据集中出现的时候对应的背景也就只有很少的几种,所以神经网络会对它们有所偏向。比如人们发现,早期的图像转文字数据集中长颈鹿总是和树一起出现,用这样的数据集训练出的模型就无法识别单独出现的长颈鹿,即便它在图像中占据主体位置也不行。
但是我们毕竟没有能力把各种各样的背景环境收集齐全,对模型表现有影响的因素除了这个也还有很多别的,所以深度神经网络这样的数据驱动的方法就面临了不小的问题。想全面改善模型在这些方面的表现需要大得惊人的数据集,这又为构建训练和测试数据集带来了很多挑战。下文我们还会聊到这个问题。
当数据集不够大的时候
组合爆炸
虽然上面提到的几个问题都还不至于否定了深度学习的成功,但我们认为这些都是存在问题的早期警示信号。具体来说,真实世界的图像是无数多种物体在无数多种背景环境中的组合,所以不管多大的数据集都无法完全代表真实世界的复杂性。
相比于人类天然地就对视觉环境的变化有高度的适应性,深度神经网络要敏感脆弱得多、对错误的容忍度要低得多,就像上面猴子的那张图表明的。值得说明的是,不同物体和不同环境的各种组合在有一些视觉任务中并不会出现,比如医疗图像应用,背景环境的变化要小得多(比如胰腺总是在十二指肠的附近),这时深度神经网络就可以发挥出十分优异的表现。但是对于许多真实世界应用来说,没有随着变量数据而指数级增加的数据集,就没办法捕捉到真实世界的复杂性。
这种状况会带来很大的挑战,因为「在有限数量的随机样本上进行训练和测试」的标准范式会变得不够实用,因为样本数量永远不够大、永远无法完全代表数据的内在分布状况。
这迫使我们思考这两个问题:
1. 我们如何在样本数量有限的数据集上训练算法,以便让它们在(假想)能够完全捕捉真实世界复杂度的无限大数据集上也能发挥出好的表现;
2. 如果我们手中只有有限的数据集,我们要如何高效地测试这些算法才能确保它们在无限大数据集上也有好的表现
克服组合问题
目前形式的数据驱动方法,比如深度神经网络,可能永远也无法完善解决组合爆炸的问题。下面我们列出一些别的有潜力的解决方案。
复合性(Compositionality)
复合性是一条通用原则,我们可以把它描述为「一种相信世界是可知的信念,我们可以把事物分解、理解它们,然后在意念中自由地重新组合它们」。这其中的关键假设是,事物都是按照某一套法则从基础的子结构复合成更大的结构的。这意味着,我们可以从有限的数据中学习到子结构和组合法则,然后把它们泛化到复合性的情境中。
和深度神经网络不同,复合性模型需要结构化的表征,其中要显式地表示出对象的结构和子结构。复合性模型也就拥有了外推到未曾见过的数据,对系统做推理、干涉和诊断,以及对于同样的知识结构回答不同问题的能力。值得指出的是,虽然深度神经网络也能捕捉到某种复合性(比如高级别的特征可以来自地级别特征的相应的复合),但这与这里讨论的复合性不是一回事。
以验证码为例,三个例子从左到右的变化和遮挡逐步增大。(c) 已经达到 CAPTCHA 验证码的难度,深度学习对这样的验证码的表现就要差得多,而复合性模型仍然有不错的表现
复合性模型这个概念的优点已经在一些任务上得到了初步验证,比如用同一个模型执行多种任务,以及识别 CAPTCHA 验证码;深度神经网络就无法维持高水平的表现。还有一些非平凡的视觉任务也表现出了相同的趋势,比如用深度神经网络做 IQ 测试就不怎么成功。这项测试的具体内容是,9 张图像组成一个 3x3 的网格,但只给出其中的 8 张,要推测最后一张的内容;图像之间的变化规律是复合性的,而且会有干扰。对于神经模块网络之类的自然语言模型,由于它们具有动态的网络结构,可以捕捉到一些有意义的组合,就可以在这样的任务中击败传统的神经网络。实际上,我们最近也实验验证了其中的不同模块确实能够在联合训练后各自发挥原本设计的复合功能(比如执行与、或、过滤操作等等)。
复合性模型也还有许多理想的理论属性,比如可解释,还可以用来生成样本。这可以让我们更方便地诊断错误,也就比深度神经网络这样的黑盒模型更难以被欺骗。但是复合性模型也很难学习,因为它需要同时学习基础结构和复合方法(但复合方法的本质是什么都还有待讨论)。而且,为了能够以生成的方式进行分析,复合性模型还需要搭配物体和场景的生成式模型。按分类生成图像到现在都还是一个有难度的课题。
更基础地,处理组合爆炸的问题还需要学习到三维世界事物的常识模型,以及学会这些模型和图像的对应关系。对人类婴儿的研究表明他们的学习方式是构建能够预测他们所在的环境(包括其中的简单几何体)的常识模型。这种常识理解的方式让他们能够从有限的数据中学习,并真正地泛化到全新的环境中。这就好比是牛顿的万有引力定律,从一些基本的数字就可以猜测出引力公式的基本形式,并推广到太阳系内行星的运动规律,不过计算公式中的常数和精确的运动周期还需要大量的数据。
在组合性的数据上测试
测试视觉算法的一个潜在的挑战是我们只能在有限的数据上测试,即便我们测试的算法是为了解决真实世界中巨大的组合复杂度而设计的。博弈论中对这种问题的思考方式是关注于那些最糟糕的情况解决得如何,而不那么关注平均难度的状况解决得如何。正如我们前面谈到的,有限数据集中的平均难度的结果意义并不高,尤其是当数据集无法完全捕捉到问题的组合复杂性的时候。更为关注最糟糕的情况当然是有一定理由的,比如目标是设计自动驾驶汽车的视觉系统,或者在医疗图像中诊断癌症,失误都是更容易在复杂的情况下出现,出现以后也更可能带来严重的后果。
如果失效模式可以在低维空间中捕捉到,比如可以缩小到只有两三个因素的影响,我们就可以通过计算机图形学和网格搜索的方法进行研究。但是对于多数视觉任务,尤其是涉及组合性数据的任务,我们就很难分辨出来一小组影响因素并独立地研究它们。一种策略是在标准的对抗性训练的基础上进行拓展,让它也可以作用于非局部的结构,方法是允许模型对图像的主要结构、场景做复杂的操作(比如遮挡、改变图像中对象的物理属性),但同时不显著改变人类的观感。把这种方法拓展到视觉算法用来解决组合复杂度的问题仍然有不小挑战。不过,如果我们设计算法的时候心里就注意着复合性的事情,它们的显式结构也可以让我们更方便地进行诊断并判断它们是如何失效的。
结论
2011 年,Aude Oliva 和 Alan Yuille 共同在 MIT 的计算机视觉前沿研讨会上组织了一个美国国家科学基金会资助的 workshop,他们鼓励完全开放地表达意见,尤其是那时候许多人对深度神经网络的潜力还持有怀疑态度。Yann LeCun 大胆地预测所有人都很快就会开始使用深度学习;后来证明他是对的。深度神经网络非常成功,它也帮助计算机视觉变成了一个热门的领域,极大地增进了学术界和工业界之间的互动,让计算机视觉技术进入了许多其他的学科,还引发了许多其他重要发展。
尽管已经获得了这样的成功,但是在达到通用人工智能和理解生物视觉系统的目标之前,深度学习的这条路上还有重大的挑战等待解决。其他批评深度神经网络的文章中也表达了和我们类似的担忧。按理说,当现在的研究人员们在越来越逼近现实的环境中尝试解决越来越复杂的问题的时候,最重大的挑战就是如何开发出能够应对组合爆炸问题的算法。虽然神经网络很有可能还是那个解决方案的一部分,但我们认为我们还需要一些其他的补充方法,包括能够捕捉数据中隐藏的结构的组合性原则和因果模型。更重要的是,面对组合爆炸的问题,我们需要仔细重新想想如何训练以及评价视觉算法。
编辑 ∑Pluto
来源:雷锋网
声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。