在人工智能界有一种说法,以为机器学习是人工智能范畴中最能体现智能的一个分支。从历史来看,机器学习好像也是人工智能中开展最快的分支之一。
在二十世纪八十年代的时分,符号学习或许仍是机器学习的干流,而自从二十世纪九十年代以来,就一直是核算机器学习的天下了。不知道是不是能够这么以为:从干流为符号机器学习开展到干流为核算机器学习,反映了机器学习从朴实的理论研讨和模型研讨开展到以处理现实日子中实际疑问为意图的运用研讨,这是科学研讨的一种进步。
平常因为机器学习界的兄弟触摸多了,经常取得一些道听途说的信息以及专家们对机器学习的现状及其开展前途的谈论。在此过程中,难免会发作一些自己的疑问。借此机会把它写下来放在这儿,算是一种“外行请教机器学习”。
◆ ◆ ◆
一问:符号学习该路在何方
疑问一:在人工智能开展前期,机器学习的技能内在几乎全部是符号学习。可是从二十世纪九十年代开端,核算机器学习犹如一匹黑马横空出世,敏捷压倒并替代了符号学习的位置。大家或许会问:在满意图核算学习期刊和会议文章面前,符号学习是不是被彻底忽略?它还能成为机器学习的研讨目标吗?它是不是将持续在核算学习的暗影里日子并苟延残喘?
对这个疑问有三种或许的答复:一是通知符号学习:“你即是该退出历史舞台,认命吧!”二是通知核算学习:“你的一言堂应当关门了!”单纯的核算学习现已走到了止境,再想往前走就要把核算学习和符号学习结合起来。三是事物开展总会有“三十年河东,三十年河西”的景象,符号学习还有“翻身”的日子。
第一种观念我没有听人明说过,可是我想恐怕有或许现已被许多人默认了。第二种观念我曾听王珏教授屡次说过。他并不以为核算学习会阑珊,而仅仅以为机器学习现已到了一个转折点,从今往后,核算学习应当和常识的运用相结合,这是一种“螺旋式上升,进入更高档的形式”,不然,核算学习或许会逗留于现状止步不前。王珏教授还以为:进入转折点的表明是Koller等的《概率图模型》一书的出书。至于第三种观念,恰好我收到老兄弟,美国人工智能资深专家、俄亥俄大学Chandrasekaran教授的来信,他恰好谈起符号智能被核算智能“镇压”的景象,而且恰好表达了河东河西的观念。全文如下:“近来几年,人工智能在很大程度上集中于核算学和大数据。我赞同因为核算才能的大幅进步,这些技能从前取得过某些令人形象深入的效果。可是咱们彻底有理由信任,虽然这些技能还会持续改善、进步,总有一天这个范畴(指AI)会对它们说再见,并转向愈加根本的认知科学研讨。虽然钟摆的摆回还需求一段时间,我信任定有必要把核算技能和对认知结构的深入理解结合起来。”
看来Chandrasekaran教授也并不以为若干年后AI真会回到河西,他的定见和王珏教授的定见根本共同,但不仅限于机器学习,而是触及全部人工智能范畴。仅仅王珏教授着重常识,而Chandrasekaran教授着重愈加根本的“认知”。
◆ ◆ ◆
二问:“独立同散布”条件关于机器学习来讲必需吗
疑问二:王珏教授以为核算学习不会“一往无前”的判别根据是:核算机器学习算法都是基于样本数据独立同散布的假定。可是自然界景象千变万化,王珏教授以为“哪有那么多独立同散布?”这就引来了下一个疑问:“独立同散布”条件关于机器学习来讲真的是必需的吗?独立同散布的不存在一定是一个不行逾越的妨碍吗?
无独立同散布条件下的机器学习或许仅仅一个难题,而不是不行处理的疑问。我有一个“胡思乱想”。以为前些时分呈现的“搬迁学习”或许会对这个疑问的处理带来一线曙光。虽然如今的搬迁学习还请求搬迁双方具有“独立同散布”条件,可是不能散布之间的搬迁学习,同散布和异散布之前的搬迁学习或许迟早会呈现?
◆ ◆ ◆
三问:深度学习代表了机器学习的新方向吗?
疑问三:这些年呈现了一些新的动向,例如“深度学习”、“无停止学习”等等,社会上给予了格外重视,尤其是深度学习。但它们真的代表了机器学习的新的方向吗?包括周志华教授在内的一些专家以为:深度学习掀起的热潮或许大过它本身真正的贡献,在理论和技能上并没有太多的立异,只不过是因为硬件技能的革新,核算机速度大大进步了,使得大家有或许选用本来复杂度很高的算法,然后得到比过去更精密的成果。当然这关于推进机器学习运用于实习有很大含义。但咱们不由要大胆问一句:深度学习是不是又要替代核算学习了?
事实上,确有专家现已感受到来自深度学习的压力,指出核算学习正在被深度学习所镇压,真如咱们早就看到的符号学习被核算学习所镇压。不过我觉得这种镇压还远没有强大到像核算学习镇压符号学习的程度。这一是因为深度学习的“理论立异”还不显着;二是因为目前的深度学习首要适合于神经网络,在各种机器学习的办法百花盛开的今日,它的运用范围还有限,还不能直接说是衔接主义办法的回归;三是因为核算学习仍然在机器学习中被有用的遍及选用,“得到多助”,想扔掉它不简单。
◆ ◆ ◆
四问:只要核算办法适合于在机器学习方面运用吗?
疑问四:机器学习研讨呈现以来,咱们看到的首要是从符号办法到核算办法的演化,用到数学首要是概率核算。可是,数学之大,就像大海,难道只要核算办法适合于在机器学习方面运用吗?
当然,咱们也看到看了一些其他数学分支在机器学习上的运用的好比如,例如微分几安在流形学习上的运用,微分方程在概括学习上的运用。但假如和核算办法比较,它们都只能算是副角。还有的数学分支如代数或许运用得更广,可是在机器学习中代数通常是作为基础东西来运用,例如矩阵理论和特征值理论。又如微分方程求解最终通常归结为代数疑问求解。它们能够算是幕后英雄:“出头露面的是概率和核算,埋头苦干的是代数和逻辑”。
是不是能够想想以数学办法为主角,以核算办法为副角的机器学习理论呢?在这方面,流形学习现已“有点意思”了,而彭实戈院士的倒排随机微分方程理论之猜测金融走势,或许是用深邃数学推进新的机器学习模式的更好比如。可是从微观视点看,数学理论的介入程度还远远不够。这儿指的首要是深入的、现代的数学理论,咱们期待着有更多数学家参加,拓荒机器学习的新模式、新理论、新方向。
◆ ◆ ◆
五问:符号机器学习年代和核算机器学习年代的距离在哪里?
疑问五:上一个疑问的接连,符号机器学习年代首要以离散办法处理疑问,核算学习年代首要以接连办法处理疑问。这两种办法之间应当没有一条距离。
流形学习中李群、李代数办法的引入给咱们以极好的启示。从微分流形到李群,再从李群到李代数,即是一个沟通接连和离散的过程。然后,现有的办法在数学上并不完美。阅读流形学习的文献可知,许多理论直接把恣意数据集当作微分流形,然后就确定测地线的存在并评论起降维来了。这么的比如或许不是单个的,足可阐明数学家介入机器学习研讨之必要。
◆ ◆ ◆
六问:大数据给机器学习带来了实质影响吗?
疑问六:大数据年代的呈现,有没有给机器学习带来实质性的影响?
理论上讲,好像“大数据”给核算机器学习供给了更多的机遇,因为海量的数据愈加需求核算、抽样的办法。业界人士估量,大数据的呈现将使人工智能的效果愈加突出。有人把大数据处理分成三个期间:搜集、剖析和猜测。搜集和剖析的作业相对来说现已做得适当好了,如今重视的焦点是要有科学的猜测,机器学习技能在这儿不行或缺。这一点大约毋庸置疑。但是,同样是运用核算、抽样办法,同样是搜集、剖析和猜测,大数据年代运用这类办法和曾经运用这类办法有啥实质的不一样吗?量变到突变是辩证法的一个遍及规律。
那么,从前大数据年代到大数据年代,数理核算办法有没有发作实质的改变?反映到它们在机器学习上的运用有无实突改变?大数据年代正在呼唤啥样的机器学习办法的发作?哪些机器学习办法又是因为大数据研讨的驱动而发作的呢?
更多资讯,请关注IDC平台