赞
踩
这篇短文主要是是用来回顾总结自己学到的一些关于AI历史和观念的知识,没有什么数学推导,欢迎批判指正
所谓人工智能,就是设计与研究智能体的学科。人工智能的目的,工程地说,就是为人类的逻辑演算和感知等功能建立计算模型,以便让计算机具有类似人类的功能。
人工智能的两个主要流派是符号主义(symbolique)和联结主义(connexionniste)。
为了对人工智能系统有个整体的认识,我们引入三个词语,世界(monde),计算器(calculateur),以及视野(horizon)。这些词在不同的情况下有不同的含义:世界可以是:环境/输入/数据/知识数据,计算器可以是:计算/程序/模型/代理(agent),视野可以是:目标函数/结果/输出。
简单地说,符号主义的研究人员尝试着人工设计计算器,世界,和视野。而联结主义的研究人员则相反,他们尝试把计算器清空了,让世界来自己得出它的视野。
先说符号主义。
符号主义认为,人的智能是由集中存储的知识加上适当的推理逻辑实现的。符号主义人工智能的目标是把人工定义的程序算法和规则放入计算机系统中。符号主义假设精神状态可以同时被物理地和符号地描述;物理式描述,如对信息的一系列物理性处理,符号式描述,包括符号操作,机械操作,比较,层次、推断。
在符号主义人工智能中,合理的计算视野包含在程序的语法中。机器可以解决实际问题,找到正确的解,或做出适当的决策,而不需要给它正确答案(比如机器学习中的样本),因为规则可以通过遵循计算器的推理推导出来。推理原则的语法和被操纵对象的语义都内置在计算器中,然而,这也限制了它的想象力——“智能”世界是由设计师实现的,受到监督,精准,明确,因此理性就是它的视野。符号主义在上世纪80年代曾经一度辉煌,后来由于缺乏有说服力的成果而进入寒冬。
下面说现在流行的联结主义。
从远古时代的故事可以一窥联结主义的思想。神经网络这个词由神经学家 Warren McCulloch 和
逻辑学家 Walter Pitts 在 1943 年提出,最初含义是指给人脑的神经网络进行数学建模。那篇文章可以看作联结主义的起源。其描述的是:神经元接受不同的输入,然后会计算出一个加权和。如果这个加权和超过一个阈值,会激发这个神经元。1949年神经学家 Donald O. Hebb 把神经网络和机器学习联系起来,他发现神经元之间通过突触信息被激活可以看作一个学习过程。
联结主义认为,人的智能是通过无数相连的神经节点以及阈值激活机制实现的。联结主义更多地让机器对数据进行归纳,而不是人为设计机器计算的规则。
我们的世界的构成经历了原子化和颗粒化的深刻运动。数据封装组成的关系,全局样式等的许多规律,它们必须由计算器,而不是愚蠢的程序员来识别,因此,联结主义的第一个特征是以尽可能最基本的形式将数据引入系统数据:像素,而非形式;频率,而非音素。
在联结主义模型中,计算的视野不属于计算器,而是属于给了它有标注样本的世界,也就是说,设计者尽可能地不为机器加入先验的假设。通过迭代地更新模型的参数,机器建立了对世界本身的预测。
当今流行的深度神经网络是联结主义人工智能的主要模型。
机器学习(Machine Learning)和深度学习(Deep Learning)是很常见的两个词,机器学习是实现人工智能常用的一类工程方法。
All models are wrong, but some are useful.
—George E. P. Box
所谓机器学习,几乎等同于统计学习,其基本理念认为,很多工程需求的本质是寻找一类数据的规律,而这一类的数据其生成过程必然满足某种复杂的函数。所以,我们只要收集足够的数据,利用数据对真实函数进行估计,就可以近似地解决问题。比如,图像分类任务,我们认为图像其类型和像素向量之间的关系可以用某种概率函数表示,所以我们就可以构建学习器,去拟合这个函数。
一般认为机器学习的任务有三种类型:监督学习(supervised learning), 无监督学习(unsupervised learning),强化学习(reinforcement learning)。监督学习,可以形式化地写为:
i
n
p
u
t
:
(
x
,
y
)
w
h
e
r
e
x
∈
X
,
y
∈
Y
t
a
s
k
:
t
o
l
e
a
r
n
f
:
X
→
Y
input:(x,y) \space where \space x\in X , y \in Y \newline task:to \space learn \space f:X\rightarrow Y
input:(x,y) where x∈X,y∈Ytask:to learn f:X→Y
通常y被称为数据x的标签(label),监督学习本质上学习的是x,y之间的关系。
无监督学习,可以形式化地写为:
i
n
p
u
t
:
x
w
h
e
r
e
x
∈
X
t
a
s
k
:
t
o
l
e
a
r
n
f
(
x
)
(
p
r
o
b
a
b
i
l
i
t
y
d
e
n
s
i
t
y
f
u
n
c
t
i
o
n
)
o
r
θ
(
f
(
x
)
)
w
h
e
r
e
θ
i
s
s
o
m
e
p
r
o
p
e
r
t
y
o
f
f
input:x \space where \space x\in X \newline task:to \space learn \space f(x)\newline (probability \space density \space function) or \space \theta(f(x))\newline where \space \theta \space is\space some \space property\space of f
input:x where x∈Xtask:to learn f(x)(probability density function)or θ(f(x))where θ is some property off
无监督学习本质上学习的是数据分布的性质。
强化学习的形式化写法比较麻烦,严谨地说,强化学习是一个马尔科夫过程的控制优化问题,此处暂时给出一个不严谨的数学形式:
i
n
p
u
t
:
a
n
e
p
i
s
o
d
i
c
t
a
s
k
a
n
d
a
n
e
v
a
l
u
a
t
i
o
n
c
r
i
t
e
r
i
o
n
o
u
t
p
u
t
:
a
c
o
n
t
r
o
l
p
o
l
i
c
y
input:an \space episodic\space task\space and\space an\space evaluation\space criterion \newline output: a\space control policy
input:an episodic task and an evaluation criterionoutput:a controlpolicy
其本质是根据对任务的完成情况的反馈找到最优策略。
在传统机器学习时代,针对某个具体的任务,直接由最初始的数据是很难学习到其规律的,所以机器学习通常分为以下几步:收集数据—特征工程—训练模型。所谓特征工程,就是根据人类经验,手动对原始数据进行一定的变换,以此提高机器学习的效果,那个时候,使用机器学习的公司通常需要一些专业的、有经验的特征工程师专门进行特征的变换。
所谓深度学习,从原理上讲,是机器学习的一个种类,可以转述为使用人工神经网络(Artificial Neural Network)的机器学习。ANN的发展受到的生物学的启发,前面联结主义的部分有一些具体地介绍。这就有了最早的深度学习模型:全连接神经网络(Fully-connected Neural Network)以及relu函数。20世纪80-90年代,针对序列任务的RNN被提出,并且利用LSTM机制部分解决了长程依赖的问题;1998年,Yann LeCun及其合作者构建了一种针对图像的的神经网络—卷积神经网络(Convolutional Neural Networks),并且在手写图片识别任务上取得了较大的成功。近几年,Attention等新的网络类型在语音及图像领域也取得了一些新的突破。
相比传统机器学习模型,神经网络最大的特点是参数多、训练时间长、模型复杂,一般认为,其模型本身可以实现特征抽取的功能,也就是说,其模型学习能力足够强,以至于完全可以舍弃传统机器学习算法的特征工程部分,这就使得以往需要丰富的经验才能完成的机器学习算法可以被更多的程序员和公司所使用。
大规模神经网络的出现,是一种发展的必然,随着数据量的爆炸和计算能力的指数级增长,机器学习必然会走向更复杂的模型和更大规模的训练,即使不出现神经网络,也会出现某种其他的网络。
2012年,深度学习模型AlexNet在ImageNet分类任务中达到了17%的准确率,而此前比赛第一名的错误率是27.3%,第二名是27.18%。人们发现深度学习模型原来如此强大,于是学界开始尝试深度学习在机械控制、图像识别、自动价值、自然语言处理等各领域的应用,并且取得了巨大的成就。当然,真正使深度学习出现在公众眼里的还是AlphaGo战胜李世石的新闻,那已经是2016年了。
我们可以看到,以上所有进步可以总结为深度学习模型效果的提升,为什么一定要用人工智能这个词呢?当然是因为听起来很酷。
有生之年很难见到。
首先我也没入过行,但是单从知识角度讲,需要学的基础课有:微积分、线性代数、基本的python编程;然后就可以从周志华的《机器学习》开始慢慢看各种书。(最简单的路径)
对于机器学习,建议了解其思想,知道它在什么领域能用就行,说不定哪天就可以和本行结合起来。(我也见到物理、生物等领域用机器学习算法发论文的)
个人观点:在某些领域商业化已经比较成功了,比如图像识别、语音识别、自动驾驶等,但是基础理论还很不完善,可能下一个突破会出现在我们可以对神经网络进行较好的数学建模的时候。
这可能是最简单易懂的机器学习入门https://blog.csdn.net/qq_28168421/article/details/81351321
Yan LeCun强推的AI简史:两大流派世纪之争,神经网络华丽回归https://www.jiqizhixin.com/articles/2018-12-11-20
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。