第一次人工智慧泡沫后,研究领域转为「机器学习」

然而问题来了──机器程序是由人类撰写出来的,当人类不知道一个问题的解答时,机器同样不能解决人类无法回答的问题。另一个问题是当时电脑的计算速度尚未提升,储存空间也小,数据量更不足够。于是对人工智能的研究方向局限于逻辑数学领域,加上硬体环境上的困境,使早期人工智慧能解一些代数题和数学证明,难以在实务上有所应用。

在1970年代末时,一些知名研发计画如纽厄尔和西蒙的“通用问题解决机”和日本政府领头的“第五代电脑系统”达不到预期效果时,人工智慧开始被人们视为一场现代炼金术,企业与政府纷纷撤资,研究基金被削减,多个计画被停止,迎来了人工智慧的第一场寒冬期。

虽然此时人工智慧的研究迈入了瓶颈,但是电脑硬体却是以指数型的方式进步。

1965年英特尔创始人摩尔观察到半导体晶片上的电晶体每一年都能翻一倍;到了1975年,这个速度调整成每两年增加一倍,电脑的运算能力与储存能力同时跟着摩尔定律高速增涨。

如今,电脑的运算能力约为30年前的100万倍。(此段介绍欢迎参考晶圆代工争霸战:半导体知识一文)

我们上面提到,早期的人工智慧研究聚焦在逻辑推论的方法,专注于模仿人类推理过程的思考模式,需要百分之百确定的事实配合,实务上应用困难。

但,有没有可能换一个思考模式,比如用统计机率学来处理人工智慧的问题呢假设一个命题为:「?某个特定事件会发生吗」同样是判断「是」或「否」的二分法,数学逻辑的思考方式是证明TRUE或FLASE。

但我们也能用机率来量化对于某些不确定命题的想法,想法改为:“我们可以多确定这个事件会发生?”确定的程度可以用0到1之间的数值来表示。

如果你一路读完电脑科学领域的初始发展,知道图灵,冯纽曼等巨头,与纽厄尔等早期图灵奖(电脑科学界最高荣誉)得主的研究方向,到如今人们对于人工智慧研究的思想转变,会发现……这可是多大的突破!

这就是时下热门的话题「机器学习」(机器学习)
「机器学习」是一门涵盖电脑科学,统计学,机率论,博弈论等多门领域的学科,从1980开始蓬勃兴起。机器学习之所以能兴起,也归功于硬体储存成本下降,运算能力增强(包括本机端与云端运算),加上大量的数据能做处理。

发表评论

电子邮件地址不会被公开。 必填项已用*标注