马老师教AI:第三篇 计算机是如何找到最优路径的(二)

第三篇 计算机是如何找到最优路径的(二) 清华大学计算机系 马少平 第二节:宽度优先搜索算法 艾博士:小明,我们首先从宽度优先算法开始介绍。所谓宽度优先算法,就是选择节点深度最浅的节点优先扩展。 小明:什么是节点深度呢? 艾博士解释说:在搜索图中,第一个节点称作根节点,根节点的深度为0,其他节点的深

AI光影社 Published on 2025-03-07

马老师教AI:第三篇 计算机是如何找到最优路径的(一)

第三篇 计算机是如何找到最优路径的(一) 清华大学计算机系 马少平 艾博士导读 最优路径问题是人工智能研究中的一个重要问题,很多问题都可以转化为最优路径求解问题,如语音识别、汉字识别后处理、拼音输入法等。

AI光影社 Published on 2025-03-07

马老师教AI:第二篇 计算机是如何学会下棋的 (八)

第二篇 计算机是如何学会下棋的(八) 清华大学计算机系 马少平 第八节:总结 艾博士:小明,关于计算机如何学会下棋的,我们就介绍这么多,请你总结一下,我们都讲了哪些内容? 小明边回忆边回答说:还是讲了很多内容的,让我总结一下。 (1)通过一个简单分钱币问题引出了计算机下棋问题。对于简单的下棋问题或许

AI光影社 Published on 2025-03-07

马老师教AI:第二篇 计算机是如何学会下棋的 (七)

第二篇 计算机是如何学会下棋的(七) 清华大学计算机系 马少平 第七节: AlphaGo Zero是如何自学成才的 艾博士继续介绍说:AlphaGo Zero是继AlphaGo之后的一个升级版本,完全抛弃了人类数据,实现了从零学习,这也是其名称的由来,英文“Zero”是零的意思。 小明不解地问:从零

AI光影社 Published on 2025-03-07

马老师教AI:第二篇 计算机是如何学会下棋的 (六)

第二篇 计算机是如何学会下棋的(六) 清华大学计算机系 马少平 第六节:围棋中的强化学习方法 小明:艾博士,听说AlphaGo还采用了一种左右手互博的学习方法?

AI光影社 Published on 2025-03-07

马老师教AI:第二篇 计算机是如何学会下棋的 (五)

第二篇 计算机是如何学会下棋的(五) 清华大学计算机系 马少平 第五节:AlphaGo是如何下棋的 艾博士继续讲到:蒙特卡洛树搜索方法于2006年被应用于计算机围棋中,使得计算机围棋的水平有了质的飞跃,可以达到业余中高手的水平,可以说是计算机围棋发展史上的一个里程碑。但是,距离职业棋手的水平还有很大

AI光影社 Published on 2025-03-07

马老师教AI:第二篇 计算机是如何学会下棋的 (四)

第二篇 计算机是如何学会下棋的(四) 清华大学计算机系 马少平 第四节:蒙特卡洛树搜索 小明听完艾博士的讲解,赞叹到:看起来α-β剪枝算法的效果还是非常显著的,但是为什么一直没用应用于围棋呢? 艾博士:α-β剪枝算法不仅是在国际象棋上取得了成功,在中国象棋上也取得了成功。前面介绍过的浪潮杯中国象棋人

AI光影社 Published on 2025-03-07

马老师教AI:第二篇 计算机是如何学会下棋的 (三)

第二篇 计算机是如何学会下棋的(三) 清华大学计算机系 马少平 第三节:α-β剪枝算法 听了艾博士说的结论,小明不免有些沮丧:原来以为这样就可以实现计算机下棋了,原来还是不行啊。 艾博士回答说:小明你不要沮丧,有困难不怕,想办法解决就是了。请再想想,刚才你提到你下棋时只能考虑4、5步,但是这4、5步

AI光影社 Published on 2025-03-07

马老师教AI:第二篇 计算机是如何学会下棋的(二)

第二篇 计算机是如何学会下棋的(二) 清华大学计算机系 马少平 第二节:极小-极大模型 艾博士接着问小明:你会下象棋,请说说你在下棋时是如何考虑走哪步棋的?

AI光影社 Published on 2025-03-07

马老师教AI:第二篇 计算机是如何学会下棋的(一)

第二篇 计算机是如何学会下棋的(一) 清华大学计算机系 马少平 前言 近些年来,人工智能发展很快,再一次掀起了高潮,逐渐渗透到各行各业、各个领域,学习人工智能相关技术的人也越来越多,市面上也出现了很多非常出色的相关书籍。但也经常听到一些朋友抱怨,说这些书太专业了,读起来比较费劲。为此,我利用各种机会

AI光影社 Published on 2025-03-07

马老师教AI:第一篇 神经网络是如何实现的(十)

第一篇 神经网络是如何实现的(十) 清华大学计算机系 马少平 第十节:深度学习框架 小明:艾博士,我看这些神经网络越来越复杂,都是用BP算法求解。我看了一些BP算法的推导过程,还是挺复杂的,网络有些变化就可能需要重新推导,而在实验过程中可能会做很多尝试,这样每次都重新推导BP算法岂不是太麻烦了? 艾

AI光影社 Published on 2025-03-07

马老师教AI:第一篇 神经网络是如何实现的(九)

第一篇 神经网络是如何实现的(九) 清华大学计算机系 马少平 第九节:长短期记忆网络 艾博士:我们到目前介绍的循环神经网络中,每个子网络还比较简单,存在不少问题。比如当句子比较长时,也存在类似梯度消失的问题,只是这种梯度消失

AI光影社 Published on 2025-03-07
Previous Next