人类是建筑能手,从原始社会搭个鸡窝垒个猪圈,到现代人建设的高楼大厦、巨型桥梁,人们建设家园的能力越来越强。然而,随着我们面对的任务越来越复杂,传统建筑学方法越来越显示出局限性。以修建一座商业中心为例,需要考虑结构、功能、安全性、成本、工期等各种复杂因素,往往需要一个大规模团队才能完成。那么,如果是一
现代人工智能系统离不开数据。打个比方,人生下来是一张白纸,通过读书学习,慢慢掌握了各种知识。机器也是一样,刚开始只有非常基础的功能,当消化了大量数据以后,就变得越来越聪明了。从这个意义上说,数据就是人工智能成长所需要的粮食。 那么,要“养成”一个人工智能系统,需要什么样的数据作为它的“粮食”呢? 这
人工智能给人两种截然不同的印象,一种是聪明无比,下象棋、下围棋、证明定理、设计新药,几乎无所不能;另一种是笨的要命,明明是一条狗,机器却硬说它是一辆车。因此,人工智能也有个别名,称为“人工智障”。 那么,到底是智能还是智障呢? 这还得从人工智能的基本原理说起。人工智能,本质上是用计算来模拟人的思维,
不知道各位有没有这样的体验:刚刚和同学、同事讨论个什么事,然后打开手机搜索某度或某宝,屏幕上赫然出现了刚才讨论的新闻或产品。贴不贴心,惊不惊喜? 这件事细思极恐,说明和我们朝夕相处的手机可能是个窃听者,不论我们说点儿啥,他都偷偷记录下来。不仅如此,他还可能将记录下来的内容分发出去,来个广而告之。如果
所有事情具有多重属性:一只小鸟,我们看到它振翅的模样,听到它啾啾的鸣声,触摸起来有温柔的绒毛感觉。再比如,一只西瓜,样子是圆圆的,敲起来有嘭嘭的声音,尝一口甜美多汁。在很多情况下,我们需要利用多重属性,才能对事物有很好的认知。例如,圆圆的未必是西瓜,还可能是地雷;但如果圆圆的还甜美多汁,就不太可能是
Deepfakes 2017年在互联网上流传开来,引起轩然大波。 什么是Deepfakes呢?翻译过来是“深度造假”,直白一些的说法就是给图片或视频的主角换脸。比如一段奥巴马的演讲,换上自己的模样,是不是很有成就感?然而,如果是一段色情视频呢? 图1:Deepfakes实现换脸[1] 给图片或视频换
显微镜是生物学家的利器,然而要得到高精度的显微成像并不容易。这是因为高精度成像需要昂贵的硬件且受实验条件限制,特别是对活体细胞、组织进行成像时,往往要求成像过程不能对原有的生物学特性产生影响,并且不能影响样本的健康状态。例如,在活体荧光成像中,就必须考虑光毒性的影响。 近日的自然-机器智能杂志发表了
当前人工智能技术在某些领域已经取得了不错的精度,然而几乎在所有任务上,人工智能还相当脆弱。例如,人脸识别虽然在测试集上可达到99.9%以上的精度,但在现实场景中经常会发生误识别;语音识别,在安静环境下识别率可达到97%以上,但在嘈杂环境中识别率会显著下降。 我们不得不接受人工智能系统会犯错误的事实,
随着技术的发展,人脸识别已经达到可实用的精度,成为便捷的身份认证工具,广泛应用在高铁安检、小区入户、银行取款,手机转账等各个场景。然而,人脸识别也存在很高的风险,需要提高警惕。 首先,人脸直接暴露在外,极易取得,仿冒风险很高。虽然通过一些技术措施可以降低这一风险(如通过眨眼、转头等动作进行活体检测或
早在17世纪,数学家莱布尼兹就认为大量的人类推理可以被归约为某类运算,这一思想可能是人工智能的最早起源。他曾思考过这么一个问题:“是否存在一种有效的计算方法,可以判断一个逻辑表达式的真或假?”这一问题后来被希尔伯特和阿克曼于1928年形式化为一个判定问题(Entscheidungsproblem )
机器学习任务可以大体上分为两大类:一类是预测型的,基于观察数据对类别或其它变量进行预测,主要包括分类任务和回归任务;另一类是描述型的,通过估计数据的概率分布来描述数据的自有特性,主要包括聚类任务和流形学习任务。 所谓回归(Regression),是指给定一个变量集A,基于A中变量的取值来预测另一个变
机器学习任务可以大体上分为两大类:一类是预测型的,基于观察数据对类别或其它变量进行预测,主要包括分类任务和回归任务;另一类是描述型的,通过估计数据的概率分布来描述数据的自有特性,主要包括聚类任务和流形学习任务。 在这些任务中,分类具有重要地位,我们日常生活中遇到的问题大部分是分类问题,如识别车牌号、