深度学习正在改变我们看待技术的方式。人工智能(AI)及其分支机构(即机器学习(ML)和深度学习)目前有很多值得的兴奋点。
在日常生活中,我们如果需要常常往返A地区和B地区之间,我们最希望知道的可能是从A地区到B地区间的众多路径中,那一条路径的路途最短。
线性代数的概念对理解机器学习背后的理论至关重要,特别是对于深度学习。它让你更直观地了解算法如何在真正的工作环境下工作,从而使你能够做出更好的决策。
近日,在第二届 TensorFlow 开发者峰会上,谷歌重磅发布了多款产品,其中最引人关注的是 TensorFlow.js,一款为 JavaScript 开发者提供的新机器学习框架。它不仅可以完全在浏览器里定义和训练模型,还可以导入离线训练的 TensorFlow 和 Keras 模型进行预测,并对 WebGL 实现无缝支持。
在互联网公司强势入局语音智能领域之后,面对众多语音智能开放平台,国内的语音识别大厂,比如科大讯飞、思必驰、云知声.....也只好走上开放之路,相比于互联网公司多年的技术积累,这些语音识别技术大厂又有哪些必杀技呢?在免费、开放的条件下,开发者如何选择合适的平台添加语音能力到自己的产品中呢?
目前,深度学习受到大规模的炒作,人们恨不得在各个地方都使用神经网络,但确实在每一个地方都适用么?我们将在下面的章节中进行讨论,阅读完它后,您将知道神经网络的主要缺点,并且当您为当前的机器学习问题选择正确类型的算法时,您将有一个粗略的指导原则。您还将了解我们现在面临的机器学习中的主要问题。
讲一个最简单的例子吧。用神经网络识别MNIST数据集中的手写数字图像。
本文介绍了图像处理,自然语言处理,以及音频/语音处理三类25个开源数据集。
现如今,在火爆的人工智能领域,面临的最窘迫的问题是越来越庞大的产业规模和国家每年约500万的相关人才需求的矛盾。广阔的发展前景、巨大的人才缺口和令人心动的行业薪资,让越来越多的年轻人选择了进入这一行业。
TensorFlow是Google开发的开源软件库,用于机器学习。它能够在所有Linux、Windows和MacOS平台上的CPU和GPU上运行。 Tensorflow可用于设计、实施和训练受大脑结构和功能启发的深度学习模型。
手机二维码太普通,换来换去还是不好看。何不自定义一个自己喜欢的呢?近日,郑州大学、浙江大学、微软亚洲研究院、北京航空航天大学的研究者发布论文,提出一种设计个性化的艺术风格二维码的方法,通过三步自定义独特二维码,并且能保持扫描成功率。
吴恩达在推特上展示了一份由 TessFerrandez 完成的深度学习专项课程信息图,这套信息图优美地记录了深度学习课程的知识与亮点。因此它不仅仅适合初学者了解深度学习,还适合机器学习从业者和研究者复习基本概念。机器之心认为这不仅仅是一份课程笔记,同时还是一套信息图与备忘录。下面,我们将从深度学习基础、卷积网络和循环网络三个方面介绍该笔记,并提供信息图下载地址。
这年头,谈话间,不夹杂点“人工智能”,“机器学习”,“深度学习”这样的字眼,就跟九十年代追不上互联网的时髦一样——丢份!可是呢,说白了,真正懂行的没几个,真的没几个。
本次实验主要是练习soft- taught learning的实现。Soft-taught leaning是用的无监督学习来学习到特征提取的参数,然后用有监督学习来训练分类器。
最近在用matlab处理稍大的数据时,老是出现out of memory红色字眼,恼火死了。因为自己使用的是XP系统,物体内存只有2G。XP系统默认情况下只允许给一个进程分配最大2G的内存,所以即使是增加了系统的虚拟内存,那么在matlab下这些内存也是用不到的。
这篇文章主要是用来练习softmax regression在多分类器中的应用,关于该部分的理论知识已经在前面的博文中有所介绍。本次的实验内容主要完成的是手写数字识别,采用的是MNIST手写数字数据库。
在前面的logistic regression博文中,我们知道logistic regression很适合做一些非线性方面的分类问题,不过它只适合处理二分类的问题,且在给出分类结果时还会给出结果的概率。那么如果需要用类似的方法来处理多分类问题的话该怎么扩展呢?
现在来用PCA,PCA Whitening对自然图像进行处理。实验数据是从自然图像中随机选取10000个12*12的patch,然后对这些patch进行99%的方差保留的PCA计算,最后对这些patch做PCA Whitening和ZCA Whitening,并进行比较。
这节主要是练习下PCA,PCA Whitening以及ZCA Whitening在2D数据上的使用,2D的数据集是45个数据点,每个数据点是2维的。
PCA并不是线性回归,因为线性回归是保证得到的函数是y值方面误差最小,而PCA是保证得到的函数到所降的维度上的误差最小。另外线性回归是通过x值来预测y值,而PCA中是将所有的x样本都同等对待。