当前位置: 首页 > news >正文

可以自己做网站卖东西wordpress常用模板

可以自己做网站卖东西,wordpress常用模板,如何给自己的网站做优化,深圳住 建设局网站首页转 https://www.zhihu.com/question/36324957 https://www.zhihu.com/question/36324957/answer/139408269 机器学习应该准备哪些数学预备知识#xff1f; 数据分析师#xff0c;工作中经常使用机器学习模型#xff0c;但是以调库为主。 自己一直也在研究算法#xff0c;也…转 https://www.zhihu.com/question/36324957 https://www.zhihu.com/question/36324957/answer/139408269 机器学习应该准备哪些数学预备知识 数据分析师工作中经常使用机器学习模型但是以调库为主。 自己一直也在研究算法也裸写过一些经典的算法。 最近在看PRML这类书籍感觉有点吃劲主要是公… 关注者 4828 被浏览 181671 48 个回答 机器之心 1 欢迎关注我们的微信公众号机器之心almosthuman2014 机器之心整理 本文作者依据自身经验给出了一套快速上手的可行方法及学习资源的分类汇总机器之心在其基础上做了增益希望对读者有所帮助。 先决条件机器学习的基础是数学。数学并非是一个可选可不选的理论方法而是不可或缺的支柱。如果你是一名计算机工程师每天使用 UML、ORM、设计模式及其他软件工程工具技术那么请闭眼一秒钟忘掉一切。这并不是说这些概念不重要绝不是但是机器学习需要一种不同的方法。如今 Python 如此流行的原因之一是其「原型设计速度」。在机器学习中一种使用几行代码即可建模算法的语言绝对是必要的。 微积分、线性代数、概率论在机器学习几乎所有算法中不可或缺。如果你的数学背景很扎实请跳过这一章节。如若不然那么重新温习一下这些重要概念也不错。考虑到理论的数量我并不建议大家从大部头开始。尽管一开始可以用它查询具体概念但是初学者先关注简单的话题比较好。网上有很多好的在线资源比如 Coursera、可汗学院或优达学城实用且适合各种背景的人群。但是我建议从提纲之类的简明书籍上手其中所有核心概念均被涉及次要概念可在需要的时候自行查询。这种方法虽然不够系统但却避免了这样的缺陷大量晦涩概念使得没有扎实理论背景的人望而却步。 初学者最好先学习下列内容 概率论 离散型和连续型随机变量主要分布伯努利分布、二项式分布、正态分布、 指数分布、 泊松分布、Beta 和 Gamma 分布矩估计和最大似然估计贝叶斯统计相关性系数和协方差Correlation and Covariance线性代数 向量和矩阵矩阵的行列式特征向量和特征值矩阵分解如 SVD微积分 极限与导数微分和积分数值计算与最优化方法网上有很多免费资源比如 《概率论入门》Grinstead、Snell 著https://www.dartmouth.edu/~chance/teaching_aids/books_articles/probability_book/amsbook.mac.pdf《线性代数入门》Wise、Gallagher 著http://www.stat.columbia.edu/~liam/teaching/4315-spr06/LinAlg.pdf《微积分入门》Heinbockel 著http://www.math.odu.edu/~jhh/Volume-1.PDF维基百科上也有很多好资源对方程、定理等进行了清晰易懂的解释。 机器之心也介绍过许多数学基础与概念 基础入门深度学习矩阵运算的概念和代码实现想了解概率图模型你要先理解图论的基本定义与形式深度神经网络中的数学对你来说会不会太难Reddit 热门话题如何阅读并理解论文中的数学内容机器学习主要需要的数学基础就是微积分、线性代数、概率论我们感觉只需要掌握大学中常见的高数、线性代数、概率论与数理统计三门课程基本上概念的理解就没什么问题了。如果再学一点数值计算和最优化等我们基本上就能理解机器学习的学习过程推导。 机器学习方法建议面向初学者 特征工程 开始机器学习的第一步是理解如何评估和改进数据集的质量。管理特征的类别和缺失、归一化和降维PCA、ICA、NMF是大幅提高算法性能的基本技术而且还有助于研究如何将数据集分割成训练集和测试集、如何采取交叉验证来取代传统的测试方法。 机器之心也曾详解过特征工程如 PCA 降维算法的详细理论与推导当然我们还介绍了其它有关特征的概念 从特征分解到协方差矩阵详细剖析和实现PCA算法基于TensorFlow理解三大降维技术PCA、t-SNE 和自编码器 似乎没区别但你混淆过验证集和测试集吗NumpyPython 数值计算之王 使用 Python 时Numpy 不仅仅是一个库。它是几乎所有机器学习实现的基础因此了解它的工作原理、关注向量化和广播broadcasting是非常必要的。这些技术可以帮助加速大多数算法的学习过程利用多线程和 SIMD、MIMD 架构的力量。 官方文档已经很完整了不过我还建议大家看一下以下资源 《Python 数据科学手册数据使用的核心工具》VanderPlas J. 著《Python 科学编程入门书》LangTangen P. H. 著维度、广播操作与可视化如何高效使用TensorFlow数据可视化 Matplotlib 即使不是纯粹的机器学习话题了解如何可视化数据集也很重要。Matplotlib 可能是最广泛使用的解决方案Matplotlib 易用允许绘制不同种类的图表。Bokeh 和 Seaborne 提供了有趣的替代方案。不必要彻底了解所有包但是了解每一个包的优点和弱点还是很有用的可以帮助你选择合适的包。 了解 Matplotlib 细节的资源《掌握 Matplotlib》McGreggor D. 著 线性回归 线性回归是最简单的模型之一可以把它作为一个优化问题来研究该问题可通过最小化均方误差而得到求解。该方法虽然有效但是限制了可利用的可能性。我建议还可以把它当作贝叶斯问题使用之前的可能性展示参数比如高斯分布优化变成了最大似然估计Maximum Likelihood EstimationMLE。即使这看起来更加复杂但该方法提供了一个可供几十个其他复杂模型共享的新方法。 Coursera 上介绍贝叶斯统计的课程 《贝叶斯统计从概念到数据分析》https://www.coursera.org/learn/bayesian-statistics/《贝叶斯统计技术与模型》https://www.coursera.org/learn/mcmc-bayesian-statistics以及这两本书 《思考贝叶斯》Downey B. A. 著《黑客的贝叶斯方法》Davidson-Pilon C. 著包括线性回归在内机器之心曾介绍了一些解决回归问题的方法后文提供了 CART 算法进行回归分析 初学TensorFlow机器学习如何实现线性回归 回归、分类与聚类三大方向剖解机器学习算法的优缺点附Python和R实现线性分类 通常情况下Logistic 回归是最佳起始点也是研究信息论进而了解信息熵、交叉熵和互信息的好机会。类别交叉熵Categorical cross-entropy是深度学习分类中最稳定、使用最广泛的代价函数一个简单的 logistic 回归可以展示它是如何加速学习过程的与均方差相比。另一个重要的话题是正则化Ridge、Lasso 和 ElasticNet。很多情况下人们认为它是一种提高模型准确率的深奥方式但是它的真实意义是更准确在具体实例的帮助下变得易于理解。我还建议刚开始的时候把 logistic 回归当作一个简单的神经网络可视化以 2D 实例为例权重向量在学习过程中的移动轨迹。 我还建议本节应包括超参数网格搜索。网格搜索不在没有完整了解的情况下尝试不同的值而是评估不同的超参数集的性能。因此工程师可以将注意力集中在可达到最高准确率的组合上。当然还有更加强大的贝叶斯优化方法即利用先验知识逼近未知目标函数的后验分布从而调节超参数的方法。 从头开始用Python实现带随机梯度下降的Logistic回归 如何通过牛顿法解决Logistic回归问题拟合目标函数后验分布的调参利器贝叶斯优化支持向量机SVM 支持向量机提供了不同的分类方法包括线性和非线性方法。该算法非常简单具备基础几何知识的人也可以学会。不过了解核支持向量机的工作原理非常有用因为它会在线性方法失败的时候展示出其真正实力。 一些有用的免费资源 《支持向量机简明教程》Law 著核函数方法维基百科词条详解支持向量机SVM快速可靠的分类算法详解支持向量机附学习资源决策树 决策树提供了另一种分类和回归的方法。通常它们不是解决复杂问题的首选但它们提供了完全不同的方法即使是非技术人员也可以很容易理解该方法还可以在会议或演示中可视化。 教程 | 从头开始用Python实现决策树算法从决策树到随机森林树型算法的原理与实现 集成学习一览 在理解了决策树的动态特性以后研究集成训练树的集集成来提高整体准确率的方法很有用。随机森林、梯度树提升和 AdaBoost 都是强大的算法且复杂度较低。对比简单的树和提升方法与 bagging 方法采用的树的学习过程挺有趣的。Scikit-Learn 提供了最常见的实现方法但是如果你想更好地驾驭这些方法我还是建议你在 XGBoost 上多花些时间XGBoost 是一个既适用于 CPU 又适用于 GPU 的分布式框架即使在较大的数据集上也能加速学习过程。 从Boosting到Stacking概览集成学习的方法与性能聚类 当开始聚类方法的学习时我的建议是从高斯混合算法基于期望最大化/EM学起。虽然 K-均值聚类要更加简单易懂也是必须要学习的但是高斯混合算法为我们提供了纯粹的贝叶斯方法在其他类似任务中也十分实用。其它必学的算法还有层次聚类Hierarchical Clustering、谱聚类Spectral Clustering和 DBSCAN。这对你了解基于实例的学习或研究 K-近邻算法既适用于有监督又适用于无监督任务也是有帮助的。谱聚类的一个有用的免费资源是 《谱聚类教程》Von Luxburg U 著聚类算法是无监督学习中的代表机器之心也曾详细地介绍过各种聚类方法与实现 机器理解大数据的秘密聚类算法深度详解综述分类、聚类和信息提取算法在文本挖掘领域内的应用 如何用Python和机器学习炒股赚钱神经网络入门 神经网络是深度学习的基础你可以在单独的课程中学习神经网络。但是我认为理解感知机、多层感知机以及反向传播算法的概念也很有帮助。Scikit-Learn 提供了一个实现神经网络的简单方法但是开始探索 Keras 也是一个好主意Keras 是一个基于 Tensorflow、Theano 或 CNTK 的高级架构允许使用最少的努力对神经网络进行建模和训练。开始神经网络学习的一些好资源 《人工神经网络基础》Hassoun M 著《Keras 深度学习》Gulli A.、 Pal S. 著目前最好的深度学习书籍可能就是 《深度学习》Goodfellow I.、 Bengio Y.、Courville A. 著最全的DNN概述论文详解前馈、卷积和循环神经网络技术机器之心GitHub项目从零开始用TensorFlow搭建卷积神经网络深度神经网络全面概述从基本概念到实际模型和硬件基础训练的神经网络不工作一文带你跨过这37个坑 TensorFlow从基础到实战一步步教你创建交通标志分类神经网络神经网络快速入门什么是多层感知器和反向传播教程 | 如何用30行JavaScript代码编写神经网络异或运算器神经网络调试手册从数据集与神经网络说起神经网络基础七种网络单元四种层连接方式如何从信号分析角度理解卷积神经网络的复杂机制神经网络架构演进史全面回顾从LeNet5到ENet十余种架构附论文 麻省理工解读神经网络历史三篇论文剖析基础理论最后我们将介绍部分机器之心曾发过的综述性技术文章或论文并希望这些文章能对大家全面理解各种方法有所帮助 自动驾驶计算机视觉研究综述难题、数据集与前沿成果一文帮你发现各种出色的GAN变体深度强化学习综述从AlphaGo背后的力量到学习资源分享从FPS到RTS一文概述游戏人工智能中的深度学习算法视觉问答全景概述从数据集到技术方法神经风格迁移研究概述从当前研究到未来方向从语言学到深度学习NLP一文概述自然语言处理 迁移学习全面概述从基本概念到相关研究一文综述所有用于推荐系统的深度学习方法一文读懂遗传算法工作原理附Python实现从自编码器到生成对抗网络一文纵览无监督学习研究现状 编辑于 2017-09-20 知乎用户 Andrew Ng的课算是有良心了。 简单版去coursera上看每周会有optional的section就是补基础知识。 同样内容广度深度更野一点搜CS229 Stanford。这是coursera那门课的真正形态。 网站里有个链接叫handouts。section notes里面都是周五TA section的东西。这门课每周五会有一个TA带着大家补基础知识的section。 基础知识和目标知识不要分开来看看到问题了再去补不然干看基础知识没有实际应用的理解效果很不好。想想高中数学和后来的高数哪些不是好东西但不配合应用去学没什么效果。 这门课相当成熟每堂课都有完全拿你当SB一样详细的note pdf。强烈推荐。 不建议系统的看数学书如果你上过数学课的话。看书太费时间了而且还是那句话不是learn by doing看十成记五成理解也就三成吧。 编辑于 2015-10-09 知乎用户 取决于你想学的程度只是想混口饭吃没有太多必要花很多时间补别的东西不用看懂证明你知道的大概能用软件做出个结果就够了。 想认真学的话1. 数学方面微积分、矩阵论矩阵这一块了解的越多对你推倒计算方面能力的提升提高非常多。当然只想看懂不要求证明的话本科的线性代数够用了(我指的是真的好好学线性代数...) 2. 凸优化这一块的重要性非常显然了比如你连牛顿法、梯度下降法、一维搜索等基本的凸优化都不了解 的话会非常吃力。但短期来说的话基本上Boyd的convex optimization懂前三章就够用了。 3.概率、统计对基本的期望啊mean啊之类的计算极大似然bayes多元正太等很多相关方面的统计一定要比较熟悉否则对涉及统计和对数据的直觉上会差很多。 4.泛函我本科没好好学泛函到学到一些ML的方法比如kernel相关的方法的时候就凸显出来对泛函不熟对函数空间理解不够的话会比较吃力。但重要性上比如前面几个方面。 但我整体想说的是对于大多数只学过微积分线性代数基本统计的人不大会有时间和精力说把上面这些一门一门学了才开始学ML大多数时候都是慢慢去补的。比如上面有人提到Andrew Ng的coursera课程上会有一些hangouts。这是一个很好的比较快速掌握急切所需的东西的方面。毕竟上面每一门课都需要花很多时间去学。但是如果你能真的好好学了之后再回过头来把ML再学一遍你收获一定会多的多 编辑于 2015-10-17 Jiawei Fan 机器学习最近和数学好上了的弱弱。。。 --2015-10-13 再更新--哦对了正文里面提到了三种矩阵变换下面给大家玩一个趣味题目(✿◡‿◡)以下两个图分别对应了“三种矩阵变换”里的哪种矩阵变换然后你可以猜猜这两个变换矩阵具体值是多少提示很特殊的矩阵哦~~~~--2015-10-13 更新-- 感谢那么多童鞋的点赞第一次在知乎上拿到100的赞O(∩_∩)O~~ 有加我微信的童鞋有好多问我要机器学习资料的我就在这里统一回复一下 书籍的话大家自行百度“书名pdf微盘”应该都有当年我就是这么下的 机器学习 斯坦福大学公开课 机器学习课程 Pattern Recognition and Machine Learning 线性代数 麻省理工公开课线性代数 Introduction to Linear Algebra, 4th edition ,GILBERT STRANG 凸优化 Convex Optimization,Stephen Boyd 概率这边我就不单独推荐书籍了一方面自己没有遇到非常惊艳的相关书籍大家可以推荐给我另一方面无论ng的公开课还是prml概率部分还是蛮详细的个人经验是概率部分不是非常需要单独学习。 ---------------------------- 题主好关注你已经有些时间了是一个执着于数据领域的人。恰好我本人的业余时间几乎都用来学习prml了目前大概看了8个章节每个章节大概精读较好地理解三分之二的内容所以就回答一下这个问题。 首先题主说的没错线性代数和微积分都是必要的但是初学者容易割裂地看待它们以及机器学习不清楚哪些线性代数微积分的知识才是掌握机器学习数学推导的关键。一样我也走过并继续在走很多弯路就说说我的感受吧大家一起探讨探讨。 线性代数内容 推荐Introduction to Linear Algebra,4th edition 网易公开课地址麻省理工公开课线性代数 作者讲课者麻省理工的一个非常有趣幽默人格魅力爆棚解析集聚洞察力直指根本把国内大部分线性代数教材轰的渣也不剩的老教授Gilbert Strang。 1 理解矩阵变换 矩阵变换简单的说就是x-AxA矩阵把原空间上的向量x映射到了Ax的位置看似简单实在是奥妙无穷。 1.1 A可以是由一组单位正交基组成那么该矩阵变换就是基变换简单理解就是旋转坐标轴的变换PCA就是找了一组特殊位置的单位正交基本质上就是基变换。 1.2 A可以是某些矩阵它们在某些特殊的方向上只对x做了收缩拉伸变换而没有改变方向简单来说就是这些特殊的方向x就是特征向量而就是收缩拉伸的量描述了这些特殊的方向上的变换后其实我们很容易画出这种矩阵变换的几何图解。 1.3 A可以是投影矩阵把x投影到某个直线上或者某个subspace上线性回归模型有最小二乘解释最小二乘可以由极大似然函数推得当然还能用投影矩阵解释。 2 理解对称矩阵的特征向量特征值分解 2.1 对称矩阵特征分解是理解多维高斯分布的基础 要理解多维高斯分布需要四个知识等值面对称矩阵特征分解正交基变换多维椭圆方程 2.2 对称矩阵特征分解 对称矩阵特征分解可以直截了当的导出矩阵对角化的公式而对协方差矩阵的对角化又是PCA的核心数学知识 理解PCA的数学基础协方差矩阵对角化基变换矩阵。 3 一些线性代数的嗅觉素养 其实很多感觉是逐步形成的 比如n维向量x乘以x的转置就是一个对称矩阵等… 4 本质 洞悉本质 下面抛开机器学习回归到线性代数本身 我现在回顾还是可以清晰的感觉到理解掌握线性代数的几个不同的阶段或者说坎在哪里我把它们总结成几个小问题大家也可以自测一下如果你扪心自问能够很好的回答其中的某个问题那么相当于你在线性代数的某一块知识领域里已经相对纯熟洞悉到非常基础但是最核心的本质思想。 这种东西大学教材真的给不了也不是你做几张线性代数试卷考个100分能够比拟的本质的东西需要思考体会顿悟了然一笑一切尽在不言中…话也说回来我痴迷机器学习原理痴迷数学说到底还是想要多体验这种感觉会上瘾的… 问题一你有感觉到某一类矩阵和矩阵相乘其实就是解方程时的消元吗 问题二 你有发现解方程时对矩阵的操作与消元法解方程的对应关系吗 你有发现行列式的定义和性质与消元法解方程的对应关系吗 你有发现求逆矩阵与消元法解方程的对应关系吗而奇异矩阵与这个消元法解方程又有什么关系呢 你有发现非常自然的消元法解方程是连结矩阵、行列式、逆矩阵这些概念线索和纽带吗这么普普通通的消元法解方程是多少线性代数基础概念的核心啊所有的东西都不是无中生有的 线性代数的设定真的不是像国内那些垃圾教材里面描述的好像一只孙猴子一样像直接从石头缝里蹦出来的啊 问题三 前面已经提到了三种“理解矩阵变换”你理解了吗 问题四 为什么行秩和列秩是一样的涉及四个基本子空间列空间零空间行空间左零空间这个东西是我最近才感悟到的。 线性代数部分先总结到这里后面还有概率统计和微积分部分就简略说一下以后有时间再补充。 概率统计 1 极大似然思想 2 贝叶斯模型 3 隐变量混合概率模型EM思想 基础的典型分布是逃不过的尤其高斯分布。 微积分 主要体现在极值问题 与 条件最优化问题 偏导数梯度这两个概念必须深入人心 还有就是凸优化和条件最优化问题这个是理解SVM或者线性回归等等模型正则化的基础。。。 我的微信号mubing_s我平日里如果某一块知识点面想清楚了一遍会用白纸黑字写下来记录备忘有机器学习 数学方面的有兴趣想看的、想探讨同学都欢迎加我哦:-D 先总结到这里了欢迎大家拍砖以后有时间详细补充。 编辑于 2016-01-17 Jacky Yang 将近10年的计算机视觉从业经验 最近在给几位程序员朋友培训机器深度学习而且10月份刚把数学基础部分培训完看到这个问题结合培训的感受趁热写一点小小的心得体会。 看了一下题主的问题的确现在很多想从事于机器学习的朋友都存在类似的困惑主要是很多相关的书看不懂尤其是数学部分包括题主提到的PRML还有最近的深度学习圣经。不得不说这些书籍其实都很经典但经典的书未必都适合每个人毕竟这些著作其实是有一些门槛的所以如何把这个门槛降低或者换一个说法如何把其中的数学基础用通俗易懂的语言解读出来也是很有意义的一件事。我在培训当中也是深有体会。   以下我假定读者跟题主情况类似希望从事于机器学习但数学多年不用在阅读算法书籍的过程中数学部分理解起来有难度。 同时也欢迎业内朋友提供宝贵建议和意见。   对于绝大多数从事于机器学习的人来说学数学的目的主要是便于深入理解算法的思路。那么问题来了我们到底要把数学学到什么程度   我这里举几个例子 1.线性最小二乘法 大家可以随意搜索一下相关的文章很多。长篇大论的不少刚入门的朋友一看到那些公式可能就看不下去了。比如下面的解释 毫无疑问这样的解释是专业的严谨的。事实上这是深度学习圣经里的解释。我并没有诋毁大师的意思只是觉得用一个具体的例子来说明可能会让读者更加容易理解 小明是跑运输的跑1公里需要6块跑2公里需要5块那段时间刚好油价跌了跑3公里需要7块跑4公里需要10块请问跑5公里需要多少块 如果我们有初中数学基础应该会自然而然地想到用线性方程组来做对吧。 这里假定x是公里数y是运输成本β1和β2是要求的系数。我们把上面的一组数据代入得到这么几个方程 如果存在这样的β1和β2让所有的数据xy1,62,53,7410都能满足的话那么解答就很简单了β15β2就是5公里的成本对吧。 但遗憾的是这样的β1和β2是不存在的上面的方程组很容易你可以把前面两个解出来得到一组β1和β2后面两个也解出来同样得到一组β1和β2。这两组β1和β2是不一样的。 形象地说就是你找不到一条直线穿过所有的点因为他们不在一条直线上。如下图 可是现实生活中我们就希望能找到一条直线虽然不能满足所有条件但能近似地表示这个趋势或者说能近似地知道5公里的运输成本这也是有意义的。 现实生活当中有很多这样的例子想起以前在某公司上班的时候CEO说我们研发部做事有个问题一个研发任务要求三个月做完因为周期太短完成不了就干脆不做这显然是不对的要尽全力哪怕三个月完成了80%或者最终4个月完成总比不作为的好。 其实最小二乘法也是这样要尽全力让这条直线最接近这些点那么问题来了怎么才叫做最接近呢直觉告诉我们这条直线在所有数据点中间穿过让这些点到这条直线的误差之和越小越好。这里我们用方差来算更客观。也就是说把每个点到直线的误差平方加起来 如果上面的四个方程都能满足那么S的值显然为0这是最完美的但如果做不到完美我们就让这个S越小越好 接下来的问题就是如何让这个S变得最小。这里有一个概念就是求偏导数。这里我想提一下在培训的过程中我发现机器学习的数学基础课程当中微积分是大家印象最深刻的而且也最容易理解比如导数就是求变化率而偏导数则是当变量超过一个的时候对其中一个变量求变化率。如果这个概念也忘了可以参考我在深度学习回答里那个王小二卖猪的例子。这里就不细讲了 Jacky Yang深度学习如何入门 要让S取得最小值或最大值但显然这个函数没有最大值自己琢磨一下那么S对于β1和β2分别求偏导结果为0用一个直观的图来表示 我们看到这条曲线前半部分是呈下降的趋势也就是变化率导数为负的后半部分呈上升的趋势也就是变化率导数为正那么分界点的导数为0也就是取得最小值的地方。这是一个变量的情况对于多个变量的情况要让S取得最小值那最好是对β1和β2分别求导对β1求导的时候把β2当常量所以叫求偏导值为0 看到这个我们就熟悉了两个变量刚好有两个方程式初中学过那么很容易得出 其实也就意味着 这个函数也就是我们要的直线这条直线虽然不能把那些点串起来但它能最大程度上接近这些点。也就是说5公里的时候成本为3.51.4x510.5块虽然不完美但是很接近实际情况。   在培训的过程中一直在思考一个问题也就是上面提到的那个机器学习到底要把数学掌握到什么程度首先我们得搞清楚我们到底要拿机器学习干什么机器学习本来就是要通过分析现实生活中的数据得出其中的规律以便为将来各方面提供指导意义。既然是这样为何不直接从现实中来到现实中去直接用数据和案例来讲解数学呢。我们显然不是为了学数学才学的机器学习那就没必要堆砌哪些晦涩的公式了。除非我们要做纯理论研究。 当然数学的一些理念思想或者精髓是需要掌握的其实很多时候我们都是在做不到完美的情况下求那个最接近完美的解别忘了机器学习很多情况下其实是在做拟合所以说最小二乘法对于机器学习非常重要这也是我把它当做第一个例子的原因。其实深度学习里的反向传播不也是一样么刚开始不完美但我要想办法让它越来越接近完美预测值与实际值差距越来越小。所谓训练其实也就是不断追求完美的一个过程。   2.拉格朗日乘子法 听到拉格朗日乘子法这个名字的时候很多人的第一反应是这玩意儿是不是很高深啊先入为主地有了畏难的情绪。但我把它讲完以后大部分人表示并不难而且现实生活中我们经常潜移默化会用到拉格朗日乘子法。甚至可以说不用拉格朗日乘子法的人生都是不完整的人生。 我们来看一下定义   虽然这个定义应该说是很简洁明了的但对于大部分人来说依然还是有点懵。不太清楚为什么要这么做。拉格朗日到底要搞什么飞机 我们还是举个例子某工厂在生产过程中用到两类原材料其中一种单价为2万/公斤另一种为3万/公斤而工厂每个月预算刚好是6万。就像下面的公式 经过分析工厂的产量f跟两种原材料x1x2具有如下关系我们暂且不管它是如何来的而且假定产品可以按任意比例生产 请问该工厂每个月最少能生产多少 其实现实生活中我们会经常遇到类似的问题在某个或某几个限制条件存在的情况下求另一个函数的极值极大或极小值。就好比你要在北京买房肯定不是想买什么房子就买什么房子想买多大就买多大而是跟你手头的金额是否有北京户口纳税有没有满五年家庭开支/负担重不重工作单位稳不稳定都有关系。 回到工厂的例子其实就是求函数f的极值。上面我们提到极值点可以通过求偏导变化率为0的地方为极值点来实现函数fx1x2对x1x2分别求偏导那么得出的结论是x1x2都为0的时候最小单独看这个函数这个结论对的很显然这个函数的最小值是0任何数的平方都是大于或等于0而且只有x1和x2同时为0的时候取得最小值。但问题是它不满足上面的限制条件。 怎么办呢拉格朗日想到了一个很妙的办法既然hx1x2为0那函数fx1x2是否可以加上这个hx1x2再乘以一个系数呢任何数乘以0当然是0fx1x2加上0当然保持不变。所以其实就可以等同于求下面这个函数的极值 我们对x1x2以及λ分别求偏导极值点就是偏导数均为0的点 解上面的方程组得到x11.071x21.286 然后代入fx1x2即可。 这里为什么要多加一个乘子λ呢试想一下如果λ是个固定的数比如-1我们也能通过上面的方程式1,2求解得到x1x2但是我们就得不到方程式3其实也就是没有约束条件了。所以看到没有拉格朗日很聪明他希望我们在求偏导极值点以后还能保留原有的约束条件。我们上面提到单独对函数求极值不能保证满足约束条件拉格朗日这么一搞就能把约束条件带进来跟求其他变量的偏导结果放在一起既能满足约束条件又能保证是约束条件下的极值。借用金星的一句话完美 当然这是一个约束条件的情况如果有多个约束条件呢那就要用多个不同的λ想想为什么正如最上面的那个定义那样把这些加起来这些0加起来也是0。 机器学习里的数学我感觉只需要掌握里面这个核心思想即可就像拉格朗日乘子法求条件极值---》转化为求函数条件的极值每一步都很妙。其实我想说的是体会这种妙处以后再看SVM的算法会感觉舒服很多数学主要是为了让人更好地理解算法并不是为了数学而学数学。人生苦短还成天被晦涩的书籍所困扰“感觉身体好像被掏空”这样真的好么   3.朴素贝叶斯 之所以把这个拎出来是因为我一直想吐槽一下那个公式 我想吐槽是因为几乎没有一篇文章解释这个公式是怎么来的。很多文章一上来就是这个 公式。对于已经对条件概率没多少概念的朋友来说脑子里其实一直有疑问。其实要解释并不难把P(B)放到左边除法改成乘法就容易理解多了。 P(A|B) x PB P(B|A) x PA 也就是B发生的概率 x B已经发生的情况下A发生的概率 A发生的概率 x A已经发生的情况下B发生的概率。 如果这个不好理解我们还是举个例子 如上图所示口袋里有5个球2个蓝色3个红色每次取一个可能的结果如下图所示 第一次取出来是蓝色球的概率是2/5我们把这个概率叫P(A)然后在A发生的情况下再取出一个红球的概率是多少显然是3/4因为只剩下3个红球一个蓝球这个3/4就是P(B|A)也就是在A发生的情况下B发生的概率这叫条件概率。我们把他们相乘得到 2/5 x 3/43/10 接着我们换另一个方式算如果第一次取到红球第二次取到蓝球。同理P(B)为3/5P(A|B)为2/4两个相乘3/5 x 2/43/10 他们是相等的。也就是说P(A|B) x PB P(B|A) x PA 这个并不是特例看下面的公式 事实上P(A and B) 和P(B and A)是一样的只是一前一后发生的顺序不同。 我们把这个公式P(A|B) x PB P(B|A) x PA的P(B)拿到另一边这就是朴素贝叶斯的公式。   除了上面几个例子其实还有很多方面都可以用不那么晦涩的方式去解读。比如高斯分布很多文章包括一些经典书籍一上来就是那个公式 然而很多人并不太明白为何要用这样的分布为什么叫正态分布而不叫变态分布。其实它是大自然的一种普遍规律。 其实可以用这个图 这是统计学生两门学习成绩总和总分200分横轴是分数纵轴是所占的比例。我们发现学霸和学渣都比较少大部分人都集中在150分左右很显然大部分人都是你我这种普通人嘛如果统计样本足够大以至于达到无穷那就变成了钟形曲线。普通人的平均分数就是高斯分布里的那个μ也就是均值而那个σ怎么解释呢就是你这个曲线越陡σ越小这个叫方差。试想一下如果大家都挤成一坨成绩都差不多差别小也就是方差小中间的方块占的比例就越高当然就越陡了。如下图   另外还有一些概念比如正交很多朋友问起过这个问题Jacky向量正交的概念我在大学里学过但就是不知道为啥要正交 其实我们要理解正交可以先理解什么是相交两条直线相交表明存在一定的夹角但这个夹角可大可小如果是0的情况下他们是在一条线上的向量都是过原点的这里我们不考虑不过原点的情况180度的时候也是在一条直线上这个两种情况我们都可以认为他们是线性相关的那么什么时候最不相关呢很显然是90度的时候也就是垂直的时候。除了垂直和平行的情况夹角在0-90度或者90度到180度之间的情况相关性介于垂直和平行之间。 我们试想一下如果我们要把一组数据分解成不同的特征我们希望每个分量各自具有独立的特点呢还是希望每个分量你中有我我中有你好呢显然是越无关越好如果他们之间太“暧昧”就没有特点了。最好是各个分量两两互相垂直。当然垂直是几何上的解释对于向量来说更严谨的说法多维就是正交。   关于机器学习中数学的通俗化表达限于篇幅太长看了也累先聊到这里目前还在继续整理当中想到哪说到哪思路还不够清晰希望在本次培训结束以后能整理出一个完整的版本。同时也请业内朋友多提宝贵意见和建议。 关于数学基础课程列表几个高票答案总结的很全了这里我就不重复贴了。不过有人总结了一份文档里面列出了机器学习中用到的数学基础虽然没有详细描述但思路清晰简洁明了可以参考 http://www.cogsci.ucsd.edu/~ajyu/Teaching/Cogs118A_wi10/Refs/basic_math.pdf 编辑于 昨天 21:54 Robin Shen 1 海德堡大学 交叉学科计算中心离散与组合优化实验室研究员 利益相关楼主 Robin Shen 以本科应用数学和硕士运筹学、优化理论的背景转到德国海德堡大学读博主要从事机器学习、计算机视觉的研究希望自己的一些经验可以对想入门机器学习的朋友们有点借鉴作用。 此回答的部分答案摘自我另外一个相关回答 Robin Shen想转专业机器学习人工智能需要学哪些课程   首先对人工智能、机器学习一个综述 大话“人工智能、数据科学、机器学习”--综述 - 知乎专栏   笼统地说原理和基础都在数学这边当然有很多偏应用和软件使用的技术例如“深度学习调参”等这些报个培训速成班就能学会的技术含量不那么高的东西不在讨论范围内。 这里要讨论的是如何系统的学习然后自己能编出这机器学习或深度学习的程序或软件我想这才能称为一个合格的机器学习、数据科学家。   入门基础 1, 微积分求导极限极值和线性代数矩阵表示、矩阵运算、特征根、特征向量是基础中的基础某篇图像分割1w引用的神文核心思想便就求解构造矩阵的特征向量 2, 数据处理当然需要编程了因此C/C/Python任选一门推荐Python因为目前很多库和Library都是用python封装数据结构可以学学让你编程更顺手更高效但是编程不是数据处理的核心。 当然了楼主所在的图像处理界熟练使用matlab或者Python调用opencv库是必要条件但是again他们只是工具业余时间自学多练练就没问题。有同学问用R行不行补充一点用什么编程语言很大部分取决于你的核心算法会调用什么已有的库函数比如楼主的科研里面核心算法往往是MIP混合整数规划问题需要调用Cplex或Gurobi库函数因此C/C/Python/Java这些和Cplex接口良好的语言都可以拿来用这时候R就别想了。(更新最新Gurobi版本支持R) 另外虽然图像处理界一些open-source的code都用C写的但是鉴于使用方便都会提供Python的接口因此需要用到这些code的话用Python调用比较方便但是如果是高阶骨灰级玩家需要修改甚至自己写源代码那么还是推荐C/C因为他们的速度最快。 3算法 通常高校都会有算法类的课程会概述各类算法的基础和应用其中包括精确算法、近似算法、启发式算法、演化算法、递归算法、贪婪算法等待还有各类优化算法。 算法非常核心想必大家都听说过算法工程师这个职位。 关于数学模型和算法的区别、联系参见 【学界】整数规划精确算法/近似算法/(元)启发算法/神经网络方反向传播等算法的区别与关联   中级教程 1概率论统计很多数据分析建模基于统计模型、统计推断、随机过程等 2线性规划凸优化或者只学一门叫numerical optimization统计、机器学习到最后就是求解一个优化问题、非线性规划等 3数值计算、数值线代等 当年我是在数学系学的这门课主要是偏微分方程的数值解。 但我觉得其开篇讲的数值计算的一些numerical issue更为重要会颠覆一个数学系出身小朋友的三观。(原来理论和现实差距可以这么大) Conditional number, ill-conditioned problem会让你以后的编程多留个心眼。   恭喜你到这里你就可以无压力地学习Machine Learning这门课了其实机器学习通篇都是在讲用一些统计和优化来做clustering 和 classification这俩个人工智能最常见的应用。并且你就会发现ML课中间会穿插着很多其他课的内容。恩知识总是相通的嘛特别是这些跨专业的新兴学科都是在以往学科的基础上由社会需求发展而来。 到这里其实你已经能看懂并且自己可以编写机器学习里面很多经典案例的算法了比如regressionclusteringoutlier detection。 关于优化类课程的综述欢迎关注我的专栏 [运筹帷幄]大数据和人工智能时代下的运筹学 - 知乎专栏 运筹学最优化理论如何入门 - 知乎   学到Mid-level就已经具备绝大部分理论基础了。然后做几个实际项目就能上手然后就可以“吹嘘”自己是搞机器学习的就能找到一份工作了。 但是要读Phd搞机器学习的科研那么高阶课程必不可少而且同一个topic你需要上好几门课并且你博士的课题很可能只是一本书中一个章节里面一小节里讲的算法去改进他。 比如楼主的博士课题就是mixed linear programming discrete graphical models markov random fields regression clustering segmentation。   高阶课程 再高阶的课程就是比较specific的课程了可以看你做的项目或者以后的concentration再选择选修比如Probabilistic Graphical Models概率图模型 Integer Programming整数规划 计算机视觉模式识别视频追踪医学图像处理增强学习深度学习, 神经网络自然语言处理网络信息安全等等等等。 深度学习目前非常火打败了非常多几十年积累起来的经典方法。 增强学习也很火游戏AI、自动驾驶、机器人等等它都是核心。 概率图模型深度学习之前非常popular的“学习”方法有严格的数学模型和优美的算法虽然目前被前俩者盖过了风头但是依然有它的立足之处。什么你不知道最近用PGM发了篇Nature打败了CNN快看下面 Robin Shen如何评价 Vicarious 在 Science 上提出基于概率图模型PGM的 RCN 模型 再比如有用偏微分方程做图像处理的比较小众那么这时候你肯定要去学一下偏微分方程了大都是以科研为主导的。 科研嘛为了发文章就是要尝试前人没尝试过的方法万一效果不错呢就是一篇好paper了对吧。 附上顶尖会议排名共勉 国际“顶尖”计算机视觉、机器学习会议大搜罗--附排名接收率   互联网教学资源 书目没有特别推荐的但是建议看英文原版。 另外直接FQYoutube看视频课程很多国际知名教授都很无私地把自己上课的视频放在youtube上免费学习搜索我上面列出的科目名字。如果确实要楼主推荐那就推荐海德堡大学历史上最年轻的教授 Fred的机器学习视频我基本都看过 https://www.youtube.com/playlist?listPLuRaSnb3n4kSgSV35vTPDRBH81YgnF3Dd 另外一个教授给你上课的时候开头一般是会推荐书给你的如果你确实喜欢看书的话。当然了FQ是楼主suppose你们需要拥有的基本生存技能。   注以下再推荐一些视频仅受之以渔多为graduate course 1Machine Learning by Prof. Nando de Freitas 此视频是其在UBC时13年所录后来跳槽去牛津计算机系了。 https://www.youtube.com/playlist?listPLE6Wd9FR--EdyJ5lbFl8UuGjecvVw66F6 2Deep learning at Oxford 2015 by Prof. Nando de Freitas 跳槽到牛津所录。 https://www.youtube.com/playlist?listPLE6Wd9FR--EfW8dtjAuPoTuPcqmOV53Fu 3Probabilistic Graphical Models by Daphne Koller, 斯坦福大学计算机系教授 https://www.youtube.com/playlist?listPL50E6E80E8525B59C 更多人工智能、优化理论的知识尽在 [运筹帷幄]大数据和人工智能时代下的运筹学   关于入行后就业前景包括第三条运筹学、算法工程师参见 国内(全球)TOP互联网公司、学术界超高薪的揽才计划有哪些 - 知乎 关于机器学习在咨询行业的应用参见 Data Science/Analytics 出身可以在咨询行业做些什么 - Ruobing Shen 的回答   最后是通往大洋彼岸高薪博士职位以及人工智能数据科学家的传送门 欧洲、北美、全球留学及数据科学深度私人定制咨询从此DIY - Ruobing Shen的文章 - 知乎专栏 编辑于 昨天 17:17 匿名用户 互联网时代下怎样自学成data scientist http://datasciencemasters.org 更多资源http://dk-techlogic.blogspot.in/2012/05/best-machine-learning-resources.html?utm_mediumemailutm_sourceotherutm_campaignnotifications.auto._wVEyo0LEeWu9QquNtf_Cwm1 -----------------割线------------------ 再推荐一下两本书Introduction to statistical learning和Elements of statistical learning 都是斯坦福出的书前者很基础后者是前者的高阶版。还都有免费下载。 现在正在追这本Mining of Massive Datasets又是斯坦福的感觉难度中等偏上。 编辑于 2015-11-18 知乎用户 泛函分析凸优化。 发布于 2015-10-09 田star 计算数学并不爱pde 优化方面nocedal的最优化和boyd的凸优化。矩阵方面矩阵分析六讲还不错。概率统计能力不足够做推荐。 发布于 2017-01-07 kevin 数据挖掘/机器学习/推荐系统 这本书我觉得完全可以覆盖你说的问题了http://book.douban.com/subject/25788483/ 发布于 2015-10-16 Riinn Mage 实际上除了微积分线代你啥都不会也能学这课在某些专业是必修课很多选这门课的同学数学水平[1]烂的不堪入目当然这么上这门课痛苦很多就是了……按照我正在上机器学习的同学的说法可能有帮助的数学知识有 数学分析实分析测度论泛函分析概率论数理统计随机过程凸优化博弈论我也不知道为啥有这个……拓扑学这好像是那老师说着玩的…… 不负任何责任。 Notes[1] 可以认为我说的是分析、代数、几何的水平。再具体一点分析只学过微积分最多再学过一点弱智版的复变。代数只学过线代、抽代比较简单的那种。几何一窍不通。 编辑于 2015-10-13 江波 杉数科技-科学家上海财经大学教授 答主们已经列出了许多相关课程及其对应的教科书但是要把一门或几门课程都系统地学习一遍无疑会耗费大量的时间和精力同时效率也不见得高。另外这些课程中所教授的内容有相当一部分与机器学习关系不大。我自己在学校讲授一些算法课程团队里也有同事专门从事机器学习算法和求解器的开发。在这里从优化和算法的角度出发择出几个比较重要的知识点供大家参考。 1线性代数 矩阵的各种运算要熟练如乘积内积迹等半正定矩阵的性质与各种判定条件与凸函数的关系。 2微积分 多元函数的求导梯度Hessian矩阵泰勒展开中值定理等。从我自己的教学经历来看很多同学对多元微积分似乎有着天生的抗拒心理。我自己就见过不少已经学过微积分的同学不会对由矩阵二次型表达的多元二次函数进行求导。其实通过总结与一元微积分的对应关系 完全可以做到轻松掌握多元微积分的诸多结果。 3数值线性代数 与线性代数相比这门课程更偏重数值计算。其讨论的奇异值分解, Cholesky 分解, QR 分解等矩阵分解方法一般会用在主算法的子问题求解中因此是决定程序的运行速度的关键因素之一。当然这些分解算法现今都有一些现成的软件包可以调用但是在特定的场合我们仍然需要对问题结构进行具体分析提高分解算法的运行效率。 4非线性规划 主要是各种优化算法大致可以分为一阶算法和二阶算法两类一阶算法中只用到了函数的一阶导数梯度典型代表是梯度下降法二阶算法还用到了函数的二阶导数Hessian矩阵信息典型代表是牛顿法。世上无完事其实每种算法都有自己的好处和弊端。例如一阶算法的优势是子问题求解的代价小但是收效速度慢并且得到解的精度不高另一方面二阶算法的收敛速度很快但是子问题的求解代价较高一般会涉及到矩阵求逆。为了克服上述缺点学者们又提出了梯度法和牛顿法的诸多变种例如随机(stochastic)梯度法共轭(conjugate)梯度法邻近(proximal)梯度法拟牛顿法等。在许多机器学习算法包或求解器中能经常看到他们的身影。 5凸分析 最优性条件大家比较熟知的是KKT条件对偶理论。对偶理论使得我们能从另一个角度来描述原问题从而设计一些新的算法如对偶算法原始对偶算法 primal-dual algorithm等。前一段时间很火的交替方向乘子法alternating direction method of multiplier便是原始对偶算法的典型代表。另外就是凸优化问题的所特有的性质需要清楚比如局部最优等价于全局最优强对偶定理成立最优性条件变成了充分必要条件。 6 其他一些进阶知识 现在做研究的一个趋势就是做交叉有些学者运用其他学科的工具对机器学习算法进行了研究往往会有新的发现。因此若要从事算法研究的话其他数学知识当然是多多益善。比如根据算子理论可以推导出一大堆算子分裂方法而这些方法与交替方向乘子法又有很紧密的联系又比如机器学习大神Michael Jordan的group最近的研究工作就是用微分方程将Nesterov加速法三次正则化方法等算法统一起来。 发布于 2017-02-22 腾讯云技术社区 1 更多腾讯海量技术文章请关注腾讯云技术社区 针对这个问题引用腾讯云技术社区的文章《机器学习入门书籍简介》系统性的回答下这个问题。 在这篇文章中我摘选出机器学习中涉及数学相关的书籍。其中数学可分为分析概率以下主要针对这两方面给出笔者看过觉得比较优质的一些书籍供大家参考希望对你有所帮助。 一、分析 数学分析首推北大张筑生版的数学分析新讲一套三册全面深入细致讲解了数学分析的方方面面如果觉得实数系构造这一块不够严谨可以参考陶哲轩的实分析前面一两章如果不求严谨无力啃下完整的数学分析又想学习算法的同学则推荐浙大版高等数学再次一点可以看华中科技大出版的一元分析学和多元分析学这两本书名字虽然叫分析学实际比浙大高数还要简单一些。 优化理论满分推荐《最优化导论》这本书作者是Edwin.K.P.Chong亚马逊有中译本这本书是我苦寻很久才找到的一本填补了从高数到学习算法之间那一环的不二法本第二本推荐是凸优化不过目前只有英文版门槛稍高但是内容清晰简练非常值得一读。 线性代数推荐Gilbert Strang的Introduction to linear algebra不解释网易上有对应的视频满分推荐。 二、概率 概率论这里推荐陈希孺的教材吧。 贝叶斯当之无愧的经典是james OBerger的《统计决策理论与贝叶斯分析》微盘上有中文版的pdf国内比较好的是茆诗松写的《贝叶斯统计》这本书这里有个奇怪的现象似乎八十年代贝叶斯在国内火过一段时间然后就沉寂下去了导致这块我们实际理论知之甚少如果不是研究 lda 的时候反复查找才找到这两本书估计我也是傻乎乎的停留在贝叶斯公式的基础上了。 以上是针对机器学习中需建立的数学入门基础知识书籍的相关推荐若想了解更多机器学习的书籍欢迎 阅读原文另外个人的感受就是机器学习不嫌你懂得数学多有精力、有实力的同学可以在分析的基础上继续往上攀爬实分析、泛函分析、微分几何、拓扑。 下面推荐下相关的机器学习的文章 机器学习从入门到出家 机器学习基于层次的聚类算法 【机器学习入门系列】Regression 回归案例研究 【机器学习入门系列】 Error 的来源偏差和方差 【机器学习入门系列】梯度下降法 【机器学习入门系列05】分类、概率生成模型 编辑于 2017-06-15 KizW 机器学个习 1.英语2.数学线性代数 linear algebra and its applications (看过lay写的还不错据说gilbert写的更好国内蓝以中 高等代数简明教程 也不错看上册就够了,下册是抽代蓝以中这本对于机器学习来讲很不错提了行列式求导和正定二次型线性代数的书一般不讲这块)高等数学 数学分析新讲 张筑生 (第三册看看级数国外的据说托马斯微积分不错 没看过。矩阵向量求导是著名的没书讲领域貌似很多人在这里上火一篇深度美文 机器学习中的矩阵向量求导)统计 概率论和数理统计 陈希孺 (至少看完前四章)多元统计 applied multivariate statiatical analysis richard johnson (至少看完前四章 pca和factor analysis也应该看一看其实pca和fa在机器学习中本身就是无监督学习的算法)最优化 convex optimization stephen boyd (至少看1-5 9 章看完第五章的时候看一下pattern recognization and machine learning这本书附录的拉格朗日算子这一章是svm的基础) 珍爱生命远离rudin 我看完这些看的prml觉得没什么问题。手头还有周志华和李航的书建议当做补充材料不太适合建立知识架构。 数学进阶:(入门用不上的)蒙特卡洛 introducing monte carlo methods with r Christian Robertprml里面11章就是讲抽样方法的不妨先看下拓扑 topology without tears sidney a. morris泛函 introductory functional analysis with applications kreyszig流形还有李群李代数没看过3.机器学习pattern recognization and machine learning Bishopthe elements of statistical learning hastie据说挺难的 没看过machine learning yearning 吴恩达面向工程的小册子没看过不过吴恩达写的不会有问题4.深度学习deep learning lan goodfellow(面向工程的有难度全搞懂估计要对着里面给的论文看)neural networks and deep learning (太简单)http://neuralnetworksanddeeplearning.com5.编程python(python核心编程)主 c(c primer 5 lippman)为辅 python那几个库 底层的scipy numpy matplotlib sympy(python科学计算 张若愚)机器学习的scikit-learn(scikit-learn cookbook)深度学习的tensorflow(tensorflow实战 黄文坚)数据库的(expert oracle database architecture thomas),图像识别还要用图像处理(数字图像处理 gonzalez)的那些东西opencv cuda什么的 建了一个小群大家互相帮助嘛 看书看不懂了一起研究有好资料一起分享 qq群436142301 编辑于 2017-04-26 大野人007 机器学习爱好者,公益教育,大数据竞赛初学者 如果真心希望学好机器学习那么数学自然是非常有必要的这边我提供一个个非常好的机器学习路线的培养方案JustFollowUs/Machine-Learning可以看看您还缺什么数学知识这个github上面的内容基本是机器学习必备的所以建议一步一步的全都学完因为基本每个课程都提供了大家公认的好视频能帮助更好的学习。当然如果仅仅只是希望找个工作过日子这个上面的资料可能不太适合您请忽略这条回答。 编辑于 2017-01-06 cstghitpku Talk is cheapshow me the code 矩阵论、概率论、凸优化、微积分、梯度 发布于 2015-10-11 以史为贱 专注ASM认知升级 进入特定技能之前要先解决多一个的概念。作为一个机器学习的工程师就必须了解整个生态系统你的设计和 语言和库的机器学习。 要跳到这个作业中有一个需要具备以下技能 1.计算机科学基础知识和编程 2.概率统计 3.数据模拟和评价 4.将机器学习算法与程序库 5.软件工程和系统设计 发布于 2016-05-17 妮妮蔡 机器学习 最基础的部分包括基本的高等数学比如分析、代数尤其是矩阵论、数值优化算法、概率论与数理统计等。更进阶的需要掌握实分析比如测度论、图论、时间序列、回归分析等等。再深入的你还可以掌握微分方程、流形几何等等基础机器学习涉及不到的内容这个时候你就可以挖别人挖不出来的坑了。另外虽然严格来说不属于数学但是算法的概念和数据结构的相关知识也是一定要掌握的 发布于 2016-12-08 Zooee 最近需要静心学习 李航博士的《统计学习方法不错》 发布于 2015-10-23 Mio 代码农工 主要包括最优化理论图论概率论随机过程矩阵论泛函分析等。建议听一下Andrew Ng的网易公开课。 发布于 2016-12-21 转载于:https://www.cnblogs.com/WCFGROUP/p/7797769.html
http://wiki.neutronadmin.com/news/104404/

相关文章:

  • 拉米拉网站建设常州百度推广排名优化
  • wap网站实例正在备案怎么建网站
  • 网站设计的主要机构有哪些?制作介绍的网站
  • nginx wordpress 目录 伪静态关键词排名手机优化软件
  • 在网站上做宣传seo优质友链购买
  • 去哪找做网站的客户手机网站建设与制作
  • 耳机商城网站开发新乡网站开发的公司电话
  • 东莞市网站建设分站做网站怎么发展客户
  • 济南企业自助建站成都网站制作是什么
  • 怎样申请建立自助网站广州海珠网络营销外包
  • 网站建设哪家强中国三大水电建设基地
  • 黄浦区未成年人思想道德建设网站网站的功能设计
  • 房产怎么创建网站没有网站可以备案吗
  • 天猫网站建设的意义旅游必去的10个地方
  • 外贸网站优化软件网站链接网址怎么做
  • 集团网站建设价格软件开发工具的基本功能是什么
  • 旅游电子商务网站建设调查问卷旅游网站 分析
  • 西宁最好网站建设公司成功的网站必须具备的要素
  • 优易官方网站类似全民互推的推广平台
  • 用旧手机做网站东营招标信息网官网首页
  • 淄博制作网站的公司长沙知名网站建设
  • 建设工程的招标网站有哪些windows优化大师卸载
  • html5手机网站建设企业咨询公司名称大全
  • 百度百科让做网站的超链接吗做网站备案都需要什么东西
  • 银川怎么做网站百度知道问答首页
  • 做pc端网站新闻宜兴网站开发
  • 魔站网站开发网站 开发逻辑
  • 怎么用ps做网站首页字天堂网
  • 网站由哪儿三部分组成哪里有网站设计公司
  • 朝阳企业网站建设方案wordpress主题首页问题