正在学习机器学习的同学,肯定听过吴恩达老师的课程
吴恩达老师的机器学习课程包含了机器学习从基础入门到高级算法的内容,非常适合新手小白学习,但是学习的过程中会存在一个问题,那就是课件是英文的,以及吴恩达老师说的是英语,虽然有字幕翻译,但是依旧可能存在一定学习上的困难
机器学习笔记和课件视频是一一对应的,那么大家就可以边看笔记,边看视频来学习,相当于有了中文版的课件,笔记上面的都是精华,强烈建议都大家学习一遍,过完一遍之后相信会对机器学习有更深刻的理解
这个笔记总共分为10周的学习内容,按照笔记的内容,大家相应学习即可
主要包含的内容有:每个标题就是每部分的重点内容
第1周:了解机器学习基本概念和基本的线性代数知识(难度*)
线性代数大家大一大二应该都学过,难度应该不大,主要是机器学习的基本概念要清楚,比如有监督,无监督,半监督到底是什么
第2周:学习线性回归和梯度下降(难度**)
梯度下降是一种广泛应用于回归问题求解的优化算法,其核心原理是通过沿着目标函数梯度的负方向逐步更新参数,以逼近最优解。由于其简单有效,梯度下降在深度学习以及其他机器学习模型中都有广泛应用。梯度下降是求解回归问题的解的一种方法,一定要清楚其原理,梯度下降在深度学习以及其他模型里面都有广泛应用
第3周:学习逻辑回归和正则化(难度**)
逻辑回归算法用于解决分类问题,注意逻辑回归的交叉熵损失函数,以及正则化,过拟合欠拟合等怎么处理
第4周:学习神经网络基本知识(难度***)
初步了解神经网络是什么,深度学习模型和机器学习传统模型不太一样,往往网络层更加复杂
第5周:学习反向传播(难度**)
深度学习模型是需要通过反向传播更新参数的,这个会涉及梯度的计算,梯度太小就会梯度消失,梯度太大可能会梯度爆炸
第6周:学习模型评估和交叉检验(难度*)
了解回归问题,分类问题到底用什么指标来评估模型的好坏,比如分类问题的F1, ROC, 召回率,精确率等等
第7周:学习支持向量机SVM(难度***)
支持向量机可以解决分类和回归问题,要清楚算法的流程以及核函数的设计
第8周:学习支持聚类和降维(难度***)
聚类算法是无监督算法,降维是为了减少特征的数量,同时增加特征的表达能力
第9周:学习异常检测和推荐系统(难度**)
这两项偏向一些工作岗位的内容,比如以后想要走推荐系统这条道路的同学,那可得好好打基础,如果暂时不考虑工作,其实可以不用学这个,日常中很少用到
第10周:学习随机梯度下降和滑动窗口(难度**)
随机梯度下降算法在深度学习机器学习中用处很大,要理解清楚原理,滑动窗口是深度学习时间序列中处理数据常用的方法
以上重点内容都给大家标出来了,基本上按照进度学习,可以跳过一些不重要的内容,2个月左右可以完成机器学习入门