• 全面!李航《统计学习方法》读书笔记
    点击上方“深度学习专栏”,选择“星标”公众号重磅干货,第一时间送达文章作者:Limitlessun发布社区:DataFun编辑:小小挖掘机(ID: wAIsjwj)阅读目录:1. 知识点2. 感知机3. k 近邻法4. 朴素贝叶斯5. 决策树6. logistic 回归和最大熵模型7. 支持向量机8. 提升方法9. EM 算法10. 隐马尔可夫模型 ( HMM )11. 统计学习方法总结12. 神经网络13. K-Means14. Bagging15. Apriori16. 降维方法17. 引用因为要准备面...
  • 深度学习中常用的损失函数loss有哪些?
    转自:有三AI 这是专栏《AI初识境》的第11篇文章。所谓初识,就是对相关技术有基本了解,掌握了基本的使用方法。今天来说说深度学习中常见的损失函数(loss),覆盖分类,回归任务以及生成对抗网络,有了目标才能去优化一个模型。 作者&编辑 | 言有三1 什么是损失函数在机器学习中,损失函数(loss function)是用来估量模型的预测值f(x)与真实值Y的不一致程度,损失函数越小,一般就代表模型的鲁棒性越好,正是损失函数指导了模型的学习。机器学习的任务本质上是两大类,分类问题与回归问题,再加上综合了判别模...
  • 像堆乐高一样:从零开始解释神经网络的数学过程
    选自Medium作者:Omar U. Florez参与:Nurhachu Null、张倩模型的训练、调参是一项非常费时费力的工作,了解神经网络内部的数学原理有利于快速找出问题所在。本文作者从零开始,一步一步讲解了训练神经网络时所用到的数学过程。神经网络是线性模块和非线性模块的巧妙排列。当聪明地选择并连接这些模块时,我们就得到了一个强大的工具来逼近任何一个数学函数,如一个能够借助非线性决策边界进行分类的神经网络。运行代码的步骤如下:git clone https://github.com/omar-flore...
  • 『深度概念』度量学习中损失函数的学习与深入理解
    0. 概念简介 度量学习(Metric Learning),也称距离度量学习(Distance Metric Learning,DML) 属于机器学习的一种。其本质就是相似度的学习,也可以认为距离学习。因为在一定条件下,相似度和距离可以相互转换。比如在空间坐标的两条向量,既可以用余弦相似度的大小,也可以使用欧式距离的远近来衡量相似程度。一般的度量学习包含以下步骤:Encoder编码模型:用于把原始数据编码为特征向量(重点如何训练模型)相似度判别算法:将一对特征向量进行相似度比对(重点如何计算相似度,阈值如何...
  • 使用深度学习来实现超分辨率的介绍
    点击上方“AI公园”,关注公众号,选择加“星标“或“置顶”作者:Bharath Raj编译:ronghuaiyang导读这里详细讨论了用于使用深度学习的超分辨率的各种组件、损失函数和度量。介绍超分辨率是从给定的低分辨率(LR)图像中恢复高分辨率(HR)图像的过程。由于较小的空间分辨率(即大小)或退化的结果(如模糊),图像可能具有“较低的分辨率”。我们可以将HR图像和LR图像通过如下公式联系起来:LR = degradation(HR)`显然,在应用退化函数时,我们可以从高分辨率图像中得到低分辨率图像。但是,...
  • 利用GBDT构造新的特征-Python实现
    向AI转型的程序员都关注了这个号👇👇👇机器学习AI算法工程  公众号:datayx背景1.1 Gradient BoostingGradient Boosting是一种Boosting的方法,它主要的思想是,每一次建立模型是在之前建立模型损失函数的梯度下降方向。损失函数是评价模型性能(一般为拟合程度+正则项),认为损失函数越小,性能越好。而让损失函数持续下降,就能使得模型不断改性提升性能,其最好的方法就是使损失函数沿着梯度方向下降(讲道理梯度方向上下降最快)。Gradient Boost是一个框架,里面可以...
  • XGBoost都已经烂大街了,你还不知道GBDT是咋回事?
    点击上方“AI派”,选择“设为星标”最新分享,第一时间送达!本文是《机器学习宝典》第 19 篇,读完本文你能够掌握集成学习中的 GBDT。前一篇介绍了 Boosting 中经典的一个算法:AdaBoost,这篇介绍 Boosting 中另一个经典的算法:GBDT(gradient boosting descision tree),也称为 GBM (gradient boosting machine) 或 MART (multiple additive regression tree),GBDT 虽然也是属于...
  • 像堆乐高一样:从零开始解释神经网络的数学过程
    点击上方“AI有道”,选择“星标”公众号重磅干货,第一时间送达本文转载自机器之心,禁二次转载选自:Medium作者:Omar U. Florez参与:Nurhachu Null、张倩模型的训练、调参是一项非常费时费力的工作,了解神经网络内部的数学原理有利于快速找出问题所在。本文作者从零开始,一步一步讲解了训练神经网络时所用到的数学过程。神经网络是线性模块和非线性模块的巧妙排列。当聪明地选择并连接这些模块时,我们就得到了一个强大的工具来逼近任何一个数学函数,如一个能够借助非线性决策边界进行分类的神经网络。运行...
  • Python|机器学习-一元线性回归
    一元线性回归模型很简单y1=ax+b+ε,y1为实际值,ε为正态的误差。y2=ax+b,y2为预测值。ε=y1-y2。def model(a,b,x):  # x is vector,a and b are the common number. return a*x+b这里将整组数据的预测结果方差作为损失函数。J(a,b)=sum((y1-y2)^2)/ndef cost(a,b,x,y):    # x is argu, y is actual result.        n=len(x)    re...
  • 基础机器学习干货 | 线性分类笔记(下)
    在Softmax分类器中,函数映射保持不变,但将这些评分值视为每个分类的未归一化的对数概率,并且将折叶损失替换为交叉熵损失。Softmax分类器的命名是从softmax函数那里得来的,softmax函数将原始分类评分变成正的归一化数值,所有数值和为1,这样处理后交叉熵损失才能应用。Softmax分类器将这些数值看做是每个分类没有归一化的对数概率,鼓励正确分类的归一化的对数概率变高,其余的变低。Softmax分类器为每个分类提供了“可能性”SVM的计算是无标定的,而且难以针对所有分类的评分值给出直观解释。Softmax分类器则不同,它允许我们计算出对于所有分类标签的可能性。
官方公众号