note.wcoder.com
wcoder GitHub

Table of Contents

DeepLearning

现代深度学习模型

玻尔兹曼机

8.1.1 标准玻尔兹曼机
8.1.2 受限玻尔兹曼机
8.1.3 深层玻尔兹曼机

自编码器

8.2.1 标准自编码器
8.2.2 稀疏自编码器
8.2.3 降噪自编码器

深度信念网络

残差神经网络

胶囊神经网络

其它

Binary Classification 二元分类 二值分类

表示分类任务中仅有两个类别,比如我们想识别一幅图片是或者不是猫。

即训练一个 分类器 ,输入一幅图片,用特征向量 x 表示,输出是不是猫,用 y = 0 或 1 表示;二类分类是假设每个样本都被设置了一个且仅有一个标签 0 或者 1。

Logistic Regression 逻辑回归

logistic回归也称为逻辑回归,与线性回归这样输出是连续的、具体的值(如具体房价123万元)不同,逻辑回归的输出是0~1之间的概率,但可以把它理解成回答“是”或者“否”(即离散的二分类)的问题。回答“是”可以用标签“1”表示,回答“否”可以用标签“0”表示。
比如,逻辑回归的输出是“某人生病的概率是多少”,我们可以进一步理解成“某人是否生病了”。设置一个阈值如0.5,如果输出的是“某人生病的概率是0.2”,那么我们可以判断“此人没有生病”(贴上标签“0”)(二元Logit回归)。

例:

  • 医学研究中,Logistic回归常用于对某种疾病的危险因素分析。像是分析年龄、吸烟、饮酒、饮食情况等是否属于2型糖尿病的危险因素。

  • 问卷研究中,Logistic回归常被用在分析非量表题上,像是将样本基本背景信息作为X,购买意愿作为Y,分析性别、年龄、家庭条件是否会影响购买意愿。

Logistic Regression cost function

loss function通常用于衡量单个样本其预测值和实际值的“差距”,而cost function通常是针对样本集中的所有样本,而且是一个平均值。

损失函数(Loss/Error Function): 计算单个训练集的误差,例如:欧氏距离,交叉熵,对比损失,合页损失

代价函数(Cost Function): 计算整个训练集所有损失之和的平均值

  • cost function
    梯度下降
  • loss(error) function损失函数
← Previous Next →
Less
More