如何最简单、通俗地理解逻辑回归算法?

探索逻辑回归:简单易懂的算法之旅

在数据科学的海洋中,预测就像灯塔,指引我们寻找规则。
其中,逻辑回归——这个看似简单的二类算法,却是机器学习领域的关键关键。
它起源于线性回归的扩展,但不再处理连续值,而是离散的分类信息。
下面,我们就一起来了解一下这个伟大算法的逻辑。

回到分类桥

逻辑回归:返回和逻辑。
回顾线性回归,我们试图通过线性关系来捕捉数据背后的联系。
然而,面对非连续的类别变量,比如“大”和“小”、“黑”和“白”,我们需要将这种非线性问题转化为概率问题。
因此,我们引入概率的概念,将线性回归的输出值映射到概率范围。
例如,通过Sigmoid函数,将线性值映射到(0,1)之间,即逻辑返回的起点。

逻辑魅力:映射函数的选择

常见的映射函数有几种可供选择,比如Sigmoid函数(公式1),反正就是cut函数(公式2), 和对偶曲正割函数(公式3),它们将不同的输入范围映射到适当的概率范围。
在实际应用中,由于梯度计算简单,逻辑函数往往是首选。
但该功能的最佳效果还需要进一步评估。

理想模型的构建

4.1 概率预测的构建

通过映射函数,实现自变量到类别概率的转换。
以第二类为例,当输入大于某个阈值时,我们预测为类别1,反之亦然,预测的概率表达式为:p(类别1)和p(类别0)。
这为我们提供了预测性决策依据。

4.2 损失函数的转换

线性回归的最小二乘不再适用。
我们需要找到一个可以衡量分类模型拟合度的损失函数。
交叉熵损失函数(公式8)从肩部出现。
它鼓励模型准确预测每个样本的类别,并通过最小损失找到最优参数。

交叉熵的解释可以从信息论的角度来理解,也可以从似然函数的角度来理解。
对于多分类问题,逻辑回归通过OneVSONE和Onevsrest方法扩展了多类别预测问题。

扩展应用及结论

逻辑回归虽然简单,但背后的理论却很深奥。
它不仅是线性回归的扩展,而且还定期处理拟合问题。
对于数据科学爱好者来说,逻辑回归是入门和深入学习的绝佳起点。
继续探索数据科学的旅程,你会发现算法的更多奥秘。

线性回归和逻辑回归有什么区别吗?

线性回归和逻辑回归之间的差异:各种属性和各种应用。

1。
各种本质。

1。
逻辑回归:这是一个广泛的线性回归分析模型。

2。
线性回归:在数学数据中使用回归分析来确定统计分析方法,该方法取决于两个或多个变量之间的定量关系。

2。
各种应用。

1。
逻辑回归:通常使用数据挖掘,自动诊断疾病,经济预测和其他领域。

2。
线性回归:经常用于数学,金融,趋势线,经济学和其他领域。

对于线性回归是必要的,变量必须是恒定数据变量。
目前,连续数据变量将用于线性返回。

线性回归特征:

对线性回归关系之间的关系有回归分析。
它的表达是y = w'x+e,E是一个通用分布,对0的错误服从。
回归分析中有许多自变量:这是一个理论问题。
因此,SPSS等于线性回归中的分析分析。

返回分析中,只有一个自变量和一个原因变量,并且两者之间的关系可以在直线上表达,该回归分析称为-ornamental Remissional Remission Enalysis。
如果回归分析包括两个或多个自变量,并且由于变量和自变量之间的线性关系,则称为多线区域分析。

逻辑回归的优点是什么

自动学习中有三个主要问题:回归,分类和聚类。
线性回归是一个回归问题,而后勤回归是分类问题。
因此,今天我们了解后勤回归的优势。
1。
结构是简单而可以通过功能的重量来解释的,我们可以看到不同特征对最终结果的影响。
2 3。
输出结果易于调整。
结果都是所有概率值,并且可以轻松调整阈值以获得分类。
4。
效果是好的,直到功能的设计良好,效果不会那么负面。