深度学习相关概念及术语总结

news2025/6/17 23:47:03

目录

  • 1.CNN
  • 2.RNN
  • 3.LSTM
  • 4.NLP
  • 5.CV
  • 6.正向传播
  • 7.反向传播
  • 8.sigmoid 函数
  • 9.ReLU函数
  • 10.假设函数
  • 11.损失函数
  • 12.代价函数

1.CNN

CNN 是卷积神经网络(Convolutional Neural Network)的缩写。卷积神经网络是一种深度学习模型,专门用于处理具有网格状结构的数据,例如图像和视频。CNN 最初被广泛应用于图像识别领域,但随后也扩展到其他领域,如自然语言处理等。

CNN 的核心特点包括:

  • 卷积层:CNN 使用卷积层来提取输入数据的特征。卷积操作通过滤波器(或称为卷积核)在输入数据上滑动,计算出每个位置的特征值。
  • 池化层:CNN 使用池化层来减小特征图的尺寸,同时保留最重要的信息。池化操作通常包括最大池化或平均池化。
  • 全连接层:在卷积和池化层之后,CNN 通常包括全连接层,用于将提取的特征映射到输出类别。

CNN 在图像识别、目标检测、人脸识别等领域取得了巨大成功,并且在自然语言处理领域的文本分类、情感分析等任务中也取得了显著的成果。由于其对图像和序列数据的强大特征提取能力,CNN 已成为深度学习领域中最重要和广泛应用的模型之一。

2.RNN

RNN是循环神经网络(Recurrent Neural Network)的缩写。循环神经网络是一种专门用于处理序列数据(如文本、音频、时间序列等)的神经网络模型。
RNN的核心特点包括:

  • 循环结构:RNN具有循环的结构,使其能够对序列数据进行逐个元素的处理,并在处理每个元素时保留之前的状态信息。
  • 时间展开:为了更好地理解RNN的工作原理,通常可以将RNN在时间上展开,形成一个循环结构的网络,每个时间步都有相同的网络结构,共享参数。
  • 状态传递:RNN能够在处理序列数据时传递状态信息,这意味着它可以记忆之前的输入,并在当前时间步使用这些信息。

RNN在自然语言处理、语音识别、时间序列预测等领域中得到了广泛的应用。然而,传统的RNN模型存在梯度消失和梯度爆炸等问题,为了克服这些问题,后来出现了许多改进的RNN变体,如长短时记忆网络(LSTM)和门控循环单元(GRU)等。

总的来说,RNN以其对序列数据的处理能力而闻名,成为了深度学习领域中重要的模型之一。

3.LSTM

LSTM是长短时记忆网络(Long Short-Term Memory)的缩写。它是一种循环神经网络(RNN)的变体,旨在克服传统RNN模型中的长期依赖问题,并能更好地处理和记忆序列数据。

LSTM的核心特点包括:

  • 遗忘门(Forget Gate):LSTM引入了遗忘门来控制前一个时间步的记忆状态是否被遗忘。
  • 输入门(Input Gate):LSTM使用输入门来控制当前时间步的输入如何被加入到记忆状态中。
  • 输出门(Output Gate):LSTM使用输出门来控制记忆状态如何影响当前时间步的输出。

通过这些门控机制,LSTM可以更好地处理长序列数据,并能够更有效地传递和记忆长期依赖关系。因此,在自然语言处理、时间序列分析、语音识别等领域,LSTM已经成为了一种非常有用的模型。

总的来说,LSTM的设计使其能够更好地处理和记忆序列数据中的长期依赖关系,因此在处理具有长期依赖的序列数据时具有很强的表现力。

4.NLP

NLP 是自然语言处理(Natural Language Processing)的缩写。自然语言处理是一种人工智能领域,专门研究计算机与人类自然语言之间的交互、理解和处理。

NLP 主要涉及以下内容:

  • 语言理解:NLP 旨在使计算机能够理解和解释人类语言的含义,包括语音识别、文本理解、语义分析等。
  • 语言生成:NLP 还包括使计算机能够生成人类可理解的自然语言,比如文本生成、对话系统、自动摘要等。
  • 语言处理应用:NLP 在许多实际应用中发挥作用,包括情感分析、机器翻译、信息检索、问答系统等。

NLP 的目标是使计算机能够理解和处理人类的自然语言,使其能够与人类进行自然、智能的交互。在近年来,由于深度学习和大数据的发展,NLP 已经取得了巨大的进步,使得计算机在处理和理解自然语言方面取得了显著的成就。

5.CV

CV通常指的是“Computer Vision”(计算机视觉)。计算机视觉是一种人工智能领域,致力于使计算机能够理解、分析和解释图像和视频数据。它涉及图像处理、模式识别、机器学习等技术,用于实现图像识别、物体检测、人脸识别、视频分析等应用。

计算机视觉的目标是开发算法和技术,使计算机能够模拟人类的视觉系统,从图像或视频中提取有用的信息,并做出相应的决策。计算机视觉在许多领域都有广泛的应用,包括医学影像分析、自动驾驶、安防监控、工业质检、增强现实等。

在学术和工业界,计算机视觉一直是一个活跃的研究领域,并且随着深度学习和大数据的发展,计算机视觉技术取得了显著的进步,为图像和视频分析提供了更准确和高效的解决方案。

6.正向传播

正向传播(Forward Propagation)或叫向前传播 是神经网络中的一个重要概念,用于描述信号在网络中从输入到输出的传播过程。在训练神经网络时,正向传播是指输入数据通过神经网络的各层,逐层计算并传播,最终得到输出结果的过程。

在正向传播过程中,输入数据首先经过输入层,然后通过隐藏层(可能有多个)进行加权求和、激活函数处理,最终得到输出层的输出。每一层的输出都作为下一层的输入,这样信号就会依次传播至输出层。

具体来说,正向传播包括以下步骤:

  1. 输入数据通过输入层传递至第一个隐藏层,进行加权求和和激活函数处理,得到第一个隐藏层的输出。
  2. 第一个隐藏层的输出作为输入传递至下一个隐藏层,同样进行加权求和和激活函数处理,得到下一个隐藏层的输出。
  3. 最终,经过所有隐藏层的处理后,数据传递至输出层,进行加权求和和激活函数处理,得到神经网络的输出结果。

正向传播是神经网络训练中的第一步,它将输入数据经过网络中的权重和偏置,通过激活函数的处理,最终得到网络的输出结果。这个输出结果可以与真实标签进行比较,从而计算出预测值与真实值之间的误差,进而进行反向传播(Backward Propagation)来更新网络参数,从而逐步优化网络的预测能力。

7.反向传播

反向传播(Backward Propagation)或向后传播是神经网络中的一个重要概念,用于调整网络中权重和偏置的过程。它是在训练神经网络时使用的一种优化算法,通过计算损失函数对神经网络参数的梯度,然后根据梯度下降法来更新网络中的参数,以使损失函数达到最小值。

在反向传播过程中,首先通过正向传播计算出网络的输出,然后计算输出与真实标签之间的误差。接着,误差会反向传播回网络,计算每个参数对误差的贡献,进而根据梯度下降法来更新网络的权重和偏置。

具体来说,反向传播包括以下步骤:

  1. 计算损失函数对网络输出的梯度。
  2. 将梯度反向传播回输出层,计算每个参数对损失函数的梯度。
  3. 将梯度继续反向传播至隐藏层,计算每个参数对损失函数的梯度。
  4. 根据梯度下降法,更新网络中的权重和偏置。

通过反向传播,神经网络可以利用梯度下降法逐步调整参数,以最小化损失函数,从而提高网络的预测能力。

反向传播是神经网络训练中至关重要的一部分,它使得神经网络能够根据数据动态地调整参数,从而更好地适应不同的任务和数据。

8.sigmoid 函数

Sigmoid函数是一种常用的数学函数,通常用于机器学习中的分类模型,尤其是逻辑回归模型。Sigmoid函数的数学表达式如下:

σ ( z ) = 1 1 + e − z σ(z) =\frac{1}{1+e^{−z}} σ(z)=1+ez1

其中,( e ) 是自然对数的底数,( x ) 是输入的实数。

在这里插入图片描述

Sigmoid函数的特点包括:

  1. 值域在(0, 1)之间:Sigmoid函数的输出值总是在0到1之间,这使得它特别适用于表示概率或将实数映射到概率值的问题。
  2. 平滑性:Sigmoid函数是连续可导的,并且具有良好的平滑性,这在优化算法中非常有用。
  3. 应用于逻辑回归:在逻辑回归中,Sigmoid函数通常用作激活函数,将线性模型的输出映射到0到1之间的概率值。

在机器学习中,Sigmoid函数经常用于将模型的输出转化为概率值,以便进行分类预测或计算分类的概率。sigmoid函数在神经网络中也有一些应用,尤其是在早期的神经网络模型中,作为激活函数使用。然而,随着时间的推移,一些新的激活函数,如ReLU(Rectified Linear Unit),已经取代了Sigmoid函数在神经网络中的常规使用。

9.ReLU函数

ReLU(Rectified Linear Unit)函数是一种常用的激活函数,用于神经网络中的前向传播过程。ReLU函数定义如下:

R e L U ( x ) = m a x ( x , 0 ) ReLU(x)=max(x,0) ReLU(x)=max(x,0)

换句话说,当输入 (x) 大于0时,ReLU函数返回 (x),否则返回0。

在这里插入图片描述

ReLU函数的特点包括:

  1. 非线性:ReLU函数是非线性的,这对于神经网络的表示能力至关重要。
  2. 稀疏性:在反向传播过程中,对于负的输入,ReLU函数的导数为0,这意味着一些神经元将被置为非活跃状态,从而实现了网络的稀疏性。
  3. 克服梯度消失问题:与一些传统的激活函数相比,ReLU函数有助于克服梯度消失问题,使得训练更加稳定。

ReLU函数在深度学习中得到了广泛的应用,尤其是在卷积神经网络(CNN)等模型中。它的简单性、非线性和稀疏性等特点使得它成为了许多深度学习模型的首选激活函数。然而,ReLU函数也有一些问题,如死亡神经元问题(Dead Neurons),即一些神经元可能在训练过程中永远不会被激活,这一问题后续被一些改进版本的激活函数所解决,如Leaky ReLU和ELU。

10.假设函数

假设函数(Hypothesis Function)是机器学习中的一个重要概念,特别是在监督学习中的回归和分类问题中经常出现。假设函数是指根据输入变量(特征)预测输出变量的函数。在不同的机器学习算法和模型中,假设函数可能会有不同的形式和表示方式。

  1. 线性回归:

在线性回归中,假设函数是一个线性函数,通常表示为:
h θ ( x ) = θ 0 + θ 1 x 1 + θ 2 x 2 + . . . . . . + θ n x n h_θ(x) = θ_0 + θ_1x_1 +θ_2x_2 + ......+ θ_nx_n hθ(x)=θ0+θ1x1+θ2x2+......+θnxn
其中 ( x 1 , x 2 , . . . . . . x n x_1, x_2,...... x_n x1,x2,......xn ) 是输入特征,( θ 0 , θ 1 , . . . . . . , θ n θ_0, θ_1, ......, θ_n θ0,θ1,......,θn ) 是模型参数(也称为权重),( h θ ( x ) h_θ(x) hθ(x) ) 是预测的输出。

  1. 逻辑回归:
    在逻辑回归中,假设函数是用于估计输入变量属于正类别的概率,通常表示为:
    h θ ( x ) = 1 1 + e − ( θ 0 + θ 1 x 1 + θ 2 x 2 + . . . . . . + θ n x n ) h_θ(x) = \frac{1}{1 + e^{-(θ_0 +θ_1x_1 + θ_2x_2 + ...... + θ_nx_n)}} hθ(x)=1+e(θ0+θ1x1+θ2x2+......+θnxn)1
    其中 ( x 1 , x 2 , . . . . . . x n x_1, x_2,...... x_n x1,x2,......xn ) 是输入特征,( θ 0 , θ 1 , . . . . . . , θ n θ_0, θ_1, ......, θ_n θ0,θ1,......,θn) 是模型参数,( h θ ( x ) h_θ(x) hθ(x) ) 是预测属于正类别的概率。

在机器学习中,假设函数用于表示模型对输入数据的预测。通过合适的参数学习和训练,假设函数可以对新的未知数据进行预测。在训练过程中,模型的目标是找到最佳的参数,使得假设函数能够对数据做出准确的预测。

11.损失函数

损失函数(Loss Function)是在机器学习和优化问题中经常用到的一个重要概念。它用来量化模型预测与实际值之间的差距或损失程度,是模型优化过程中的关键组成部分。在训练模型的过程中,优化算法的目标通常是最小化损失函数,以便使模型的预测更加接近实际值。

不同的机器学习问题和模型会使用不同的损失函数,以下是一些常见的损失函数:

均方误差(Mean Squared Error, MSE):
在回归问题中常用的损失函数,用于衡量模型预测值与实际值之间的平方差。它的数学表达式为:
L ( y , y ^ ) = ( y i − y ^ i ) 2 L(y, \hat{y}) =(y_i - \hat{y}_i)^2 L(y,y^)=(yiy^i)2
其中 ( y i y_i yi) 是真实值,( y ^ i \hat{y}_i y^i) 是模型的预测值。

交叉熵损失(Cross Entropy Loss):
在分类问题中常用的损失函数,特别是在逻辑回归和神经网络中。对于二分类问题,交叉熵损失函数的数学表达式为:
L ( y , y ^ ) = ( y i log ⁡ ( y ^ i ) + ( 1 − y i ) log ⁡ ( 1 − y ^ i ) ) L(y, \hat{y}) = (y_i \log(\hat{y}_i) + (1-y_i) \log(1-\hat{y}_i)) L(y,y^)=(yilog(y^i)+(1yi)log(1y^i))
其中 ( y i y_i yi ) 是真实标签(0或1),( y ^ i \hat{y}_i y^i ) 是模型的预测概率。

Hinge Loss:
用于支持向量机(SVM)中的损失函数,适用于分类问题。Hinge Loss函数的数学表达式为:
L ( y , y ^ ) = max ⁡ ( 0 , 1 − y ⋅ y ^ ) L(y, \hat{y}) = \max(0, 1 - y \cdot \hat{y}) L(y,y^)=max(0,1yy^)

其中 ( y ) 是真实标签(-1或1),( y ^ \hat{y} y^ ) 是模型的预测值。

这些都是常见的损失函数,但实际应用中会根据具体问题和模型的特性选择合适的损失函数。通过优化算法(如梯度下降)来最小化损失函数,可以使模型更好地拟合训练数据,提高预测的准确性。

12.代价函数

代价函数(Cost Function)是机器学习中的一个重要概念,用于衡量模型预测与实际值之间的误差。代价函数是模型优化过程中的关键组成部分,通常在训练过程中被最小化,以便使模型的预测更加接近实际值。

在监督学习中,代价函数用于量化模型的预测误差,以下是一些常见的代价函数:

均方误差(Mean Squared Error, MSE):
均方误差是常用的代价函数,用于回归问题。它衡量了模型预测值与真实值之间的平方差的平均值,其数学表达式为:
J ( θ ) = 1 2 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) 2 J(\theta) = \frac{1}{2m} \sum_{i=1}^{m} (h_{\theta}(x^{(i)}) - y^{(i)})^2 J(θ)=2m1i=1m(hθ(x(i))y(i))2
其中 ( h θ ( x ( i ) ) ) 是模型对样本 ( x ( i ) h_{\theta}(x^{(i)}) ) 是模型对样本 ( x^{(i)} hθ(x(i)))是模型对样本(x(i) ) 的预测值,( y ( i ) y^{(i)} y(i) ) 是样本的真实值,( m ) 是样本数量。

交叉熵损失(Cross Entropy Loss):
交叉熵损失函数通常用于分类问题,特别是在逻辑回归和神经网络中。对于二分类问题,交叉熵损失函数的数学表达式为:
J ( θ ) = − 1 m ∑ i = 1 m ( y ( i ) log ⁡ ( h θ ( x ( i ) ) ) + ( 1 − y ( i ) ) log ⁡ ( 1 − h θ ( x ( i ) ) ) ) J(\theta) = -\frac{1}{m} \sum_{i=1}^{m} (y^{(i)} \log(h_{\theta}(x^{(i)})) + (1-y^{(i)}) \log(1-h_{\theta}(x^{(i)}))) J(θ)=m1i=1m(y(i)log(hθ(x(i)))+(1y(i))log(1hθ(x(i))))
其中 ( h θ ( x ( i ) ) ) 是模型对样本 ( x ( i ) h_{\theta}(x^{(i)}) ) 是模型对样本 ( x^{(i)} hθ(x(i)))是模型对样本(x(i) ) 的预测概率,( y ( i ) y^{(i)} y(i) ) 是样本的真实标签,( m ) 是样本数量。

代价函数的选择取决于具体的机器学习问题和模型类型。通过最小化代价函数,可以使模型更好地拟合训练数据,提高预测的准确性。

持续更新中!!!!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1503743.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

数据可视化基础篇-图形语法

当我们在制作仪表盘或其他数据可视化时离不开对图表的选择,不同的数据信息该怎么选择图表可能是不少人会遇到的问题。 要解决这个问题我们首先需要理解数据可视化的生成规律或者说是“语法”,目前主流的数据可视化理论认为,可视化是由基础标…

存储引擎的简介

简介: 1.在mysql存储引擎可以说就是指表的类型,可以称为表处理器,以表的形式存储。 2.他的功能就是接收上层传下来的指令,然后对表中的数据进行提取写入操作。 目的: 为了管理方便,我们把连接管理&#xf…

生成对抗网络 (GAN)

生成对抗网络(Generative Adversarial Networks,GAN)是由Ian Goodfellow等人在2014年提出的一种深度学习模型。GAN由两部分组成:一个生成器(Generator)和一个判别器(Discriminator)&…

代码随想录算法训练营第四天|24.两两交换链表中的节点、19.删除链表的倒数第N的节点、07.链表相交、142.环形链表II

代码随想录算法训练营第四天|24.两两交换链表中的节点、19.删除链表的倒数第N的节点、07.链表相交、142.环形链表II 24.两两交换链表中的节点 给你一个链表,两两交换其中相邻的节点,并返回交换后链表的头节点。你必须在不修改节点内部的值的情况下完成…

创建数据表

Oracle从入门到总裁:https://blog.csdn.net/weixin_67859959/article/details/135209645 如果要进行数据表的创建 create table 表名称 (列名称 类型 [DEFAULT 默认值 ] ,列名称 类型 [DEFAULT 默认值 ] ,列名称 类型 [DEFAULT 默认值 ] ,...列名称 类型 [DEFAULT 默认值 ] )…

JS直接量及其相关对象

什么是直接量 直接量是指不需要创建对象就可以直接使用的变量。ES中的直接量主要有三种类型:表示字符串的string类型、表示数字的number类型和表示true/false的boolean类型。当我们直接将值赋给变量后,ES就会自动判断其类型,而且当参数发生变…

springboot + jpa + 达梦数据库兼容 Mysql的GenerationType.IDENTITY主键生成策略

导入达梦数据库对hibernate的方言包 <dependency><groupId>com.dameng</groupId><artifactId>DmDialect-for-hibernate5.6</artifactId><version>8.1.2.192</version></dependency>配置文件中添加方言配置和主键生成策略配置…

如何在一个pycharm项目中创建jupyter notebook文件,并切换到conda环境中

1、第一步可以直接在pycharm项目中创建jupyter notebook文件 2、假若想要切换成pytorch环境做实验例子&#xff0c;会发现报这个错误 Jupyter server process exited with code 1 C:\Users\12430\.conda\envs\pytorch3.11\python.exe: No module named jupyter在这里&#xff…

洞悉 Kubernetes 高阶奥秘:掌控资源、网络、存储,玩转容器化应用!

昨天我们已经入门了K8S&#xff0c;今天带大家学习一下资源、网络、存储这几个进阶的知识点模块内容。这几天陆陆续续会把K8S从头到尾讲一遍&#xff0c;最后会带大家实战一下&#xff0c;下面就开始今天的学习吧。 高级资源和控制器 Kubernetes 提供了一系列高级资源和控制器…

Toyota Programming Contest 2024#3(AtCoder Beginner Contest 344)(A~C)

A - Spoiler 竖线里面的不要输出&#xff0c;竖线只有一对&#xff0c;且出现一次。 #include <bits/stdc.h> //#define int long long #define per(i,j,k) for(int (i)(j);(i)<(k);(i)) #define rep(i,j,k) for(int (i)(j);(i)>(k);--(i)) #define debug(a) cou…

【自动化】PyoutuGUI操作键鼠

自动化之PyoutuGUI操作键鼠 文章目录 自动化之PyoutuGUI操作键鼠  &#x1f449;引言&#x1f48e;一、初始化环境二、键盘鼠标事件三、消息框功能四、案例实战自动登录WPS 五、问题解决 &#x1f449;引言&#x1f48e; 学习的最大理由是想摆脱平庸&#xff0c;早一天就多一…

CSS基础知识

font-family: "Trebuchet MS", Verdana, sans-serif; 字体栈&#xff0c;浏览器会一个一个试过去看下哪个可以用 font-size16px; font-size1em; font-size100%;//相对于16px 字体大小&#xff0c;需要进行单位换算16px1em font-weightnormal;//400font-weight属性…

STM32CubeMX学习笔记17--- FSMC

1.1 TFTLCD简介 TFT-LCD&#xff08;thin film transistor-liquid crystal display&#xff09;即薄膜晶体管液晶显示器。液晶显示屏的每一个像素上都设置有一个薄膜晶体管&#xff08;TFT&#xff09;&#xff0c;每个像素都可以通过点脉冲直接控制&#xff0c;因而每个节点都…

2024年3月10日 十二生肖 今日运势

小运播报&#xff1a;2024年3月10日&#xff0c;星期日&#xff0c;农历二月初一 &#xff08;甲辰年丁卯月癸酉日&#xff09;&#xff0c;法定节假日。 红榜生肖&#xff1a;龙、牛、蛇 需要注意&#xff1a;鸡、狗、兔 喜神方位&#xff1a;东南方 财神方位&#xff1a;…

Linux——文件重定向

目录 前言 一、重定向 二、重定向的运用 三、dup2 四、命令行中的重定向 五、为什么要有标准错误 前言 在之前我们学习了文件标识符&#xff0c;直到close可以使用文件标识符进行关闭&#xff0c;但是当我们关闭1号&#xff08;stdout&#xff09;时&#xff0c;无法往显…

基于springboot实现图书推荐系统项目【项目源码+论文说明】计算机毕业设计

基于springboot实现图书馆推荐系统演示 摘要 时代的变化速度实在超出人类的所料&#xff0c;21世纪&#xff0c;计算机已经发展到各行各业&#xff0c;各个地区&#xff0c;它的载体媒介-计算机&#xff0c;大众称之为的电脑&#xff0c;是一种特高速的科学仪器&#xff0c;比…

软件测试自学和报班学习的区别,各有各的优势和缺点,大家看完之后自己选择喔

时代在进步&#xff0c;人们汲取知识的方式不再是单一的在书本上面&#xff0c;现在网络发达&#xff0c;只需要上网就能找到相关的好多知识&#xff0c;慢慢的大家越来越觉得有了这些知识&#xff0c;只要自己有自制力就完全能够自学到一定的程度。 在自学氛围的影响下&#…

深度学习+感知机

深度学习感知机 1感知机总结 2多层感知机1XOR2激活函数3多类分类总结 3代码实现 1感知机 是个很简单的模型,是个二分类的问题。 感知机&#xff08;perceptron&#xff09;是Frank Rosenblatt在1957年提出的一种人工神经网络&#xff0c;被视为一种最简单形式的前馈神经网络&…

could not publish server configuration for tomcat at localhost

1&#xff0c;报错信息如图&#xff1a; 2&#xff0c;找到servers双击&#xff0c;选择Modules&#xff0c;如果有两个webModules ,remove一个&#xff0c; 3&#xff0c;如果重启还是报错&#xff0c;干脆两个都remove&#xff0c;双击tomcat服务add And Remove重新添加

【算法沉淀】最长回文子串

&#x1f389;&#x1f389;欢迎光临&#x1f389;&#x1f389; &#x1f3c5;我是苏泽&#xff0c;一位对技术充满热情的探索者和分享者。&#x1f680;&#x1f680; &#x1f31f;特别推荐给大家我的最新专栏《数据结构与算法&#xff1a;初学者入门指南》&#x1f4d8;&am…