Deep_learning--深度学习放弃

本文只是记录一些人工智能的关键字,并不做解析与告知,属日常记载,关键字具体详情请打开浏览器自行搜索。

关键词

人工智能

Deep_learning--深度学习放弃

包含关系

Deep_learning--深度学习放弃

CNN(卷积神经网络

人工神经网络的变化和升级,是科学家通过模拟人类大脑的工作原理而发明的。

  1. 卷积层
    对输入的数据进行特征提取
  2. 池化层
    提取输入数据的核心特征方式,不仅实现了对原始数据的压缩,还大大减少了参与模型计算的参数,提升了计算的效率。
    方法:平均池化层和最大池化层。
  3. 全连接层
    将上两步提取到的特征进行压缩完成模型的分类。

人工神经网络

M-P模型和感知机

深度学习

多层感知机

输入层
隐藏层
输出层

多层感知机具备了后向传播能力,我们可以将后向传播能力理解为多层感知机模型进行自我学习和优化的一种方法。
通过累加多层感知机的网络层次,模型拥有解决现实世界的复杂问题的能力。但是模型的深度是一把双刃剑,并不是越多越好,当深度不断增加时会出现梯度消失的问题。

梯度消失

无监督学习
有监督学习
回归问题
分类问题
欠拟合与过拟合

欠拟合:与目标数据相差大,不是跟着数据走。

  1. 增加特征项
  2. 构造复杂的多项式
  3. 减少正则化参数

过拟合:经过数据,但是抖动太大,受噪声数据影响大。

  1. 增大训练的数据量
  2. 采用正则化方法
  3. Dropout方法
损失和优化

损失函数:计算模型的真实值和预测值之间的损失值的函数

  1. 均方误差函数
  2. 均方根误差函数
  3. 平均绝对误差函数

优化函数:对模型参数进行优化的函数。
剃度:将多元函数的各个参数求得的偏导函数以向量的形式展现出来。
例如:二元函数f(x,y)的剃度(公式编写网址MD插入公式方法):
(fxfy)(\frac{\partial f}{\partial x},\frac{\partial f}{\partial y})

  1. 剃度下降
  2. 批量梯度下降
  3. 随机梯度下降
  4. Adam

**函数

  1. Sigmoid
  2. tanh
  3. ReLU

计算机视觉

信息的收集

信息的分析

信息的处理

图片的分类

图片的识别与语义分割