文章目录 专栏导读 1、梯度下降法原理 2、梯度下降法原理代码实现 3、sklearn内置模块实现 专栏导读 ✍ 作者简介:i阿极,CSDN Python领域新星创作者,...
机器学习笔记之正则化——批标准化[Batch Normalization] 引言 引子:梯度消失 梯度消失的处理方式 批标准化 ( Batch Normalization ) (\\text{Batc...
【深度学习入门到进阶】必看系列,含激活函数、优化策略、损失函数、模型调优、归一化算法、卷积模型、序列模型、预训练模型、对抗神经网络等 专栏...
向量化多元线性回归,及梯度下降算法 将W₁,…,Wn写成向量W,将X₁,…,Xn写成向量X,而b还是之前的b 注意...
Grad-CAM (Gradient-weighted Class Activation Mapping) 是一种可视化深度神经网络中哪些部分对于预测结果贡献最大的技术。它能够定位到特定的图像区域...
形态学-腐蚀操作 cv2.erode(img, kernel, iterations=1) img: 被处理图像 kernel: 处理图像用的盒子nxn大小 iterations: 函数运行次数 形态学-膨胀操作...
Python用于科学计算中各种数组操作的工具包numpy的linalg模块中提供函数norm用于计算向量和矩阵的范数。该函数的调用接口为 norm(x,ord) \\text{norm(x,ord...
Logistic回归和Softmax回归引入L2正则化后的梯度下降过程 Logistic回归引入L2L_2L2正则化后的梯度下降过程 Softmax回归引入L2L_2L2正则化后的梯度下降过...
激活函数 激活函数的作用是什么? 常用的激活函数 Relu 引入Relu的原因 Relu顺序 relu在零点可导吗,不可导如何进行反向传播? G...