精选分类

shokaX

CyberSecurity

Develop

Graduation

文章列表

2.2k2 分钟

解决的问题:目标检测和识别、分类和检索、超分辨率重构 核心问题:如何进行 特征提取 # 整体架构 卷积神经网络 和 传统网络 的区别: CNN 的输入数据都是 3 维的,不用拉成一个向量 输入层:与传统网络的区别是,直接传入了图像数据(3 维) 卷积层:提取特征 池化层:数据压缩 全连接层:传统神经网络结构;输出层的每一个神经元都与上一层的每一个神经元连接; 每次卷积之后,都会加入一个 Relu 激活函数 卷积层 + 池化层 只是进行特征提取,获得结果还是靠神经网络的全连接层; 因为全连接层无法直接处理 多维 的数据(图像),所以要先把数据拉成 向量 的格式 # 卷积 (提取特
4.2k4 分钟

# 神经网络基本原理 解决的问题:特征提取(哪些特征比较合适) 应用:检测、识别 # 前向传播 前向传播:得出损失值 (其中 xxx 为输入数据,WWW 为权重参数,LLL 为损失值) # 得分函数 线性函数:从输入 -> 输出的映射 其结果表示输入数据对于每个分类的得分。 数学表示: f(x,W)=Wx (+b)f(x, W)=Wx\ (+b)f(x,W)=Wx (+b) 其中 xxx 为图像,WWW 为权重参数,bbb 为偏置参数。 通常 WWW 对结果起决定作用,bbb 对结果起微调作用; 假设图片为 [32×32×3][32\times32\
9271 分钟

# 多层感知器 (MLP, Multi Layer Perceptron) 模仿人的思考机制 => (网状结构) 树突接受 多个 神经元的轴突释放的递质,产生信息并将信息转递给轴突,并由轴突再次向后续神经元释放递质,实现信息传递。 从 多个 上一层的模型中获得输入数据,通过某个 f(x)f(x)f(x) 得到输出数据,并作为下一层模型的数据输入。 MLP 数学表达式(简化): &\left\{ \begin{array}{**lr**} a_{1}^{2} =g(\theta_{10}^{1}x_{0}+\theta_{11}^{1}x
3921 分钟

# 模型优化 # 数据 数据的质量决定模型表现的上限 检查: 数据属性的意义,是否为无关数据 => 删除不必要的属性 => 减少过拟合、节约运算时间 不同属性数据的数量级差异性如何 => 数据预处理:归一化、标准化 => 平衡数据影响,加快训练收敛 是否有异常数据 => 是否保留或过滤掉异常数据 => 提高鲁棒性 数据样本数量是否足够 => 扩大数据样本 采集数据的方法是否合理,采集到的数据是否有代表性 对于标签结果,要确保标签判定规则的一致性(统一标准) # 不同的模
1.3k1 分钟

# 混淆矩阵 使用准确率进行模型评估的局限性: (以预测 0/1 数据为例,不用模型,直接预测结果全是 1 的准确率也可能很高) 没有体现数据预测的实际分布情况 没有体现模型错误预测的类型。 混淆矩阵:又称误差矩阵,用于衡量分类算法的准确程度 True Positives (TP):预测准确、实际为正样本的数量 True Negatives (TN):预测准确、实际为负样本的数量 False Positives (FP):预测错误、实际为正样本的数量 False Negatives (FN):预测错误、实际为负样本的数量 更丰富的模型评估指标 指标 公式 定
4.4k4 分钟

# 决策树 (Decision Tree) 一种对实例进行分类的树形结构,通过多层判断区分目标所属类别 本质:通过多层判断,从训练数据集中归纳出一组分类规则 优点: 计算量小,运算速度快 易于理解,可清晰查看各属性的重要性 缺点: 忽略属性间的相关性 样本类别分布不均匀时容易影响模型表现 # 求解方法 问题核心:属性选择(每一个节点,应该选用哪个属性) 信息熵: 熵是衡量数据集纯度的一个指标(也是度量不确定性的指标)。 对于一个类别变量 C 的数据集 D, 其熵定义为: Entropy(D)=−∑i=1ncP(ci)log⁡2P(ci)Entropy(D)&#x
1.4k1 分钟

# 无监督学习 不给定带标记的训练示例,自动对输入的数据进行分类或分群。 优点: 算法不受监督信息(偏见)的约束,可能考虑到新的信息 不需要标签数据,极大程度扩大数据样本 主要应用:聚类分析、关联规则、维度缩减 # 聚类分析 又称为群分析, 根据对象的某些属性的相似度,将其自动划分为不同的类别。 (分类问题) # K-means K 均值聚类算法:以空间中 k 个点为中心进行聚类,最靠近它们的对象归为一类。 核心步骤: 设 kkk 个点为 x1,x2,…,xkx_1,x_2,\dots,x_kx1​,x2​,…,xk​,mmm 个区域簇为 u1,u2,…,umu_1,u_2,\dots,u
1.4k1 分钟

# 线性回归 # 逻辑回归 (用于解决分类问题) 要点: ①寻找决策边界的格式 ②损失函数最小化情况下,求解决策边界的系数 分类问题 逻辑回归的简单解释: sigmoid 函数(一种概率分布函数)S(x)=11+e−xS\left(x\right)=\frac{1}{1+e^{-x}}S(x)=1+e−x1​ ,图像如下: 其中 S(x) > 0.5 的视为 1, S(x) < 0.5 的视为 0,即可对所有的 x 进行分类。 概率分布函数 P(x)=11+e−g(x)P(x)=\frac{1}{1+e^{-g(x
1.5k1 分钟

在杭州某公司 springboot 后端开发岗干了半个月,发现了很多不足,以及一些值得记录的地方。 我在入职的时候,其实在 springboot 方面是算是个小白,只懂一点基础知识,甚至 mybatis 框架都没有上手用过... 先是尝试自己照着模板写,然后看同事的代码修改,现在勉强算是熟练掌握基本的增删改查的接口编写了。 但是,我总是能发现一些新的写法,更加方便更加灵活,但应该对应不同的应用场景,也应该相互结合使用。 # 最开始 最开始,我学会使用 Mybatis 写增删改查, 在 .xml 文件中写 sql 语句: 123<select id="fun