优化算法 系列 区域卷积神经网络(region-based CNN或regions with CNN features,R-CNN) R-CNN R-CNN首先从输入图像中选取若干(例如2000个)提议区域(如锚框也是一种选取方法),并标注它们的类别和边界框(如偏移量)。 然后,用卷积神经网络对每个提议区域进行前向传播以抽取其特征。 用每个提议区域的特征来预测类别和边界框。 R-CNN的主要性能瓶颈在于,对每个提议区域,卷积神...
全卷积网络FCN FCN与CNN FCN:FCN是对图像进行像素级的分类(也就是每个像素点都进行分类),从而解决了语义级别的图像分割问题。将这3层表示为卷积层,卷积核的大小(通道数,宽,高)分别为(4096,1,1)、(4096,1,1)、(1000,1,1) CNN: 在最后的卷积层之后会连接上若干个全连接层,将卷积层产生的特征图(feature map)映射成为一个固定长度的特征向量。一般的CNN结构适用于图像级别的分类和回归任务,因为它们最后都期望得到输入图像的分类的概率 ...
图像增广 常用图像增广方法 d2l.set_figsize() img = d2l.Image.open('../img/cat1.jpg') d2l.plt.imshow(img); def apply(img, aug, num_rows=2, num_cols=4, scale=1.5): Y = [aug(img) for _ in range(num_rows * num_cols)] d2l.show_images(Y, num_rows, num_cols, scale=scale) 翻转和裁剪 ![]...
微调 微调步骤 在源数据集(例如ImageNet数据集)上预训练神经网络模型,即源模型。 创建一个新的神经网络模型,即目标模型。这将复制源模型上的所有模型设计及其参数(输出层除外)。我们假定这些模型参数包含从源数据集中学到的知识,这些知识也将适用于目标数据集。我们还假设源模型的输出层与源数据集的标签密切相关;因此不在目标模型中使用该层。 向目标模型添加输出层,其输出数是目标数据集中的类别数。然后随机初始化该层的模型参数。 在目标数据集(如椅子数据集)上训练目标模型。输出层将从头开始进行训练,而所有其他层的参数将根据源模型的参数进行微调。 ,并且其设计了两个任务来预训练该模型。 第一个任务是采用 MaskLM 的方式来训练语言模型,通俗地说就是在输入一句话的时候,随机地选一些要预测的词,然后用一个特殊的符号[MASK]来代替它们,之后...
微调BERT 一方面,在提出时,BERT改进了各种自然语言处理任务的技术水平。 另一方面,原始BERT模型的两个版本分别带有1.1亿和3.4亿个参数。 因此,当有足够的计算资源时,我们可以考虑为下游自然语言处理应用微调BERT。 单文本分类 单文本分类将单个文本序列作为输入,并输出其分类结果。 语言可接受性语料库(Corpus of Linguistic Acceptability,COLA)也是一个单文本分类的数据集,它的要求判断给定的句子在语法上是否可以接受。例如,“I should study.”是可以接受的,但是“I should studying....