HW9 作业九---Explainable AI 任务介绍 **本次作业分为两个部分,第一个部分使用了作业三的食物分类的model和dataset,第二个部分使用了作业七的BERT模型相关资料,第一部分要求使用Lime,Saliency Map,Smooth Grad,Filter Visualization,Integrated Gradients5种方法来解释,第二部分则要求使用Attention Visualization,Embedding Visualization,Embedding Analysis这...
HW11 任务介绍 通过使用Domain Adaptation的方法将有label的真实照片(5000)来预测没有label的黑白的图案(100000)物体的类别。 训练数据来自GTA-5的街景,测试数据来自真实世界的街景,要求将Feat-A和Feat-B越接近越好 ![](ht...
Domain Adaptation 本质是一个二元分类器 Domain Adaptation技术,也可以看做是 Transfer Learning 的一种 在A任务上学习的技能可以用在B上,一个Domain上学到的用在另一个Domain上 Domain Shift 只有少许标注需要做Adapt...
Introduction of Deep Reinforcement Learning (RL)强化学习 强化学习与监督学习 监督学习 监督学习(supervised learning) 假设我们有大量被标注的数据,比如汽车、飞机、椅子这些被标注的图片,这些图片都要满足独立同分布,即它们之间是没有关联关系的。假设我们训练一个分类器,比如神经网络。为了分辨输入的图片中是汽车还是飞机,在训练过程中,需要把正确的标签信息传递给神经网络。 当神经网络做出错误的预测时,比如输入汽车的图片,它预测出来是飞机,我们就会直接告诉它,该预测是错误的,正确的标签应该是汽车。最后...
HW12 作业描述 Policy Gradient agent.network.train()...
HW10 Attact 任务描述 ● Those are methodologies which you should be familiar with first 这些是您应该首先熟悉的方法 ○ Attack objective: Non-targeted attack 攻击目标:非目标攻击 ○ Attack constraint: L-infinity norm and Parameter ε 攻击约束 ○ Attack algorithm: FGSM attack ○ Attack schema: Black box attack (perform att...
HW14 什么是Life long learning Life long learning意思是终身学习,是指一直使用同一个神经网络去学习不同的任务。 实现life long learning大致分为三方面:knowledge retention,knowledge transfer,model expansion。 为什么不让一个模型就学习一个任务,而是要让一个模型学习多个任务? 如果是让一个模型学习一个任务,那实现一个功能多样的机器人就会面临下面这两个问题: 最终没有足够的空间存储所有模型 不同的任务之间不能够互通有无,没法从别的任务里面学到在单一任...
jieba、hanlp词性对照表 jieba a 形容词 ad 副形词 ag 形容词性语素 an 名形词 b 区别词 c 连词 d 副词 df dg 副语素 e 叹词 f 方位词 g 语素 h 前接成分 i 成语 j 简称略称 k 后接成分 l 习用语 m 数词 mg mq 数量词 n 名词 ng 名词性语素 nr 人名 nrfg nrt...
conda、miniconda、anaconda的区别 conda conda是一种通用包管理系统,旨在构建和管理任何语言和任何类型的软件。包管理与pip的使用类似,环境管理则允许用户方便地安装不同版本的python并可以快速切换。 Miniconda 只包含最基本的内容——python与conda,以及相关的必须依赖项,对于空间要求严格的用户,Miniconda是一种选择。就只包含最基本的东西,其他的库得自己装。 Anaconda 一个打包的集合,里面预装好了conda、某个版本的python、众多packages、科学计算工具等等。 conda常用...
线性回归 难点、疑点 梯度下降 线性回归的代码实现 定义 回归(regression)是能为一个或多个自变量与因变量之间关系建模的一类方法。在自然科学和社会科学领域,回归经常用来表示输入和输出之间的关系。 y = w1x1 + w2x2 + w3x3 + b 损失评估 梯度下降 ![](https://qiniu.kanes.top/blog/4...