发表评论取消回复
相关阅读
相关 《Distilling the Knowledge in a Neural Network》论文笔记
1. 概述 这篇文章是比较早的文章,但是很多后序的工作都是源自于此,文章中提出了使用soft target(文章中说的是softmax层的输出)来实现大的模型到小的模型之
相关 feedforward neural network 学习笔记
前置神经网络是 是BP,CNN,RNN 的基础 , 先留个接口。后面再补充自己思考的内容。 参考: [深度学习笔记(1)--前馈神经网络][1_--] [w
相关 简单语言模型——bigram neural network language model
bigram neural network language model 计算: P ( W n ∣ W n − 1 ) P(W\_n|W\_\{n-1\}) P(Wn
相关 DeepInspect: A Black-box Trojan Detection and Mitigation Framework for Deep Neural Networks笔记
Challenges: C1.后门的隐蔽性使得他们很难通过功能测试functional testing来识别(这种测试通常会使用测试准确率作为检测标准)
相关 STRIP: A Defence Against Trojan Attacks on Deep Neural Networks 笔记
Code: https://github.com/garrisongys/STRIP?utm\_source=catalyzex.com 本文提出的 detect 方法
相关 Feature Squeezing: Detecting Adversarial Examples in Deep Neural Networks笔记
Code: https://github.com/mzweilin/EvadeML-Zoo Feature squeezing: reducing the color
相关 TrojanNet: Embedding Hidden Trojan Horse Models in Neural Networks (2020)笔记
Code: https://github.com/Billy1900/TrojanNet (self produced) We prove theoretically
相关 《Learning Structured Sparsity in Deep Neural Networks》论文笔记
1. 概述 这篇文章提出了结构系数学习(Structured Sparsity Learning,SSL)的方法去正则网络的结构(filter,channel,filte
相关 《Learning to Prune Filters in Convolutional Neural Networks》论文笔记
1. 概述 这篇文章提出了一种“try-and-learn”的算法去训练pruning agent,并用它使用数据驱动的方式去移除CNN网络中多余的filters。借助新
相关 《EfficientNet:Rethinking Model Scaling for Convolutional Neural Networks》论文笔记
代码地址:[EfficientNet-PyTorch][] 1. 概述 > 导读:一般来讲CNN网络被设计拥有固定的资源开销,要是在资源允许的条件下可以通过增加网络深度
还没有评论,来说两句吧...