计算机视觉学习记录
避免重复造轮子
Softmax Vs Softmax loss Softmax Vs Softmax loss
Softmax-loss layer:输出 loss 值 $L=-\sum_{j} y_{j} \log p_{j}$ layer { name: "loss" type: "SoftmaxWithLoss"
分类、回归和聚类算法的区别 分类、回归和聚类算法的区别
1.分类算法 “监督学习”,根据一些已知类别的训练样本,学习出一个模型,对未知类别的样本进行预测分类。 分类树、SVM、朴素贝叶斯等 2.回归算法 ”监督学习“,不同于分类的是,其输出为连续值,不再是离散值。 如房价预测、股市走势预
如何解决神经网络训练时loss不下降的问题 如何解决神经网络训练时loss不下降的问题
本文转载自AI柠檬,感谢原博主整理分享 ​ 当我们训练一个神经网络模型的时候,我们经常会遇到这样的一个头疼的问题,那就是,神经网络模型的loss值不下降,以致我们无法训练,或者无法得到一个效果较好的模型。导致训练时loss不下降的
Attention机制 Attention机制
本文翻译自Attention and Augmented Recurrent Neural Networks When I’m translating a sentence, I pay special attention to the
多实例学习简述 多实例学习简述
多实例学习(Multiple Instance Learning,MIL)是一个机器学习概念,用来表述不确切监督(仅有粗粒度标签)的场景。 假设训练图片为I,图片I可看做一个包(bag),其包含了各种特定形式的实例(instance)。
CV常用数据集汇总 CV常用数据集汇总
I. MNIST 深度学习领域的“Hello World!”,最早的深度卷积网络LeNet便是针对此数据集的,当前主流深度学习框架几乎无一例外将MNIST数据集的处理作为介绍及入门第一教程。 MNIST是一个手写数字的数据集,它有60
1 / 2