时间:2022-01-18 15:03:18 浏览:0 来源:创始人
1、我看大家推荐的都是深度学习方向的论文,那我就来推荐一篇非深度学习的:。
2、这篇论文也是今年CVPRoral,而其核心贡献点是:不管原来的滤波器保不保边,运用了side-window思想之后,都可以让它变成保边滤波。
3、论文的复现结果,盒子滤波:。
4、熊猫宝宝+椒盐噪声去噪结果,boxfilter,iteration=10去噪结果,,iteration=10中值滤波:。
5、歼20+椒盐噪声去噪结果,,iteration=10去噪结果,,iteration=++复现代码:。
6、对这篇论文的解读可以看下我写的博客:。
7、1《StereoR-》。
8、本文通过充分利用立体图像中的稀疏,密集,语义和几何信息,提出了一种用于自动驾驶的三维物体检测方法。
1、本文的方法,称为StereoR-CNN,扩展了更快的R-CNN用于立体声输入,以同时检测和关联左右图像中的对象。
2、本文在立体声区域提议网络(RPN)之后添加额外分支来预测稀疏关键点,视点和对象维度,这些关键点与2D左右框组合以计算粗略的3D对象边界框。
3、本文通过使用左右RoI的基于区域的光度对准来恢复精确的3D边界框。
4、本文的方法不需要深度输入和3D位置监控,但是,优于所有现有的完全监督的基于图像的方法。
5、在具有挑战性的KITTI数据集上的实验表明,本文的方法在3D检测和3D定位任务上的性能优于更先进的基于立体的方法约30%AP。
6、2《CenterNet:》。
7、本文利用关键点三元组,即中心点、左上角点和右下角点三个关键点而非两个点来确定一个目标,使网络花费了很小的代价便具备了感知物体内部信息的能力,从而能有效抑制误检。
1、为了更好的检测中心点和角点,研究人员分别提出了和来提取中心点和角点的特征。
2、本文将使用一种简单的方法执行实时对象跟踪和半监督视频对象分割。
3、这个方法称为SiamMask,通过二进制分割任务增加损失,改进了流行的全卷积Siamese对象跟踪方法的离线训练过程。
4、SiamMask完全依赖于单个边界框初始化并在线操作,以35帧/秒的速度生成类别不可知的对象分割掩模和旋转边界框。
5、提出了一种无监督视觉跟踪方法。
6、与现有的使用大量带注释数据进行监督学习的方法不同,本文的CNN模型是以一种无监督的方式对大规模无标记视频进行训练的。
7、论文的动机是一个健壮的跟踪器应该在正向和反向预测中都是有效的。
8、(跟踪器可以在连续帧中对目标对象进行前向定位,并在第一帧中回溯到目标对象的初始位置)。
1、本文在Siamese相关滤波器网络上构建了他们的框架,该网络使用未标记的原始视频进行训练。
2、论文提出了一种多帧验证方法和代价敏感的损失,以方便无监督学习。
3、code(PyTorch):。
4、3《Target-》。
5、主要致力于解决泛化的深度特征模型在视觉追踪领域运用中的有效性问题。
6、该论文提出了一种新颖的视觉目标追踪框架,通过构建适用于目标追踪任务的损失函数,来获取相应的特征模型。
7、该模型能有效处理目标追踪中的目标形变、遮挡、背景干扰等问题,解决了视觉目标追踪缺少离线数据标注的问题。
8、大量的实验结果表明,相较于当前的主流方法,该方法在准确率及运行速度上都有相当不错的效果,其中运行速度可达实时要求。
9、Data-》。
10、常规的encoder-decoder模型中,decoder部分采用的是双线性插值的方法,进行分辨率的提升。
1、本文提出一种新颖的模型来替换掉双线性插值的方式,即依赖于数据的上采样模型(data-())。
2、这篇论文通过基于来捕获上下文依赖。
3、提出了(DANet)来自适应地整合局部特征和全局依赖。
4、具体做法是,在一贯的中加入两种类型地。
5、其中选择性地通过所有位置的加权求和聚集每个位置的特征。
6、通过所有channle的中的特征选择性地强调某个特征图。
7、更后将两种的output求和得到更后的特征表达。
8、所提出的DANet在三个数据集,和COCOStuff上实现了state-of-the-art的结果。
9、3《--Effi-》。
10、对超高分辨率图像的分割要求越来越高,但对算法效率提出了很大的挑战,尤其是考虑到(GPU)的内存限制。
11、目前的方法要么对超高分辨率图像进行下采样,要么将其裁剪成小块进行单独处理。
1、无论哪种方法,局部细节或全局上下文信息的丢失都会导致分割精度有限。
2、本文建议全球本地协作网络(GLNet)以高内存效率的方式有效地保存全球和本地信息。
3、GLNet由全局分支和局部分支组成,取下采样的整幅图像及其裁剪后的局部patch作为各自的输入。
4、GLNet深度融合了两个分支的特征图,从放大的局部patch中获取高分辨率的精细结构,从下采样的输入中获取上下文相关性。
5、为了进一步解决背景区域和前景区域之间潜在的类不平衡问题,本文提出了一种从粗到细的GLNet变体,同样具有内存效率。
6、在三个真实的超高航空和医学图像数据集(分辨率高达3000万像素)上进行了广泛的实验和分析。
7、只有一个1080TiGPU和不到2GB的内存使用,本文的GLNet产生高质量的分割结果,并实现了更有竞争力的精度,内存使用权衡比目前的技术水平。
1、MaskR-CNN是一种简洁、灵活的实例分割框架,是何恺明的作品之一。
2、因为这个框架,何恺明也借此一举拿下ICCV2017更佳论文奖。
3、在COCO图像实例分割任务上超越了何恺明的MaskR-CNN,拿下了计算机视觉顶会CVPR2019的口头报告。
4、这篇论文中,研究人员提出了一种给算法的“实例分割假设”打分的新方法。
5、这个分数打得是否准确,就会影响实例分割模型的性能。
6、而MaskR-CNN等前辈,用的打分方法就不太合适。
7、这些模型在实例分割任务里,虽然输出结果是一个蒙版,但打分却是和边界框目标检测共享的,都是针对目标区域分类置信度算出来的分数。
8、和图像分割蒙版的质量可未必一致,用来评价蒙版的质量,可能就会出偏差。
1、针对cGAN输出样本的多样性问题(也是著名的问题),文章给出的解决方法是在损失函数上加入一个简单的正则项,其主要思想是更大化输出图像之间的距离与对应之间的距离的比值。
2、目前表现更好的人脸检测器可分为两类:基于应用于Faster-RCNN的RPN采用两阶段检测策略,RPN生成高质量,然后由Fast-RCNN检测器进一步确认。
3、基于单镜头检测器SSD的一阶段检测方法,脱离RPN的思想直接预测bbox和。
4、尽管人脸检测器取得了不错的进展,但是还存在特征学习,损失函数设计,锚点匹配等三个方面的问题,为了解决上述上个问题,论文中提出基于的双射人脸检测器。
5、1《DeepHigh-》。
6、这个模型刷新了三项COCO纪录,还入选了CVPR2019。
1、这篇论文的全称:DeepHigh-,上述的模型简称为HRNet,也就是是高分辨率网络(High-)的意思。
2、这个模型更大的特点就是在卷积中可以一直保持高分辨率特征,不和之前使用的一些其他模型从低特征转化为高特征,而是从始至终保持高分辨率特征。
3、这也是为什么这个模型,可以在COCO数据集的关键点检测、姿态估计、多人姿态估计这三项任务里,HRNet模型都超越了所有前辈。
4、1《PVNet:Pixel-》。
5、的问题目标是输入一张图片,然后检测出物体在3D空间中的位置和姿态。
6、传统方法是借助解决问题。
7、对于没有表面问题的物体,的提取往往很差。
8、就有工作希望通过一个网络直接从图片中回归出物体的6DPose,但发现网络的泛化能力一般。
1、6DPose的搜索空间大,是导致网络泛化能力一般的一个原因。
2、更新的工作会先在2D图片中检测物体的关键点,然后通过2D-3D的对应,用PnP计算出物体的6DPose。
3、在2D图片中检测关键点大大减小了网络的搜索空间,深度学习方法在的效果也有了很大的提升。
4、但对于Occlusion,这些状态下的物体,效果仍然有局限性。
5、本文来自浙江大学,作者引入一个逐像素投票的网络来定位,本文方法在LINEMOD、和YCBVideo数据集上均取得了SOTA结果。
6、人群计数任务一个很大问题是数据集过少。
7、很多方法都或多或少都有过拟合现象。
8、本篇论文提出了一个数据收集器和标注器,能够基于GTA5生成人工合成的人群场景,并同时自动标注它们。
相关阅读上一篇:m唇后悔了
下一篇: 女人做m唇手术后效果图