极速三分快3CVPR 2018 最酷的十篇论文 | 雷锋网

  • 时间:
  • 浏览:1

本文为 极速三分快3aI 研习社编译的技术博客极速三分快3极速三分快3,原标题 :

The 10 coolest papers from C极速三分快3vPR 2018

作者 | George Seif

翻译 | Vincents                校对 | 邓普斯•杰弗

审核 | 永恒如新的日常      下发 | Pita

原文链接:

https://towardsdatascience.com/the-10-coolest-papers-from-cvpr-2018-11cb48585a49

2018年计算机视觉和模式识别会议(CVPR)上周在美国盐湖城举行。该会议是计算机视觉领域的世界顶级会议。今年,CVPR 收到3200篇主要会议论文假如最终被接收的论文多达 979 篇。超过6,2000人参加极速三分快3了会议,这还要说是史诗级的大规模! 62000人在下图的会议厅参会:

CVPR2018大会会场

每年,CVPR后该 带来优秀的人才以及让当我们很棒的研究; 假如总能看了和学习到不多 不多 新的东西。当然,每年后该 不多 不多 论文发表新的突破性成果,并为该领域带来不多 不多 很有用的新知识。 有有哪些论文经常在计算机视觉的不多 不多 子领域带来最先进的前沿技术。

最近,喜闻乐见的是有有哪些开箱即用的创意论文!随着深度图学习在计算机视觉领域的不断应用,让当我们仍然在探索各种原困性。不多 不多 论文将展示深度图网络在计算机视觉中的全新应用。 它们原困后该 根本上的突破性作品,但它们很有趣,假如还要为该领域提供创造性和启发性的视角,从它们呈现的新深度图经常还要引发新的想法。总而言之,它们非常酷!

 在这里,我将向您展示我认为在2018年CVPR上的10篇最酷论文。让当我们将看了最近才使用的深度图网络实现的新应用,以及不多 不多 的不多 不多 提供了新的使用最好的办法和技巧的应用。您原困会在此过程中从中获得不多 不多 新想法;)。话不多 说,你还要们现在结速吧!

  使用合成数据训练深度图网络:通过域随机化弥合现实差距

本文来自Nvidia,充分利用合成数据来训练卷积神经网络(CNN)。 让当我们为虚幻引擎4创建了有有两个多插件,该插件将生成综合训练数据。 真正的关键是让当我们随机化了不多 不多 训练数据中还要富含 的变量,包括:

  • 对象的数量和类型

  • 干扰物的数量,类型,颜色和尺度

  • 感兴趣的对象和背景照片的纹理

  • 虚拟相机相对于场景的位置

  • 相机相对于场景的深度图

  • 点光源的数量和位置

让当我们展示了不多 不多 非常有前景的结果,证明了合成数据预训练的有效性; 达到了前所未有的结果。 这也为没法 重要数据来源时提供了某种思路:生成并使用合成数据。

图片来自论文:使用合成数据训练深度图网络:通过域随机化弥合现实差距

  WESPE:用于数码相机的弱监督照片增强器

这篇非常精妙!研究人员训练了有有两个多生成对抗网络(GAN),要能自动美化图片。最酷的偏离 是,它是弱监督的,你不还要有输入和输出的图像对!我应该 训练网络,你只还要拥有一套“好看”的图片(用于输出的正确标注)和一套想进一步调整的“粗糙”的图片(用于输入图像)。生成对抗网络被训练成输出输入图像更符合审美的版本,通常是改进色彩和图片的对比度。 

这俩模型非常简单假如能快速上手,原困你不还要精确的图像对,假如最终会得到有有两个多“通用的"图片增强器。我还喜欢这篇论文的不多 不多 是它是弱监督的最好的办法,非监督学习看起来很遥远。假如对计算机视觉领域的不多 不多 子类来说,弱监督似乎是有有两个多更可靠更有希望的方向。  

图片来自论文:WESPE:用于数码相机的弱监督照片增强器

  用Polygon-RNN ++实现分段数据集的高效交互式标注

深度图网络要能良好运行的有有两个多主要原困是有大型的经过标注的可用的数据集。然而对不多 不多 不多 不多 机器视觉任务来说,想获得不多 不多 不多 不多 的数据会很耗费时间假如成本高昂。很重是分割的数据还要对图片中的每个像素进行分类标注。不多 不多 不多 不多 对大型数据集来说,你还要想象......标注任务永远不原困标完!

Polygon-RNN++要能你还要在图中每个目标物体的附过大致圈出多边形价值形式,假如网络会自动生成分割的标注!论文中表明,这俩最好的办法的表现非常不错,假如能在分割任务中快速生成简单标注!

图片来自论文:用Polygon-RNN ++实现分段数据集的高效交互式标注

  从时尚图片创造胶囊衣柜

“嗯......今天我该穿有哪些?” 原困某人或某个东西要能每天早上为你回答这俩问題,没法 你何必 再去问这俩问題,会不多很好?不多 不多 不多 不多 一段话你就不多好久?没法 让当我们就跟胶囊衣柜(Capsule Wardrobes)打个招呼吧!

在这篇论文中,作者设计了有有两个多模型,给出候选服装和配件的清单,还要对单品进行组合,提供最大原困的混合搭配方案。它基本上使用目标函数进行训练,有有哪些目标函数旨在捕获视觉兼容性,多功能性和用户特定偏好的关键偏离 。 有了胶囊衣柜,您还要轻松地从衣柜中获得最适合您的服装搭配!

图片来源论文:从时尚图片中创造胶囊衣柜

  Super SloMo:视频插值中多个后面 帧的高质量估计

你不多 不多 不多 不多 有无想过以超慢的动作拍摄超级酷炫的东西呢?Nvdia 的这项研究 Super SloMo 就能帮你实现!研究中让当我们使用 CNN 估计视频的后面 帧,要能将标准的 200fps 视频转换为 240fps 的慢动作!该模型估计视频后面 帧之间的光流信息,并在有有哪些信息后面 插入视频帧,使慢动作的视频看起来要能清晰锐利。

一颗子弹穿过有有两个多鸡蛋,Super SloMo!

  是谁放狗出去?用视觉数据构建狗的行为模型

这原困是有史以来最酷的研究论文!这项研究的想法是试图模拟狗的思想和行为。研究人员将不多 不多 传感器连接到狗的四肢以下发其运动和行为数据。此外,让当我们还在狗的头部安装有有两个多摄像头,以便看了和从狗的第一人称视角所看了的世界相同。假如,将一组 CNN 价值形式提取器用于从视频帧获取图像价值形式,并将其与传感器数据共同传递给一组 LSTM 模型,以便学习并预测狗的动作和行为。这是一项非常新颖而富有创造性的应用研究,其整体的任务框架及独特的执行最好的办法后该 本文的亮点!希望这项研究要能为让当我们未来下发数据和应用深度图学习技术的最好的办法带来更多的创造力。  

图片来自论文:用视觉数据构建狗的行为模型

  学习分割一切

在过去的几年里,何凯明团队 (就让 在微软研究院,现就职于 Facebook AI Research) 提出了不多 不多 重大的计算机视觉研究成果。让当我们的研究最棒之位于于将创造力和简单性相结合,诸如将 ResNets和 Mask R-CNN 相结合的研究,有有哪些都后该 最疯狂或最复杂性的研究思路,假如它们简单易行,并在实践中非常有效。  这俩次不多 不多 不多 不多 例外。

该团队最新的研究 Learning to Segment Every Thing 是 MaskR-CNN 研究的扩展,它使模型准确地分割训练期间未总出 的类别目标!这对于获取快速且廉价的分割数据标注是非常有用的。事实上,该研究要能获得不多 不多 未知目标的基准分割效果,这对于在自然条件中部署不多 不多 不多 不多 的分割模型来说是至关重要的,原困在不多 不多 不多 不多 的环境下原困位于不多 不多 未知的目标。总的来说,这绝对是让当我们思考怎么充分利用深度图神经网络模型的正确方向。

图片来自论文: 学习分割一切

  桌上足球

本文的研究是在 FIFA 世界杯开幕时正式发表的,理应获得最佳时机奖!这的确是 CVPR 上在计算机视觉领域的“更酷”应用之一。简而言之,作者训练了有有两个多模型,在给定足球比赛视频的情况汇报下,该模型要能输出相应视频的动态 3D 重建,这原困你还要利用增强现实技术在任何地方查看它!

本文最大的亮点是结合使用不多 不多 不类似于于型的信息。使用视频比赛数据训练网络,从而相当容易地提取 3D 网格信息。在测试时,提取运动员的边界框,姿势及跨不多 个帧的运动轨迹以便分割运动员。接着你还要轻松地将有有哪些 3D 片段投射到任何平面上。在这俩情况汇报下,你还要通过制作虚拟的足球场,以便在 AR 条件下观看的足球比赛!在我看来,这是某种使用合成数据进行训练的聪明最好的办法。无论怎么它后该 有有两个多有趣的应用系统守护进程!

图片来自论文:桌上足球

  LayoutNet:从单个 RGB 图像重建 3D 房间布局 

这是有有两个多计算机视觉的应用系统守护进程,让当我们原困不多 不多 不多 不多 想过:使用相机拍摄不多 不多 东西,假如用数字 3D 技术重建它。这也正是本文研究的目的,很重是重建3D 房间布局。研究人员使用全景图像作为网络的输入,以获得房间的完整版视图。网络的输出是 3D 重建后的房间布局,具有相当高的准确性!该模型足够强大,还要推广到不同价值形式、富含 不多 不多 不同家具的房间。这是有有两个多有趣而好玩、又不还要投入不多 研究人员就能实现的应用。  

图片来自论文:LayoutNet:从单个 RGB 图像重建 3D 房间布局

  学习可迁移的价值形式用于可扩展的图像识别任务

最后该介绍的是一项让让当我们认为是深度图学习未来的研究:神经架构搜索 (NAS)。NAS 肩头的基本思想是让当我们还要使用不多 不多 不多 不多 网络来“搜索”最佳的模型价值形式,而不还要手动地设计网络价值形式。这俩搜索过程是基于奖励函数进行的,通过奖励模型以使其在验证数据集上有良好的表现。此外,作者在论文中表明,这俩模型价值形式比起手动设计的模型要能获得更高的精度。这将是未来巨大的研究方向,很重是对于设计特定的应用系统守护进程而言。原困让当我们真正关注的是设计好的 NAS 算法,而后该 为让当我们特定的应用设计特定的网络。精心设计的 NAS 算法将足够灵活,并要能为任何特定任务找到良好的网络价值形式。  

图片来自论文:学习可迁移的价值形式用于可扩展的图像识别任务

  结语

感谢您的阅读! 希望您学到了不多 不多 新的有用的东西,甚至原原困你我本人的工作找到了不多 不多 新的想法!原困您嘴笨 不错,请分享给更多人还要看了这篇文章,并与让当我们共同跳上学习的列车!

我应该 继续查看该篇文章相关链接和参考文献?

长按链接点击打开或点击【CVPR 2018 最酷的十篇论文】:

https://ai.yanxishe.com/page/TextTranslation/12006

AI研习社每日更新精彩内容,观看更多精彩内容:雷锋网雷锋网雷锋网(公众号:雷锋网)

盘点图像分类的窍门

深度图学习目标检测算法综述

生成模型:基于单张图片找到物体位置

注意力的动画解析(以机器翻译为例)

等你来译:

怎么在神经NLP除理中引用语义价值形式 

(Python)用Mask R-CNN检测空闲车位

高级DQNs:利用深度图强化学习玩吃豆人游戏

深度图强化学习新趋势:谷歌怎么把好奇心引入强化学习智能体 

雷锋网原创文章,未经授权禁止转载。详情见转载须知。