您的位置:主页 > 富甲天下wapwus中彩堂 > 软件学院3篇论文被计算机视觉领域顶级会议ICCV2019录用

软件学院3篇论文被计算机视觉领域顶级会议ICCV2019录用

发布日期:2019-11-20 22:42   来源:未知   阅读:

  近日,计算机视觉领域顶级会议ICCV 2019在韩国首尔举办,软件学院3篇论文被该会录用。此次会议的录用率约24.88%。

  ICCV 的全称是 IEEE International Conference on Computer Vision,即国际计算机视觉大会,由IEEE主办,与计算机视觉模式识别会议(CVPR)和欧洲计算机视觉会议(ECCV)并称计算机视觉方向的三大顶级会议,被澳大利亚ICT学术会议排名和中国计算机学会等机构评为最高级别学术会议,在业内具有极高的评价。

  简介:由于自然场景中的对象具有各种比例,因此学习丰富的边缘信息对于基于视觉的任务非常关键。由于模式坍塌,基于传统的生成对抗网络(GAN)的边缘检测方法效果不佳。为了捕获丰富的边缘信息并尽可能避免模式坍塌,将GAN的学习视为一种进化优化,提出了一种称为基于差分进化的生成对抗网络(DEGAN)的新方法来进行更丰富的边缘检测。特别是,在GANs结构的基础上,引入了一种改进的差分进化算法来优化生成器的输入,并通过判别器评估(差分进化过程中的)适应度函数。在BSDS500和NYUD基准测试中的结果表明,论文提出的DEGAN可以实现最先进的性能,同时保持快速的速度并验证其简单性、有效性和效率,其高质量结果可能使其他基于视觉的任务更好地工作。

  简介:视觉关系编码独立个体间交互,在场景语义理解中有重要作用。受限于易于预测的非视觉信息,现有方法倾向于拟合统计偏好,而非真正的学习关系信息。为了推进对象关系的应用,提出针对语义理解,需要学习视觉相关关系,并且按此构建了视觉相关关系数据集(VrR-VG)。相比于现有数据,在场景图生成上,学习型和非学习型方法差距明显扩大。此外,还提出考虑关系的表示学习方法综合单体对象、属性和关系。通过方法的特征学习,VrR-VG上学得的特征在VQA和caption上有明显提升。进一步证明了提出视觉相关关系有效的提升特征语义表达能力。

  简介:获取大量丰富标注的训练数据集,是进行准确的三维人体姿态估计的基础和前提。使用人工方法获取标注虽然可行,但过程十分冗长且缓慢。文中提出了一种新的三维人体姿态估计框架,用以补充不完备的训练数据集。首先,使用少量有标签数据训练出一个基网络。利用这一基模型输出的较为可靠的估计,其框架使用3D轨迹补全的方法自动收集视频序列中的标签。其次,使用自动收集的标签进一步训练基模型,使其学习到新的姿态。在被广泛使用的Human3.6M和MPI-INF-3DHP数据集上进行了实验;由实验可见,仅使用一小部分标签进行网络初始训练,该方法成功地使基网络从无标签视频序列中学习到新的人体姿态,令基网络的精度提升约10%。不同于之前的方法,该方法既不依赖于多视图影像,也不需要任何二维关键点标注。

------分隔线----------------------------

3277222.com跑狗玄机网 - 今晚开奖现场直播 - 82233六肖 - 富甲天下wapwus中彩堂 - 一484848王中王开奖 - 764848.com - www.00590.com -