document.write('
')
  1. 首页
  2. 人工智能

OPPO成功收录CVPR 2022,创历年新高,多个领域实现创新突破

  【天极网手机频道】年度计算机视觉顶级会议CVPR(Conference on Computer Vision and Pattern Recognition国际计算机视觉与模式识别会议)在新奥尔良落下帷幕。今年,OPPO有七篇论文成功入选,跻身一流科技厂商之列。同时在广受关注的挑战赛上,OPPO也取得了三项第一、一项第二、四项第三的良好成绩。

  随着深度学习逐步成熟化规模化,人工智能技术从“感知智能”向“认知智能”迈进。AI除了“看到”或“听到”,开始初步逐步具备像人类一样的思考能力。多模态融合、3D视觉智能技术、自动机器学习等正在成为人工智能领域的关键研-究热点。OPPO在上述领域都均实现论文收录,在AI关键学术领域取得创新突破。

  OPPO 智能感知首席科学家郭彦东表示:“在2012年,为了图像识别任务而设计的深度神经网络重新给人工智能的研究与应用注入了能量。从此,人工智能(AI)技术迎来了飞速发展的10年。在OPPO,我们持续推动人工智能完成像人一样复杂的感知与认知行为。比如,从无标签的海量数据中持续学习并迁移到下游具体任务,从几个有限视角中完整的重建3D信息;更高级别的认知能力,比如对美的理解与创作;以及具有自主行为能力的“实体AI”(embodied AI),比如自动驾驶场景中的行为预测等。很高兴OPPO继2020年首次亮相后,在短短的3年内就实现了7篇主会论文入选的好成绩。未来,我们希望继续向更基础、更前沿的AI领域探索,推动AI的商用落地,让创新科技更好地服务于人。”

  7篇论文获得收录,OPPO正在助力AI认知水平升级

  本次CVPR2022上,OPPO共有7篇CVPR入选论文,涵盖多模态信息交互、三维人体重建、个性化图像美学评价、知识蒸馏等多个研究领域。

  不同模态数据的特性各不相同,像文字、语言这样的信息概括性极强,而图像往往包含大量细节。在多模态数据下,能够在模态间建立起有效交互对于AI来说是一件十分有挑战性的事情。OPPO研究人员基于CLIP模型提出了全新CRIS框架,使得AI能够更加细粒度地理解图像与文本两种模态的数据。即使输入包含多重信息的文本描述,该框架也能够准确聚焦到对应的图像区域,显示出强大的细粒度跨模态匹配能力。

  当前,人类的智能和人工智能最重要的区别之一在于对于多模态信息的识别和理解。对于人类来说,我们往往可以同时理解文字和图像,并将其有效关联。但AI更多停留在识别阶段,很难将不同模态的信息精准对应。本次OPPO提出的创新方法可以帮助人工智能在多模态理解上更进一步。未来,随着相关技术的不断发展,人工智能可以真的可以像科幻小说中描述的那样,通过语言、听觉、视觉等多重信息去认知真实世界,真正地成为人们最好的“帮手”。

  同样,在近期热门的三维人体重建领域,OPPO研究院通过改进NeRF创新的动态角色建模方法,在业界首次实现了自动为宽松着装人体创建数字分身的工作。该建模方法仅通过分析摄像头所拍摄的RGB视频,就可以1:1精准还原人物动态细节,甚至包括衣服细小logo或纹理细节。衣服的建模还原一直是业界挑战较大的领域之一,因为人体姿态发生变化的同时衣服物料的形变非常复杂,从而导致AI难以解算像“裙摆”这样的部位形变。此举可有效降低三维人体重建的门槛,为在线虚拟试装购物、AI健身乃至VR/AR虚拟世界的真正落地提供良好的技术基础。

  随着AI图像识别能力的逐渐成熟,如何让AI具备图像审美能力成为新的难题。AI的审美能力往往强关联训练所使用的数据和标注者的偏好,而人的审美往往是千人千面的,采用基于大数据的美学评价来为不同用户服务,这可能会引发人们对于“审美歧视”的讨论,造成不好的用户体验。因此,通过更精细化的数据和模型,准确捕捉不同用户的审美差异的个性化美学评价应运而生。

  对此,OPPO研究院联合西安电子科技大学李雷达教授,开创性地提出了带条件的PIAA算法(Conditional Personalized Image Aesthetics Assessment),首次从“用户主观偏好与图像美学相互作用,如何产生个性化品味”角度出发对AI模型进行优化。该算法可以基于不同用户画像信息实现个性化的审美评价,可以为用户在相册、相机、互联网内容推荐等场景中打造个性化体验,具有广阔的应用前景。

  随该算法一并提出的带有丰富属性标注的个性化美学评价数据集也已宣布开源,为业界在个性化美学评价领域的研究提供了有价值的研究数据,目前该数据集已收到多家研究机构及高校的关注和问询。

本文来自投稿,不代表本人立场,如若转载,请注明出处:/ai/244785.html