行业动态 ICCV 2021 | 用于众域说相符训练的变分关注模型

  • 首页
  • 优发手机网页版登录入口
  • 产品中心
  • 行业动态
  • 最新新闻
  • 行业动态 ICCV 2021 | 用于众域说相符训练的变分关注模型
    浏览: 发布日期:2021-09-08

    本文转自雷锋网,如需转载请至雷锋网官网申请授权。

    新京报快讯 截至8月21日14时,北京全市累计报告接种新冠疫苗人数突破两千万,达到2000.7万人,其中1846.24万人完成全程接种。18岁及以上常住人口全程接种率94.32%。12至17岁人群累计接种59.62万人,“第1剂”疫苗接种率超过九成,达到91.86%。 

    新京报快讯  据“平安北京朝阳”微信公众号消息,  近日,朝阳公安分局接高瓴天成(北京)投资咨询有限公司报案,反映有人在网上散布其公司高管张某被限制出境的不实信息,对张某名誉和公司经营造成严重损失。接报后,警方依法开展调查,将涉案嫌疑人萧某春(男,50岁)抓获。经查,该人以炒股为业,为显示消息灵通、博取他人关注,编造上述虚假信息在网络社交平台发布,后被大量转发。目前,萧某春已被朝阳公安分局依法刑事拘留,案件正在进一步工作中。

    9月2日至9月7日,2021年服贸会将在北京举办。本届服贸会展览展示面积约13余万平米,同时设置近200场峰会、论坛活动。作为全球服务贸易领域规模最大的综合性展会,服贸会已发展成为国际服务贸易领域传播理念、衔接供需、共享商机、共促发展的重要平台。为满足广大观众观展需求,即日起,观众可在线上平台预约购买门票。

    1、背景&提要

    在人群密度推想义务中,标注做事相等难得且费时,导致现在的公开学术集周围都较幼且数据的分布迥异较大(图1:密度迥异,场景迥异,视角迥异等等)。所以,为了学习到泛化能力较强、通用性较高的人群密度推想模型,同时说相符众栽数据域知识来监督模型的训练成为了一栽能够的方案。然而,直接行使说相符数据训练模型会导致模型的选择性学习走为,即模型只对说相符数据中的“主导”数据片面进走了有效的学习,而无视了其余片面数据带来的域知识,从而导致模型外现出在分歧域上性能转折的纷歧致性(外1:片面域性能升迁,片面域性能降矮)。

    鉴于此,本文挑出了域专属知识传播网络(DKPNet)来引导无偏知识的学习。其中,作者挑出了变分关注技术(Variational Attention,VA),该技术能够显式地对分歧数据域构建响答的关注分布,从而有效的挑取和学习域专属的新闻。此外,作者进一步挑出了本征变分关注技术(Intrinsic Variational Attention, InVA)来解决遮盖域和子域的题目。作者对DKPNet在常用的人群密度推想数据集ShanghaiTechA/B, UCF-QNRF以及NWPU上进走有效的评估。

    图1:分歧数据域的分布迥异

    外1:直接说相符训练带来的性能转折的纷歧致性

    2、手段介绍

    为晓畅决分歧数据域分布迥异带来的难题,吾们必要克服深度模型的选择性学习走为,即只学习数据域中占“主导”地位的新闻和知识。此外,考虑到CNN中通道新闻清淡是外达模式概念以及抽象外征的,而空间新闻清淡描述的是位相新闻,所以为了建模域专属的新闻,作者选取在通道新闻上进走域专属知识的建模。如图所示:

    图2:变分关注模型VA

    最先倘若吾们能经由过程通道新闻来进走域的划分,即必要引入channel-attention机制来区分和引导分歧域的学习,然而清淡的channel-attention并不及显式地区分域专属的知识,所以必要人造地施添收敛来挑供引导。鉴于此,本文参考VAE的思维,最先引入潜变量z来建模分歧数据域,按照变分思维,为了限制输出的关注分布ICCV 2021 | 用于众域说相符训练的变分关注模型,作者最大化条件概率的对数似然;

    其中第一项用于挑高展望的实在性,在人群密度推想中,将其写作:

    ICCV 2021 | 用于众域说相符训练的变分关注模型

    第二项描述的是变分分布ICCV 2021 | 用于众域说相符训练的变分关注模型和先验分布ICCV 2021 | 用于众域说相符训练的变分关注模型的KL散度。此外原由分歧域的分布分歧,本文采用同化高斯分布行为先验:

    ICCV 2021 | 用于众域说相符训练的变分关注模型

    由此,KL散度变为:

    ICCV 2021 | 用于众域说相符训练的变分关注模型

    为了学习到自体面的域参数,将均值和协方差参数竖立为可学习的。并对其施添如下收敛来防止清淡解:

    ICCV 2021 | 用于众域说相符训练的变分关注模型

    最后VA如图2所示,综相符loss如下:

    ICCV 2021 | 用于众域说相符训练的变分关注模型

    然而,上述的推理是基于一个倘若,即分歧数据集当作一个单独的数据域,这个倘若在实际中并不及被很益地声援,例如NWPU数据中存在较众的子域,且分歧数据集之间还能够存在重相符的分布。鉴于此,作者基于VA又挑出了InVA来解决遮盖域和子域的题目。

    InVA区别于VA的地方主要是两个地方,第一个是最先会采用聚类的手段对attention分布进走不详的划分,从而缓解遮盖域的题目;第二个是会采用子高斯同化先验对潜变量进走收敛,从而缓解子域的题目。

    最后操纵VA和InVA对CNN的通道新闻进走调整,得到了DKPNet,如图3所示:

    图3:DKPNet

    3、实验效果

    作者在4个常用的人群密度推想的数据集(ShanghaiTech A/B, QNRF, NWPU)上进走了众重验证,实验效果如外2所示。能够望到作者别离进走了3-Joint(SHA/SHB/QNRF说相符操纵)和4-Joint(SHA/SHB/QNRF/NWPU)实验,外示采用分歧的个数的数据集进走的说相符训练。当进走浅易的说相符训练之后,能够望到模型的性能并不及相反地在一切数据集上都得到升迁,验证了模型的选择性学习的走为。当采用DKPNet之后,原由域专属的新闻能够被显式地建模和学习,所以带来了隐微的性能升迁,并且在分歧数据集上外现出了相反性。同时作者也给出了大量的融化实验(图4:attention分布对比;外3:的影响;外4:遮盖域和子域数目的影响等),表清新VA和InVA的有效性。

    外2:实验效果

    ICCV 2021 | 用于众域说相符训练的变分关注模型

    图4:attention分布暗示图

    外3:收敛的作用

    外4:遮盖域和子域数目的影响

    4、结语

    本文针对人群密度中众域说相符训练的题目,挑出了基于变分关注VA的域专属新闻学习网络DKPNet,有效地缓解了众域说相符训练中的有偏学习形象,经由过程引入潜变量对分歧域进走建模,从而能够为模型的学习挑供很益域引导。此外,为了更益地解决遮盖域和子域的题目,本文挑出了InVA进一步升迁域引导的质量。最后,作者经由过程大量的实验验证了该手段的有效性。

    【编辑选举】行业动态

    人造智能和机器人流程自动化驱动的测试如何促进创新 人造智能的技术经济特性及“活化效答” 被人造智能抢饭碗的危境,轮到奥运教练了吗? 发展人造智能,必要有边界 在 Kubernetes 上安放一个深度学习模型