博客
关于我
TPAMI 2024 | 风格化学习:跨任务和领域的持续语义分割
阅读量:466 次
发布时间:2019-03-06

本文共 828 字,大约阅读时间需要 2 分钟。

Learning With Style: Continual Semantic Segmentation Across Tasks and Domains

风格化学习:跨任务和领域的持续语义分割

作者:Marco Toldo; Umberto Michieli; Pietro Zanuttigh


摘要

在现实世界的环境中处理图像理解的深度学习模型必须能够适应不同领域中的广泛任务。领域适应和类别增量学习分别处理领域和任务的可变性,而它们的统一解决方案仍然是一个开放问题。我们同时应对问题的两个方面,考虑到输入和标签空间中的语义变化。我们首先正式引入了任务和领域变化下的持续学习。然后,我们通过使用风格迁移技术来扩展跨领域的知识,当学习增量任务时,以及一个稳健的蒸馏框架,在增量领域变化下有效重新收集任务知识。设计的框架(LwS,风格化学习)能够跨所有遇到的领域泛化增量获得的任务知识,证明对灾难性遗忘具有鲁棒性。在多个自动驾驶数据集上的广泛实验评估表明,所提出的方法优于现有方法,这些方法在处理任务和领域变化下的持续语义分割方面准备不足。


关键词

  • 持续学习
  • 跨任务和领域
  • 语义分割

在现实世界中,深度学习模型需要处理图像理解任务,并适应不同领域和任务的多样性。领域适应和类别增量学习分别处理了领域和任务的变化,但如何统一解决这两个方面仍然是一个开放问题。我们需要同时考虑输入和标签空间中的语义变化。

我们首先正式引入了任务和领域变化下的持续学习。为了应对跨领域知识的扩展,我们采用了风格迁移技术。当学习增量任务时,风格迁移技术能够有效地扩展跨领域的知识。同时,我们设计了一个稳健的蒸馏框架,在增量领域变化下有效地重新收集任务知识。

我们的框架(LwS,风格化学习)能够在跨所有领域的情况下泛化增量获得的任务知识,表现出对灾难性遗忘的鲁棒性。通过在多个自动驾驶数据集上的广泛实验,我们证明了所提出的方法在处理任务和领域变化下的持续语义分割方面优于现有方法。

转载地址:http://kvubz.baihongyu.com/

你可能感兴趣的文章
NLP 基于kashgari和BERT实现中文命名实体识别(NER)
查看>>
NLP 模型中的偏差和公平性检测
查看>>
Vue3.0 性能提升主要是通过哪几方面体现的?
查看>>
NLP 项目:维基百科文章爬虫和分类【01】 - 语料库阅读器
查看>>
NLP_什么是统计语言模型_条件概率的链式法则_n元统计语言模型_马尔科夫链_数据稀疏(出现了词库中没有的词)_统计语言模型的平滑策略---人工智能工作笔记0035
查看>>
NLP、CV 很难入门?IBM 数据科学家带你梳理
查看>>
NLP三大特征抽取器:CNN、RNN与Transformer全面解析
查看>>
NLP入门(六)pyltp的介绍与使用
查看>>
NLP学习笔记:使用 Python 进行NLTK
查看>>
NLP度量指标BELU真的完美么?
查看>>
NLP的不同研究领域和最新发展的概述
查看>>
NLP的神经网络训练的新模式
查看>>
NLP采用Bert进行简单文本情感分类
查看>>
NLP问答系统:使用 Deepset SQUAD 和 SQuAD v2 度量评估
查看>>
NLP项目:维基百科文章爬虫和分类【02】 - 语料库转换管道
查看>>
NLP:从头开始的文本矢量化方法
查看>>
NLP:使用 SciKit Learn 的文本矢量化方法
查看>>
NLTK - 停用词下载
查看>>
nmap 使用总结
查看>>
nmap 使用方法详细介绍
查看>>