• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

什么和哪里:通过 NAS 学习插头适配器进行多领域学习。

What and Where: Learn to Plug Adapters via NAS for Multidomain Learning.

出版信息

IEEE Trans Neural Netw Learn Syst. 2022 Nov;33(11):6532-6544. doi: 10.1109/TNNLS.2021.3082316. Epub 2022 Oct 27.

DOI:10.1109/TNNLS.2021.3082316
PMID:34310322
Abstract

As an important and challenging problem, multidomain learning (MDL) typically seeks a set of effective lightweight domain-specific adapter modules plugged into a common domain-agnostic network. Usually, existing ways of adapter plugging and structure design are handcrafted and fixed for all domains before model learning, resulting in learning inflexibility and computational intensiveness. With this motivation, we propose to learn a data-driven adapter plugging strategy with neural architecture search (NAS), which automatically determines where to plug for those adapter modules. Furthermore, we propose an NAS-adapter module for adapter structure design in an NAS-driven learning scheme, which automatically discovers effective adapter module structures for different domains. Experimental results demonstrate the effectiveness of our MDL model against existing approaches under the conditions of comparable performance.

摘要

作为一个重要且具有挑战性的问题,多领域学习(MDL)通常寻求一组有效的轻量级领域特定适配器模块,插入到一个通用的领域不可知的网络中。通常,现有的适配器插入和结构设计方法是在模型学习之前针对所有领域手工制作和固定的,导致学习的不灵活性和计算密集性。基于此动机,我们提出使用神经架构搜索(NAS)来学习数据驱动的适配器插入策略,该策略自动确定要为那些适配器模块插入的位置。此外,我们在 NAS 驱动的学习方案中提出了一种 NAS 适配器模块,用于适配器结构设计,它可以自动为不同的领域发现有效的适配器模块结构。实验结果表明,在可比性能的条件下,我们的 MDL 模型相对于现有方法是有效的。

相似文献

1
What and Where: Learn to Plug Adapters via NAS for Multidomain Learning.什么和哪里:通过 NAS 学习插头适配器进行多领域学习。
IEEE Trans Neural Netw Learn Syst. 2022 Nov;33(11):6532-6544. doi: 10.1109/TNNLS.2021.3082316. Epub 2022 Oct 27.
2
Attention-Based Neural Architecture Search for Person Re-Identification.基于注意力的神经架构搜索在行人再识别中的应用。
IEEE Trans Neural Netw Learn Syst. 2022 Nov;33(11):6627-6639. doi: 10.1109/TNNLS.2021.3082701. Epub 2022 Oct 27.
3
Gumbel-Softmax based Neural Architecture Search for Hierarchical Brain Networks Decomposition.基于 Gumbel-Softmax 的分层脑网络分解神经架构搜索。
Med Image Anal. 2022 Nov;82:102570. doi: 10.1016/j.media.2022.102570. Epub 2022 Aug 6.
4
Disturbance-immune weight sharing for neural architecture search.抗干扰权重共享的神经架构搜索。
Neural Netw. 2021 Dec;144:553-564. doi: 10.1016/j.neunet.2021.09.002. Epub 2021 Sep 23.
5
Modeling task-based fMRI data via deep belief network with neural architecture search.通过基于深度置信网络的神经架构搜索对基于任务的 fMRI 数据进行建模。
Comput Med Imaging Graph. 2020 Jul;83:101747. doi: 10.1016/j.compmedimag.2020.101747. Epub 2020 Jun 6.
6
A Multi-Objective Evolutionary Approach Based on Graph-in-Graph for Neural Architecture Search of Convolutional Neural Networks.基于图中图的多目标进化方法用于卷积神经网络的神经结构搜索。
Int J Neural Syst. 2021 Sep;31(9):2150035. doi: 10.1142/S0129065721500350. Epub 2021 Jul 24.
7
Automated Anomaly Detection via Curiosity-Guided Search and Self-Imitation Learning.通过好奇引导搜索和自我模仿学习的自动异常检测。
IEEE Trans Neural Netw Learn Syst. 2022 Jun;33(6):2365-2377. doi: 10.1109/TNNLS.2021.3105636. Epub 2022 Jun 1.
8
Object detectors involving a NAS-gate convolutional module and capsule attention module.基于 NAS 门控卷积模块和胶囊注意力模块的目标探测器。
Sci Rep. 2022 Mar 10;12(1):3916. doi: 10.1038/s41598-022-07898-7.
9
Prediction of dMRI signals with neural architecture search.利用神经架构搜索预测扩散磁共振成像信号
J Neurosci Methods. 2022 Jan 1;365:109389. doi: 10.1016/j.jneumeth.2021.109389. Epub 2021 Oct 20.
10
MULTI-DOMAIN LEARNING BY META-LEARNING: TAKING OPTIMAL STEPS IN MULTI-DOMAIN LOSS LANDSCAPES BY INNER-LOOP LEARNING.通过元学习进行多领域学习:在内循环学习中在多领域损失景观中采取最优步骤。
Proc IEEE Int Symp Biomed Imaging. 2021 Apr;2021:650-654. doi: 10.1109/ISBI48211.2021.9433977. Epub 2021 May 25.