链接:id=
-zX。WNfCw。Cn
本文提出了一种神经结构搜索和在线自适应框架,旨在根据用户的要求进行更快的面向任务的微调。
链接:id=
-basedasynchroushyperparameterandneurallarchitecturesearch
提出了一种新的异步多保真贝叶斯优化方法,可以有效地搜索神经网络的超参数和结构。
29.搜索或会议解决方案和更多雄心壮志
zX。WNfCw。Cn一种用于神经结构搜索的通用搜索空间,它可以找到在图像数据上击败卷积的操作。
zX。WNfCw。Cn30.基于组件的kernelapproach forefinentnetworkarchitecture研究
他们首先将这两个术语表示为基于梯度的统一内核,然后选择初始化时内核最大的架构作为最终网络。新方法取代了昂贵的“先培训后测试”的评估范式。
31.fast mnas :不确定性-意识建筑拱门终身学习
他们提出了FNAS,可以将基于RL的标准NAS流程加快10倍,保证在各种视觉任务中有更好的性能。
32.explicitleringpologyfordifferentiableeuralarchitecturesearch
33.naslib : amodularandflexibleeuralarchitecturesearchlub
34.跨平台-101:提高跨任务体系结构的可移植性和可推广性搜索
35.重新思考architectureselectionindiablenas
36.neurallarchitecturesearconimagenetinfourgupuhours 3360抽象的检查
37.rapidneuralarchitecturesearchbyeruninggenerategraphsfromdets
他们提出了一个有效的NAS框架,已经在包含数据集和预训练网络的数据库上训练过一次,可以快速生成新数据集的神经架构。
38.可解释的神经架构搜索贝叶斯优化
他们提出了一种NAS方法,效率高,性能高,可以解释。
39.autohas :效率类型参数标准体系结构搜索
40.欧洲建筑搜索的差异化图形优化
本文研究了可微图神经网络作为候选体系结构排序的替代模型。
zX。WNfCw。Cn41.宽度转换:宽度优化的(in)变量
他们控制现有三种宽度优化算法(即网络架构和训练数据)的训练配置,发现优化后的宽度可以很大程度上跨设置传递。
42.nahas : euralarchitectureandhardwareaccelerator搜索
他们提出了NAHAS,一种延迟驱动的软硬件协同优化器,可以联合优化神经架构和移动边缘处理器的设计。
43.神经网络与拓扑优化相结合
他们展示了一种基于遗传算法将神经网络训练与体系结构优化相结合的混合方法。
44.效率架构搜索持续学习
他们的CLEAS与神经架构搜索(NAS)紧密合作,后者使用强化学习技术来搜索适合新任务的最佳神经架构。
45.自动存储-丢失:存储度量当前组织需求细分
AutoSeg-Loss是第一个用于搜索替代损失以获得主流语义细分指标的通用框架。
zX。WNfCw。Cn46.改进插件-采样神经架构搜索旋转代理搜索空间
47.sedona : searchcfor ecoupledneuralnetwork ksto hard greedy block-wise learning
首次尝试将解耦神经网络自动化实现贪婪逐块学习,在CIFAR-10、Tiny-ImageNet、ImageNet分类上优于端到端反向传播和最新的贪婪学习方法。
48.层内建筑研究
神经架构在单个权重参数的级别上进行搜索。
49.entranna 3360 towardsclassingthegapbetthearchitecturesinsearcheandevaluation
50.硬件-网络连接存储-基准:硬件-认知体系结构基准
链接:https://openreview.net/pdf? id=_ 0kadkv3d VF
相关阅读
标签: #x48相关文章最新报道