⑴ appliedintelligence多久proof
appliedintelligence多久proof sci文章proof一般7天完成合适,因为sci论文接受后是需要审核的,外审、终审之后才能到校稿环节也就是proof的一个状态,通常来说论文审核的比较顺利,论文接受后没有一个月时间就校稿了。
如果审核过程中比较繁琐,尤其是会收到修改的通知,反复修改这样就会耗费不少时间,可能三个月甚至更久才能到校稿环节。
⑵ 中北大学的学术研究
截至2013年12月,中北大学共建成省部共建国家重点实验室培育基地1个,教育部重点实验室1个,国防科技重点实验室1个,国防重点学科实验室1个,中国兵器工业实验室1个,省级重点实验室6个;省部级工程中心15个,包括教育部工程研究中心2个,国防科技工业先进技术研究应用中心1个,省级工程技术研究中心16个 ,中澳联合研究中心1个,校企合作联合实验室2个。
中澳联合研究中心(1个):电力工程中澳联合研究中心
国家级工程技术研究中心(5个):镁合金关键技术及工艺国家地方联合工程研究中心、精密塑性成形国防先进工业技术研究应用中心(技术依托单位)、国防科技工业民爆制备工艺技术研究应用中心(成员单位)、物联网应用技术国家地方联合工程研究中心(与罗克佳华共建)、中国兵器无损检测诊断中心
国家级工程实践教育中心(4个):晋西机器工业集团有限责任公司、山西北方风雷工业集团有限公司、山西北方兴安化学工业有限公司、深圳市金之彩科技有限公司
国家级研究所(1个):中北大学国家区域创新战略研究所
国家大学科技园(1个):山西中北大学国家大学科技园
国防科技重点实验室(1个):电子测试技术国防科技重点实验室
国防重点学科实验室(1个):地下目标毁伤技术国防重点学科实验室
中国兵器工业实验室(1个):传爆药性能检测中心实验室
省部共建国家重点实验室培育基地(1个):动态测试技术省部共建国家重点实验室
省部级重点实验室(1个):高射速武器国防特色学科实验室
教育部工程研究中心(2个):镁基材料深加工技术教育部工程研究中心、微纳惯性传感与集成技术教育部工程研究中心
教育部重点实验室(1个):仪器科学与动态测试教育部重点实验室
省级工程技术研究中心(15个):山西省集成精密成形工程研究技术中心、山西省现代无损检测工程技术研究中心、山西省超细粉体工程技术研究中心、山西省微米纳米工程技术研究中心、山西省超重力化工工程技术研究中心、山西省高分子复合材料工程技术研究中心、山西省铸造新工艺工程技术研究中心、山西省光电信息与仪器工程技术研究中心、山西省工程塑料工程技术研究中心、山西省防火防爆安全工程技术研究中心、山西省自动化检测装备与系统工程技术研究中心、山西省起重机数字化设计工程技术研究中心、山西省有色金属液态成型工程技术研究中心、山西省激光显示工程技术研究中心、山西省深孔加工工程技术研究中心
省级重点实验室(6个):动态测试技术山西省重点实验室、先进制造技术山西省重点实验室、信息探测与处理山西省重点实验室、超重力化工山西省重点实验室、纳米功能复合材料山西省重点实验室、煤电污染物控制与资源化利用山西省重点实验室
省级人文社科重点研究基地(1个):中北大学“创新研究中心
校企合作联合实验室(2个):施耐德联合实验室、位置应用技术联合实验室 十一五规划以来,中北大学先后承担国家级项目254项,各类项目总数3600余项,科研项目总经费近22亿元,获得国家科技二等奖5项,省部级科技奖96项,发表SCI、EI收录论文近6000篇,出版学术专着和教材330余部。
2010年至2013年,中北大学承担国家自然科学基金项目累计达70余项,国家863项目12项,国家973项目10项,国家国际合作项目8项。在国防科研方面,承担总装备部预研项目400余项、科工局国防项目100余项,其中我校牵头负责的科工局重大专项2项、总装演示验证项目1项,086重大项目1项。此外,2012年,该校刘俊教授获得国家杰出青年科学基金项目支持;2013年,刘有智教授获得何梁何利基金科学与技术创新奖。 国家技术发明奖(二等奖5项,三等奖7项)科研成果 奖项 获奖时间 获奖者 备注 电子测压蛋 国家技术发明二等奖 1991年 祖静 第一单位 新型三轴加速度惯性传感器与实时数据压缩储存动态测试系统 国家技术发明二等奖 2004年 张文栋 第一单位 多功能反应装甲 国家技术发明二等奖 2006年 刘天生 第二单位 XXX发射药技术 国家技术发明二等奖 2008年 肖忠良 第一单位 纳机电矢量水听器 国家技术发明二等奖 2010年 张文栋 第一单位 电子衍射测晶体结构 国家技术发明三等奖 1991年 王建邦 第二单位 防大口径穿破甲弹装置 国家技术发明三等奖 1993年 刘天生 第一单位 弹载全弹道动态参数快速存储测试系统 国家技术发明三等奖 1995年 祖静 第一单位 可燃药筒粘结在线无损诊断方法设备 国家技术发明三等奖 2001年 路宏年 第一单位 可燃液体爆炸试验装置 国家技术发明三等奖 2001年 张景林 第一单位 XX粘贴质量在线无损诊断的方法及设备 国家技术发明三等奖 1999年 王明泉 第二单位 粘接强度检测系统 国家技术发明三等奖 涉密 涉密 第一单位 国家科学技术进步奖(一等奖1项,二等奖6项,三等奖3项)科研成果 奖项 获奖时间 获奖者 备注 尼龙11树脂 一等奖 涉密 胡国胜 第一单位 火箭扫雷系统 二等奖 1990年 刘天生 第二单位 XXX(涉密)传爆药安全性试验方法 二等奖 1996年 张景林 第一单位 XXX(涉密)子母弹 二等奖 2001年 王坚茹 第一单位 某模块化、系列化技术研究 二等奖 2011年 熊继军 第一单位 某大构件轻量化关键技术及应用 二等奖 2011年 张治民 第一单位 化工废气超重力净化技术的研发与工业应用 二等奖 2011年 刘有智 第一单位 包覆材料厚度超声检测技术 三等奖 1996年 路宏年 第一单位 火箭发动机脱粘检测系统 三等奖 涉密 涉密 第一单位 某框架温成形技术 三等奖 2006年 张治民 第一单位 国防科学技术进步奖(一等奖3项,二等奖10项,三等奖16项)科研成果 奖项 获奖时间 获奖者 备注 XX(涉密)关键制造技术 国防科技进步一等奖 2010年 徐宏 第一单位 XXX(涉密)黑匣子 国防科技进步一等奖 2010年 熊继军 第一单位 涉密 国防科技进步一等奖 2010年 张治民 第一单位 大型复杂铝铸件热工艺过程仿真及新工艺研究 国防科技进步二等奖 2002年 涉密 第一单位 大型铸件内部缺陷检测技术 国防科技进步二等奖 2002年 王召巴 第一单位 顶防护轻型反应装甲 国防科技进步二等奖 2002年 涉密 第一单位 高效弹药及高射频低后坐发射技术 国防科技进步二等奖 2002年 薄玉成 第一单位 战略导弹再入过程动态数据测试系统 国防科技进步二等奖 2003年 刘俊 第一单位 复合传感器及微型集成测量系统研究 国防科技进步二等奖 2004年 张文栋 第一单位 某导弹遥测匹配装置自动检测系统 国防科技进步二等奖 2004年 张文栋 第一单位 XXX(涉密)产品结构内视技术 国防科技进步二等奖 2005年 韩焱 第一单位 XXX(涉密)抛撒角速度及角速度测试技术 国防科技进步二等奖 2005年 马铁华 第一单位 侵彻过载测试技术 国防科技进步二等奖 2005年 张文栋 第一单位 火箭发射动力学—起始扰动研究 国防科技进步三等奖 2000年 涉密 第一单位 固体火箭发动机装药包覆状态无损检测技术及设备 国防科技进步三等奖 2001年 王召巴 第一单位 单管大口径机枪低后坐浮动技术 国防科技进步三等奖 2001年 涉密 第一单位 钝感传爆药技术 国防科技进步三等奖 2001年 涉密 第一单位 坦克动力系统零部件动态设计技术研究 国防科技进步三等奖 2001年 涉密 第一单位 破甲弹药尾翼等温成形技术 国防科技进步三等奖 2002年 涉密 第一单位 军用发动机关键零部件CAD技术 国防科技进步三等奖 2002年 涉密 第一单位 轻武器动态优化、仿真及可靠性技术研究 国防科技进步三等奖 2002年 涉密 第一单位 XX(涉密)再入过程动态数据测试系统 国防科技进步三等奖 2003年 刘俊 第一单位 创伤弹道研究专用激光测速靶 国防科技进步三等奖 2004年 李仰军 第一单位 等温挤压技术 国防科技进步三等奖 2004年 张治民 第一单位 XX(涉密)飞控数据实时检测存储系统 国防科技进步三等奖 2005年 刘俊 第一单位 弹用集成硅微加速度计 国防科技进步三等奖 2006年 张文栋 第一单位 靶场设备导弹前框瞬态高温测量系统 国防科技进步三等奖 2007年 周汉昌 第一单位 XX(涉密)寿命可靠性研究 国防科技进步三等奖 2010年 周桂春 第一单位 XXX(涉密)飞行姿态测量系统 国防科技进步三等奖 2010年 任勇峰 第一单位 教育部科学技术进步奖(一等奖1项,二等奖6项)科研成果 奖项 获奖时间 获奖者 备注 导弹数据记录设备 一等奖 2001年 张文栋 第一单位 高能X射线数字成像系统与技术 二等奖 2002年 韩焱 第一单位 难加工零件温冷近净成形与改性技术 二等奖 2002年 张治民 第一单位 炮射导弹测试弹技术 二等奖 2005年 张文栋 第一单位 直齿圆柱齿轮精密塑性成形工程化应用研究 二等奖 2005年 张治民 第一单位 基于数字平板探测器的工业DR/CT成像检测技术与系统 二等奖 2006年 韩焱 第一单位 激光打孔 二等奖 2009年 涉密 第一单位 山西省自然科学、技术发明、科技进步一等奖(共5项)科研成果 奖项 获奖时间 获奖者 备注 生物动力系统的建模与研究 山西省自然科学一等奖 2010年 靳帧 第一单位 微传感器轴心差角四点法与双弹头冲击差分法静动态特性测试技术 山西省技术发明一等奖 2009年 张文栋 第一单位 车辆用镁合金大型承力构建控制成形技术及装置 山西省技术发明一等奖 2010年 张治民 第一单位 XX-xx(涉密)弹载数据记录装置 山西省科技进步一等奖 2001年 张文栋 第一单位 可调谐脉冲激光波长和入射方位相干探测装置 山西省科技进步一等奖 2008年 张记龙 第一单位 馆藏资源 截至2016年2月, 中北大学图书馆有中外文图书和电子图书291万册,中外文期刊24627种。馆藏文献包括数、理、化、外语等基础学科和工程技术、机械工程、材料科学、兵器工程、自动控制工程、电子技术、计算机科学、化学工程、测试技术及仪表、交通、环境科学等应用技术学科,同时收藏了人文社科、管理科学、体育等文献资料;拥有电子资源数据库32种,包括CNKI学术期刊及优秀硕博论文库、万方数据及万方学位论文、超星数字图书馆、重庆维普、SDOL、Ei等中外文电子数据库。 学术期刊 据中北大学出版中心网站2015年11月信息显示,中北大学共编辑出版有《中北大学学报(自然科学版)》、《中北大学学报(社会科学版)》、《测试技术学报》、《Journal of Measurement Science and Instrumentation》等4个学术刊物。
《中北大学学报(自然科学版)》创刊于1979年,是中文核心期刊,前身为《华北工学院学报》,期刊以基础理论、应用科学和工程技术为主要刊登内容,设应用基础研究、机械与动力工程、自动化与计算机、化工与环境工程、电子与电子信息、材料科学与管理工程等栏目,曾获国家教委科技司全国高校优秀学报二等奖、国家教委科技司全国高校优秀学报二等奖、中国教育部优秀期刊三等奖、全国高校科技期刊优秀编辑质量奖、中国科技论文在线优秀期刊二等奖;多次获山西省高校学报一等奖、山西省一级期刊、兵器工业总公司优秀期刊三等奖等诸多荣誉,被《中文科技期刊数据库》(全文版)、《中国期刊全文数据库》(CJFD)、美国《工程索引》(EI)、美国《化学文摘》(CA)、英国《科学文摘》(SA)、荷兰《文摘与引文数据库》(Scopus)等全文收录。
《中北大学学报(社会科学版)》创刊于1985年,是由中北大学主管、主办的社科综合类学术性期刊,双月刊被中国知网、万方数据、维普资讯等中国国内重要检索数据库收录,设政治理论、哲学研究、思想政治教育、文学理论、外语研究、语言文字学、经济与管理、法学研究、体育理论、民俗学与区域文化研究等栏目。
《测试技术学报》创刊于1986年,是由“中国兵工学会”与“中北大学”合办,是“中国兵工学会测试技术学会”会刊、中国科技核心期刊。2002年起,《测试技术学报》连年被评为山西省一级期刊。2009年《测试技术学报》获全国高校科技期刊优秀编辑质量奖,设声与超声测量、在线测试、测量仪器、ADC、DAC和数据采集、实验技术与标准、动态测试系统、环境测量、数据压缩、人工智能与神经网络、电磁测量、微波测量、测控技术与总线技术、噪声与振动测量、遥感、遥测与遥控、VXI仪器、无损检测、光电测试、生物测试、量子测试、分析测试、材料测试、软件测试、火炸药测试、传感器技术、微型机械电子系统等栏目。
《Journal of Measurement Science and Instrumentation》(《测试科学与仪器》)创刊于2010年,是国家新闻出版总署批准,由中北大学主办的英文类国际性学术期刊,旨在报道国内外最新测试与仪器技术动态,关注测试与仪器科学技术的热点、难点问题,为从事信息获取与转换研究的科学工作者提供学术观点的展示和交流平台。
⑶ tnnls是否为顶级期刊
是。tnnls是在美国电气和电子工程师协会(IEEE)人工智能及机器学习领域国际顶级期刊,旨在出版神经网络和学习系统方面的理论、设计和应用的技术文章,是属于顶尖期刊文章。
⑷ 神经网络模型-27种神经网络模型们的简介
【1】Perceptron(P) 感知机
【1】感知机
感知机是我们知道的最简单和最古老的神经元模型,它接收一些输入,然后把它们加总,通过激活函数并传递到输出层。
【2】Feed Forward(FF)前馈神经网络
【2】前馈神经网络
前馈神经网络(FF),这也是一个很古老的方法——这种方法起源于50年代。它的工作原理通常遵循以下规则:
1.所有节点都完全连接
2.激活从输入层流向输出,无回环
3.输入和输出之间有一层(隐含层)
在大多数情况下,这种类型的网络使用反向传播方法进行训练。
【3】Radial Basis Network(RBF) RBF神经网络
【3】RBF神经网络
RBF 神经网络实际上是 激活函数是径向基函数 而非逻辑函数的FF前馈神经网络(FF)。两者之间有什么区别呢?
逻辑函数--- 将某个任意值映射到[0 ,... 1]范围内来,回答“是或否”问题。适用于分类决策系统,但不适用于连续变量。
相反, 径向基函数--- 能显示“我们距离目标有多远”。 这完美适用于函数逼近和机器控制(例如作为PID控制器的替代)。
简而言之,RBF神经网络其实就是, 具有不同激活函数和应用方向的前馈网络 。
【4】Deep Feed Forword(DFF)深度前馈神经网络
【4】DFF深度前馈神经网络
DFF深度前馈神经网络在90年代初期开启了深度学习的潘多拉盒子。 这些依然是前馈神经网络,但有不止一个隐含层 。那么,它到底有什么特殊性?
在训练传统的前馈神经网络时,我们只向上一层传递了少量的误差信息。由于堆叠更多的层次导致训练时间的指数增长,使得深度前馈神经网络非常不实用。 直到00年代初,我们开发了一系列有效的训练深度前馈神经网络的方法; 现在它们构成了现代机器学习系统的核心 ,能实现前馈神经网络的功能,但效果远高于此。
【5】Recurrent Neural Network(RNN) 递归神经网络
【5】RNN递归神经网络
RNN递归神经网络引入不同类型的神经元——递归神经元。这种类型的第一个网络被称为约旦网络(Jordan Network),在网络中每个隐含神经元会收到它自己的在固定延迟(一次或多次迭代)后的输出。除此之外,它与普通的模糊神经网络非常相似。
当然,它有许多变化 — 如传递状态到输入节点,可变延迟等,但主要思想保持不变。这种类型的神经网络主要被使用在上下文很重要的时候——即过去的迭代结果和样本产生的决策会对当前产生影响。最常见的上下文的例子是文本——一个单词只能在前面的单词或句子的上下文中进行分析。
【6】Long/Short Term Memory (LSTM) 长短时记忆网络
【6】LSTM长短时记忆网络
LSTM长短时记忆网络引入了一个存储单元,一个特殊的单元,当数据有时间间隔(或滞后)时可以处理数据。递归神经网络可以通过“记住”前十个词来处理文本,LSTM长短时记忆网络可以通过“记住”许多帧之前发生的事情处理视频帧。 LSTM网络也广泛用于写作和语音识别。
存储单元实际上由一些元素组成,称为门,它们是递归性的,并控制信息如何被记住和遗忘。
【7】Gated Recurrent Unit (GRU)
【7】GRU是具有不同门的LSTM
GRU是具有不同门的LSTM。
听起来很简单,但缺少输出门可以更容易基于具体输入重复多次相同的输出,目前此模型在声音(音乐)和语音合成中使用得最多。
实际上的组合虽然有点不同:但是所有的LSTM门都被组合成所谓的更新门(Update Gate),并且复位门(Reset Gate)与输入密切相关。
它们比LSTM消耗资源少,但几乎有相同的效果。
【8】Auto Encoder (AE) 自动编码器
【8】AE自动编码器
Autoencoders自动编码器用于分类,聚类和特征压缩。
当您训练前馈(FF)神经网络进行分类时,您主要必须在Y类别中提供X个示例,并且期望Y个输出单元格中的一个被激活。 这被称为“监督学习”。
另一方面,自动编码器可以在没有监督的情况下进行训练。它们的结构 - 当隐藏单元数量小于输入单元数量(并且输出单元数量等于输入单元数)时,并且当自动编码器被训练时输出尽可能接近输入的方式,强制自动编码器泛化数据并搜索常见模式。
【9】Variational AE (VAE) 变分自编码器
【9】VAE变分自编码器
变分自编码器,与一般自编码器相比,它压缩的是概率,而不是特征。
尽管如此简单的改变,但是一般自编码器只能回答当“我们如何归纳数据?”的问题时,变分自编码器回答了“两件事情之间的联系有多强大?我们应该在两件事情之间分配误差还是它们完全独立的?”的问题。
【10】Denoising AE (DAE) 降噪自动编码器
【10】DAE降噪自动编码器
虽然自动编码器很酷,但它们有时找不到最鲁棒的特征,而只是适应输入数据(实际上是过拟合的一个例子)。
降噪自动编码器(DAE)在输入单元上增加了一些噪声 - 通过随机位来改变数据,随机切换输入中的位,等等。通过这样做,一个强制降噪自动编码器从一个有点嘈杂的输入重构输出,使其更加通用,强制选择更常见的特征。
【11】Sparse AE (SAE) 稀疏自编码器
【11】SAE稀疏自编码器
稀疏自编码器(SAE)是另外一个有时候可以抽离出数据中一些隐藏分组样试的自动编码的形式。结构和AE是一样的,但隐藏单元的数量大于输入或输出单元的数量。
【12】Markov Chain (MC) 马尔科夫链
【12】Markov Chain (MC) 马尔科夫链
马尔可夫链(Markov Chain, MC)是一个比较老的图表概念了,它的每一个端点都存在一种可能性。过去,我们用它来搭建像“在单词hello之后有0.0053%的概率会出现dear,有0.03551%的概率出现you”这样的文本结构。
这些马尔科夫链并不是典型的神经网络,它可以被用作基于概率的分类(像贝叶斯过滤),用于聚类(对某些类别而言),也被用作有限状态机。
【13】Hopfield Network (HN) 霍普菲尔网络
【13】HN霍普菲尔网络
霍普菲尔网络(HN)对一套有限的样本进行训练,所以它们用相同的样本对已知样本作出反应。
在训练前,每一个样本都作为输入样本,在训练之中作为隐藏样本,使用过之后被用作输出样本。
在HN试着重构受训样本的时候,他们可以用于给输入值降噪和修复输入。如果给出一半图片或数列用来学习,它们可以反馈全部样本。
【14】Boltzmann Machine (BM) 波尔滋曼机
【14】 BM 波尔滋曼机
波尔滋曼机(BM)和HN非常相像,有些单元被标记为输入同时也是隐藏单元。在隐藏单元更新其状态时,输入单元就变成了输出单元。(在训练时,BM和HN一个一个的更新单元,而非并行)。
这是第一个成功保留模拟退火方法的网络拓扑。
多层叠的波尔滋曼机可以用于所谓的深度信念网络,深度信念网络可以用作特征检测和抽取。
【15】Restricted BM (RBM) 限制型波尔滋曼机
【15】 RBM 限制型波尔滋曼机
在结构上,限制型波尔滋曼机(RBM)和BM很相似,但由于受限RBM被允许像FF一样用反向传播来训练(唯一的不同的是在反向传播经过数据之前RBM会经过一次输入层)。
【16】Deep Belief Network (DBN) 深度信念网络
【16】DBN 深度信念网络
像之前提到的那样,深度信念网络(DBN)实际上是许多波尔滋曼机(被VAE包围)。他们能被连在一起(在一个神经网络训练另一个的时候),并且可以用已经学习过的样式来生成数据。
【17】Deep Convolutional Network (DCN) 深度卷积网络
【17】 DCN 深度卷积网络
当今,深度卷积网络(DCN)是人工神经网络之星。它具有卷积单元(或者池化层)和内核,每一种都用以不同目的。
卷积核事实上用来处理输入的数据,池化层是用来简化它们(大多数情况是用非线性方程,比如max),来减少不必要的特征。
他们通常被用来做图像识别,它们在图片的一小部分上运行(大约20x20像素)。输入窗口一个像素一个像素的沿着图像滑动。然后数据流向卷积层,卷积层形成一个漏斗(压缩被识别的特征)。从图像识别来讲,第一层识别梯度,第二层识别线,第三层识别形状,以此类推,直到特定的物体那一级。DFF通常被接在卷积层的末端方便未来的数据处理。
【18】Deconvolutional Network (DN) 去卷积网络
【18】 DN 去卷积网络
去卷积网络(DN)是将DCN颠倒过来。DN能在获取猫的图片之后生成像(狗:0,蜥蜴:0,马:0,猫:1)一样的向量。DNC能在得到这个向量之后,能画出一只猫。
【19】Deep Convolutional Inverse Graphics Network (DCIGN) 深度卷积反转图像网络
【19】 DCIGN 深度卷积反转图像网络
深度卷积反转图像网络(DCIGN),长得像DCN和DN粘在一起,但也不完全是这样。
事实上,它是一个自动编码器,DCN和DN并不是作为两个分开的网络,而是承载网路输入和输出的间隔区。大多数这种神经网络可以被用作图像处理,并且可以处理他们以前没有被训练过的图像。由于其抽象化的水平很高,这些网络可以用于将某个事物从一张图片中移除,重画,或者像大名鼎鼎的CycleGAN一样将一匹马换成一个斑马。
【20】Generative Adversarial Network (GAN) 生成对抗网络
【20】 GAN 生成对抗网络
生成对抗网络(GAN)代表了有生成器和分辨器组成的双网络大家族。它们一直在相互伤害——生成器试着生成一些数据,而分辨器接收样本数据后试着分辨出哪些是样本,哪些是生成的。只要你能够保持两种神经网络训练之间的平衡,在不断的进化中,这种神经网络可以生成实际图像。
【21】Liquid State Machine (LSM) 液体状态机
【21】 LSM 液体状态机
液体状态机(LSM)是一种稀疏的,激活函数被阈值代替了的(并不是全部相连的)神经网络。只有达到阈值的时候,单元格从连续的样本和释放出来的输出中积累价值信息,并再次将内部的副本设为零。
这种想法来自于人脑,这些神经网络被广泛的应用于计算机视觉,语音识别系统,但目前还没有重大突破。
【22】Extreme Learning Machine (ELM) 极端学习机
【22】ELM 极端学习机
极端学习机(ELM)是通过产生稀疏的随机连接的隐藏层来减少FF网络背后的复杂性。它们需要用到更少计算机的能量,实际的效率很大程度上取决于任务和数据。
【23】Echo State Network (ESN) 回声状态网络
【23】 ESN 回声状态网络
回声状态网络(ESN)是重复网络的细分种类。数据会经过输入端,如果被监测到进行了多次迭代(请允许重复网路的特征乱入一下),只有在隐藏层之间的权重会在此之后更新。
据我所知,除了多个理论基准之外,我不知道这种类型的有什么实际应用。。。。。。。
【24】Deep Resial Network (DRN) 深度残差网络
【24】 DRN 深度残差网络
深度残差网络(DRN)是有些输入值的部分会传递到下一层。这一特点可以让它可以做到很深的层级(达到300层),但事实上它们是一种没有明确延时的RNN。
【25】Kohonen Network (KN) Kohonen神经网络
【25】 Kohonen神经网络
Kohonen神经网络(KN)引入了“单元格距离”的特征。大多数情况下用于分类,这种网络试着调整它们的单元格使其对某种特定的输入作出最可能的反应。当一些单元格更新了, 离他们最近的单元格也会更新。
像SVM一样,这些网络总被认为不是“真正”的神经网络。
【26】Support Vector Machine (SVM)
【26】 SVM 支持向量机
支持向量机(SVM)用于二元分类工作,无论这个网络处理多少维度或输入,结果都会是“是”或“否”。
SVM不是所有情况下都被叫做神经网络。
【27】Neural Turing Machine (NTM) 神经图灵机
【27】NTM 神经图灵机
神经网络像是黑箱——我们可以训练它们,得到结果,增强它们,但实际的决定路径大多数我们都是不可见的。
神经图灵机(NTM)就是在尝试解决这个问题——它是一个提取出记忆单元之后的FF。一些作者也说它是一个抽象版的LSTM。
记忆是被内容编址的,这个网络可以基于现状读取记忆,编写记忆,也代表了图灵完备神经网络。
⑸ financeresearchletters好发吗
当我们谈论起论文发表这个话题时,很难绕开的问题通常是“某某领域/方向有哪些好发的期刊”,或者更加具体一些,“某某期刊是不是好发”。那么,如何去识别“好发的期刊”或者定义“期刊的好发程度”呢?这当然是一个见仁见智的问题。
面对中文CSSCI期刊版面缩减、机构垄断等形势,我们一直倡导面临考核压力的人文社科研究生和“青椒”们树立国际视野,采取混合发表策略,尝试向SSCI期刊投稿并争取发表。
根据我们得到的反馈,面对3000余种SSCI期刊,广大用户最为困惑的还是选刊问题,很难有持续的耐心和充足的精力去从头熟悉本学科的期刊。特别是由于SSCI对于期刊的分类标准与国内学者熟悉的分类并不一致,导致如果仅关注“自身所属学科”的期刊,可能会遗漏部分应当关注的期刊。鉴于此,我们拟尝试甄选“好发”的SSCI期刊,供各位用户参考。
遴选标准
在进入正题之前,我们想谈谈对“好发”的SSCI期刊的理解。首先,这些期刊的年刊文量不能太少,一种每年只发几篇论文的期刊,想必我们中的大部分人都没必要花时间去碰运气了;其次,这些期刊应当是已经有发表过中国学者的论文,在发表SSCI期刊论文已经不再是新闻的今天,如果一种期刊近年来根本没有刊登过中国学者的论文,那我们中的大部分人也没必要去尝试当“先行者”了。
基于这两个标准,考虑到科睿唯安公布了每种SSCI期刊近三年由中国大陆(包含中国内地和港澳地区,不含中国台湾地区)机构署名的论文数量,我们认为,可以初步将以下三类期刊视为“好发”的SSCI期刊,加以深入分析和研判。
第一类:中国大陆地区作为发文首要来源地的期刊。这些期刊多由大陆地区相关机构主办,或者关注的议题与中国高度相关。
第二类:中国大陆地区在发文来源地中排名靠前(通常为前三)且发文数量没有特别少的期刊。第二个限制条件主要是为了排除发文高度集中于首要来源地且中国大陆机构发文数量仅为个位数的期刊。
第三类:中国大陆地区虽然在发文来源地中的排名不够靠前,但发文数量较多的期刊。这些期刊的发文量往往较大,每年动辄大几百甚至上千篇。
本期推介
本期要介绍的15本期刊分别为:
1. Annals of Economics and Finance(经济学四区)
2. Asia Pacific Journal of Management(管理学二区)
3. Asia Pacific Journal of Marketing and Logistics(商学二区)
4. Asian Business & Management(商学三区,管理学三区)
5. Asian Economic Papers(经济学四区)
6. Asia-Pacific Journal of Accounting & Economics(金融学四区,经济学四区)
7. Australian Economic Papers(经济学四区)
8. Business Strategy and the Environment(环境研究一区,商学一区,管理学一区)
9. China & World Economy(经济学二区)
10. China Agricultural Economic Review(经济学二区,农业经济与政策三区)
11. China Economic Review(经济学一区)
12. Chinese Management Studies(管理学四区)
13. Computational Economics(经济学三区;管理学四区)
14. Finance Research Letters(金融学一区)
15. Emerging Markets Review(经济学一区,金融学一区)
01
Annals of Economics and Finance
Annals of Economics and Finance发表经济学、金融学和管理学各领域的理论和应用论文,也鼓励将经济学方法应用于政治学、社会学、心理学、伦理学和历史学的研究。现任主编为中央财经大学邹恒甫教授。
2019年,Annals of Economics and Finance的影响因子为0.396,在经济学371种期刊中排名第349,属于四区期刊。从近年情况看,Annals of Economics and Finance的年发文量呈逐年递增趋势,2019年共刊发论文34篇。
中国大陆地区是Annals of Economics and Finance发文的首要来源地,中央财经大学、北京大学、中国人民大学、浙江大学、中国社会科学院、复旦大学、武汉大学等高校和科研机构在该刊上的发表记录排在前列。
02
Asia Pacific Journal of Management
Asia Pacific Journal of Management发表有关亚太地区管理和组织研究的稿件,关注的是一个最基本的问题:什么决定了组织的成功?涵盖的主要研究领域包括:企业家精神,人力资源管理,国际商务,组织行为,战略管理。会计、经济、金融、市场营销和运营管理等不属于该刊的选稿范围。该刊致力于成为泛亚太地区内或对该地区感兴趣的管理学者交流思想和研究的主要平台,现任主编为香港中文大学Chi-Sum Wong教授。
2019年,Asia Pacific Journal of Management的影响因子为3.064,在管理学226种期刊中排名第84,属于二区期刊。从近年情况看,Asia Pacific Journal of Management的年发文量在40篇左右,2019年发表了45篇文章,较往年略有增长。
中国大陆地区是Asia Pacific Journal of Management发文的首要来源地,香港城市大学、香港中文大学、香港浸会大学、浙江大学、中欧国际商学院、西安交通大学、华中科技大学、南京大学、澳门大学、宁波诺丁汉大学等机构在该刊上的发表记录排在前列。
根据相关新闻报道,近年来,信阳师范学院商学院、浙江财经大学工商管理学院、湖南师范大学商学院教师,以及厦门大学管理学院博士生均曾在Asia Pacific Journal of Management发表论文。
03
Asia Pacific Journal of Marketing and Logistics
Asia Pacific Journal of Marketing and Logistics发表对亚太地区市场营销和物流知识有重大贡献的实证研究、概念性论文、深入的文献综述以及对其他方法和理论的检验。该期刊致力于缩小学术和实践之间的差距,因此也发表业内观点、案例研究和关于新兴趋势的研究随笔。关注的具体议题包括但不限于:营销策略,关系营销,跨文化问题,消费者市场和购买行为,营销渠道管理,物流,亚太市场的品牌问题,市场细分,营销理论,新产品开发,市场调查,集成营销,法律和公共政策,跨国和跨文化研究,数字营销。现任主编为澳大利亚科廷大学Ian Phau教授。
2019年,Asia Pacific Journal of Marketing and Logistics的影响因子为2.511,在商学152种期刊中排名第76,属于二区期刊。从近年情况看,Asia Pacific Journal of Marketing and Logistics的年发文量有较快增长,2019年发表了103篇文章。
中国大陆地区力压澳大利亚,是Asia Pacific Journal of Marketing and Logistics刊文的首要来源地,香港理工大学、澳门大学、北京邮电大学、中国科学院、重庆大学等机构在该刊上的发表记录排在前列。
根据相关新闻报道,近年来,信阳师范学院商学院教师等曾在Asia Pacific Journal of Marketing and Logistics发表论文。
04
Asian Business & Management
Asian Business & Management是针对亚洲管理和商业的学术期刊,关注的主题涵盖公司治理、人力资源管理、市场营销、组织行为、组织理论、战略、技术管理等。区别于一般的商业和管理期刊,该刊聚焦亚洲,这也是其最重要的最具吸引力的特点之一。无论所使用的研究方法是定量、还是定性、或是混合方法,抑或是概念性工作,只要有助于加深对亚洲商业和管理问题的理解的稿件,均有望在该刊发表。现任主编为德国哥廷根大学Fabian Jintae Froese教授。
2019年,Asian Business & Management的影响因子为2.192,在商学152种期刊中排名第91,属于三区期刊;在管理学226种期刊中排名第129,亦属于三区期刊。从近年情况看,Asian Business & Management的年发文量逐年提高,2019年发表了16篇文章。
中国大陆地区是Asian Business & Management发文的首要来源地。浙江大学、中国科学院、同济大学、上海交通大学、上海财经大学、清华大学等高校和研究机构在该刊上的发表记录排在前列。通过查阅Asian Business & Management网站,该刊新近录用的稿件中,第一作者所属高校包括浙江财经大学、西南大学、河北经贸大学、河北工业大学、深圳大学、江西财经大学等。
05
Asian Economics Papers
Asian Economic Papers受到美国哥伦比亚大学可持续发展中心、韩国国际经济政策研究所、马来西亚双威大学Jeffrey Cheah东南亚研究所、印度尼西亚东盟与东亚经济研究所、中国上海交通大学安泰经济与管理学院的联合支持。该刊的文章聚焦对亚洲某特定经济体或泛亚洲地区重要经济问题的严谨分析,并为这些亚洲经济问题提供创造性的解决方案。现任主编为加州大学戴维斯分校Wing Thye Woo教授。
2019年,Asian Economic Papers的影响因子为0.596,在经济学371种期刊中排名第324,属于四区期刊。从近年情况看,Asian Economic Papers的年发文量在2017年达到峰值(31篇),其后逐年降低,2019年发表了24篇文章。
中国大陆地区和韩国并列为Asian Economic Papers刊文的首要来源地,但位列前十大来源机构的大陆高校仅有北京大学一所,说明在该刊上发文的中国大陆学者所在高校的分布较为分散。
06
Asia-Pacific Journal of Accounting & Economics
Asia-Pacific Journal of Accounting & Economics发表经济学和会计学领域的理论和实证研究成果,关注的主题包括但不限于:审计、财务报告、盈余管理、财务分析师、会计信息的作用、国际贸易与金融、产业组织、战略行为、市场结构、财务契约、公司治理、资本市场和金融机构。现任联合主编有:台湾大学Hong Hwang、香港城市大学Jeong-Bon Kim、台湾大学Shu-Hsing Li、香港城市大学Yue Ma、美国德州大学达拉斯分校Suresh Radhakrishnan。
2019年,Asia-Pacific Journal of Accounting & Economics的影响因子为0.705,在金融学108种期刊中排名第96,属于四区期刊,在经济学371种期刊中排名第305,亦属于四区期刊。从近年情况看,Asia-Pacific Journal of Accounting & Economics的年发文量逐年递增,2019年发表了39篇文章。
中国大陆地区是Asia-Pacific Journal of Accounting & Economics刊文的首要来源地,西安交通大学、厦门大学、香港城市大学、复旦大学、香港浸会大学在该刊上的发表记录排在前列。
07
Australian Economics Papers
Australian Economic Papers发表来自理论、实证和政策经济学领域国际顶尖经济学家的高质量论文,覆盖的议题非常广泛,除了经济学的主要领域外,还包括产业组织、劳动经济学、宏观与微观政策分析等。现任总编辑为越南胡志明市经济大学Sarath Delpachitra教授,主编为西澳大学Jakob Madsen教授和世界银行Richard Damania博士。
2019年,Australian Economic Papers的影响因子为0.783,在经济学371种期刊中排名第288,属于四区期刊。从近年情况看,Australian Economic Papers的年发文量在2018年达到峰值(28篇)后有所降低,2019年发表了18篇文章。
中国大陆地区超过澳大利亚,为Australian Economic Papers刊文的首要来源地,对外经济贸易大学、中央财经大学、吉林大学、暨南大学、南开大学等高校在该刊上的发表记录排在前列。
08
Business Strategy and the Environment
Business Strategy and the Environment力求加深对改善环境绩效的商业反应的理解,寻求检验竞争战略与环境管理之间的联系,关注系统和标准、合作环境管理工具、组织和管理、特定行业及企业对当代环境问题的反应等议题,尤其是法规和政策在商业领域中的作用,并鼓励开展跨国分析。该期刊致力于引起广泛的跨学科读者的兴趣,包括学者、从业人员、业务经理和顾问等。现任主编为泰国朱拉隆功大学萨辛管理学院Richard Welford教授。
2019年,Business Strategy and the Environment的影响因子为5.483,在环境研究123种期刊中排名第10,在商学152种期刊中排名第19,在管理学226种期刊中排名第21,均属于一区期刊。从近年情况看,Business Strategy and the Environment的年发文量在2018年突破100篇,2019年发表了117篇文章。
中国大陆地区为Business Strategy and the Environment刊文的首要来源地,上海交通大学、中国科学院、香港理工大学、浙江理工大学等机构在该刊上的发表记录排在前列。根据公开的新闻报道,安徽师范大学经济管理学院、湖北经济学院会计学院等院校近来均有教师在该刊发表论文。
根据期刊公开披露的信息,Business Strategy and the Environment从论文提交到作出第一次决定仅需6天时间。
09
China & World Economy
China & World Economy是中国国内创办的最早的经济类英文学术刊物,致力于推动国际国内学术界开展与中国经济相关的研究及其与世界经济的互动,关注的议题包括但不限于:国际金融、贸易、投资、宏观经济学、发展经济学、能源等。现任主编是中国社会科学院张宇燕研究员。
2019年,China & World Economy的影响因子为1.865,在经济学371种期刊中排名第119,属于二区期刊。从近年情况看,China & World Economy的年发文量在30余篇且呈下降趋势,2019年发表了34篇文章。
中国大陆地区是China & World Economy发文的首要来源地。中国社会科学院、北京大学、中国人民大学、北京师范大学、对外经济贸易大学、浙江大学等机构在该刊上的发表记录排在前列,上海财经大学、清华大学、重庆大学、复旦大学等高校在该刊也有不错的发表记录。
10
China Agricultural Economic Review
China Agricultural Economic Review倡导针对中国农业改革和实践的深度分析,关注的议题包括:农业、农村发展、自然资源和环境经济学。现任主编是中国农业大学辛贤教授。
作为SSCI和SCI双检索期刊,2019年,China Agricultural Economic Review的影响因子为1.753,在经济学(SSCI)371种期刊中排名第132,属于二区期刊;在农业经济与政策(SCI)21种期刊中排名第11,属于三区期刊。从近年情况看,China Agricultural Economic Review的年发文量呈增加趋势,2019年发表了52篇文章。
中国大陆地区为China Agricultural Economic Review刊文的首要来源地,中国农业大学、北京大学、南京农业大学、浙江大学、中国人民大学等高校在该刊上的发表记录排在前列,中国科学院、中国农业科学院、华南农业大学等机构在该刊也有不错的发表记录。
11
China Economic Review
China Economic Review关注的议题涉及中国经济的各个方面及其与世界经济的关系,尤其欢迎有关中国经济体制改革、政策和绩效的量化分析,并鼓励对中国与其他国家的发展进程进行比较。现任主编为北京大学张晓波教授。
2019年,China Economic Review的影响因子为2.736,在经济学371种期刊中排名第71,属于一区期刊。从近年情况看,China Economic Review的年发文量呈逐年递增趋势,2019年发表了115篇文章。
中国大陆地区是China Economic Review刊文的首要来源地,期刊发文的前十大来源机构基本上被中国大陆地区高校包揽,包括北京大学、中国人民大学、中央财经大学、复旦大学、北京师范大学、清华大学、上海财经大学、浙江大学、暨南大学等。
12
Chinese Management Studies
Chinese Management Studies提供中国CEO、高管团队、学者等对管理的最新思考,发表对中国管理思想、哲学和过程的深入分析、关于中国的实证论文、以及采访和对话等,致力于展示中国学者的管理研究能力以及全球对中国管理的兴趣。现任主编是莫纳什大学Cherrie Jiuhua Zhu教授。
2019年,Chinese Management Studies的影响因子为1.036,在管理学226种期刊中排名第195,属于四区期刊。从近年情况看,Chinese Management Studies的年发文量逐年增加,2019年发表了51篇文章。
用户点评:
这个期刊是四区的SSCI期刊,影响因子接近1,主要刊登有关中国管理学领域相关的论文。
我于2019年6月份投稿,2016年11月份收到审稿意见,三个审稿人都认为论文很有意义,但是都认为需要修改,修改意见2页多。因为接近寒假,比较忙,所以一个月的修改时间很紧,我又申请延长了10天左右的修改期,我于2020年1月份返回修改稿。
2020年2月份受到二审意见,这次是两个审稿人的意见,其中一个审稿人建议发表,另一个审稿人是上次三个审稿人中的一个,认为我修改的不够,建议继续修改,尤其是政策建议要突出创新点和对实务界的启示。
约一个月后修回,之后就是等待。2020年4月中旬我收到主编邮件说论文已经录用。感觉这个期刊审稿速度不算快,但审稿人提的意见很好,很中肯,也确实有助于论文质量的提升。
虽然是四区期刊,也没有很简单,之前师兄投过两次中过一次,师姐好像也投过,但没中。所以现在发论文并不容易,能发一个SSCI期刊还不错。
匿名用户:
师门偶有在该刊发文 作为本人独立写的第一篇英文论文 夜尝试投了该刊 5月18号提交论文 半个月后进入外审 再一个半月后7月20号收到退稿邮件 第一次外审速度还OK 后面就不太清楚了 一共三个外审专家 一个给大修 两个给退稿 确实是文章水平的问题 给的意见也都很中肯 当然也不乏有一些批评的语言 总的来说对未来的研究完善有挺大的益处 之后还会继续尝试该刊
中国大陆地区是Chinese Management Studies发文的首要来源地。期刊发文的前十大来源机构基本上被中国大陆地区高校和科研院所包揽,包括中国科学院、西安交通大学、南京大学、浙江大学、北京交通大学、杭州电子科技大学、湖南大学、暨南大学、对外经济贸易大学、哈尔滨工业大学、华中科技大学、西北工业大学、中国人民大学、上海大学、华南理工大学等。
13
Computational Economics
Computational Economics介绍讲计算科学与经济学所有分支相结合的新研究,涵盖滤波、贝叶斯和非参数方法、马尔可夫过程、蒙特卡罗模拟等计量经济学的计算方法,仿真模型方法,机器学习,进化算法,神经网络建模,动态系统计算,优化,最优控制,博弈,均衡建模,硬件和软件开发,建模语言,接口,符号处理,分布式和并行处理等。现任主编是荷兰阿姆斯特丹大学Hans M. Amman教授。
2019年,Computational Economics的影响因子为1.317,在经济学371种期刊中排名第200,属于三区期刊;在管理学226种期刊中排名第185,属于四区期刊;作为SSCI/SCIE双检索期刊,Computational Economics在数学跨学科应用106种期刊中排名第65,属于三区期刊。从近年情况看,Computational Economics的年发文量自2018年以来持续增加,2019年发表了131篇文章。
中国大陆地区是Computational Economics发文的首要来源地。期刊发文的前十大来源机构中,来自中国大陆地区的高校院所最多,包括中国科学院、南方科技大学、香港大学、中国人民大学、北京师范大学、湖南大学、西南财经大学和厦门大学等。
14
Finance Research Letters
Finance Research Letters欢迎来自泛金融学各个领域的稿件,字数一般不能超过2500个。该刊关注的议题包括:精算研究;另类投资;资产定价;破产清算;银行和其他存托机构;行为和实验金融;金融的文献计量和科学计量研究;资本预算和其他投资;资本市场与会计;资本结构和支付政策;大宗商品;传染,危机和相互依存;公司治理;信贷和固定收益市场与工具;衍生品;新兴市场;能源金融与能源市场;金融计量经济学;金融历史;金融中介和货币市场;金融市场;金融数学与经济物理学;金融监管与法律;预测;前沿市场研究;国际金融;市场效率与实践研究;合并与收购;微型金融机构;微观机构;非银行金融机构;个人财务;投资组合选择与投资;房地产金融与投资;风险;中小企业、家庭和创业金融。现任联合总编为主编为马来西亚北部大学Jonathan A. Batten教授、阿联酋沙迦美国大学Narjess Boubakri教授、爱尔兰都柏林大学Samuel Vigne教授。
2019年,Finance Research Letters的影响因子为3.527,在金融学109种期刊中排名第9,属于一区期刊。从近年情况看,Finance Research Letters的年发文量有显着增加,2019年发表了240篇文章。
用户点评:
最近12个月内,周围四个中国人投此刊全部被拒,均来自985高校。此刊金融经济相关都可以投,发文量这几年很稳定,今年升入1区估计投稿量更多,难度更大。从我们四个人的经验来看,编辑直接拒会在半个月左右决定。第一轮审稿意见回来估计1到3个月,一般只有一到两个审稿人,所以审稿人的意见很重要。letter期刊很少,其中frl和el偏难,ael相对容易。这三个期刊相对长文来说审稿和出刊都比较快。另外这三个期刊都有投稿费,没有版面费。
匿名用户:
8月份投了这个期刊的special issue,由于时间比较赶,文章写的质量一般,当然快速得被拒了。。150美元的审稿费 被拒的理由说文章的理论基础比较薄弱,150美元买了比较中肯的审稿意见,哈哈 文章字数要求2000字 个人觉得,letter的文章,不求长,但是idea一定要新!理论基础要扎实。从投稿到给出被拒,两周,速度比较快。
中国大陆地区是Finance Research Letters发文的首要来源地。对外经济贸易大学、中央财经大学、中国科学院、浙江大学等中国大陆地区高校和研究机构在该刊上的发表记录排在前列。
15
Emerging Markets Review
Emerging Markets Review旨在成为发表新兴市场金融领域重大经验和理论研究成果的主要平台,该刊优先考虑的论文包括:全球和区域视野下的比较研究,解决特定国家的关键政策问题并具有重要全球和区域影响的研究,以及应对国家和国际金融架构相互作用的研究;尤其欢迎制度和金融视角下的论文。现任主编为马来西亚北部大学J.A. Batten教授。
2019年,Emerging Markets Review的影响因子为3.092,在金融学109种期刊中排名第12,在经济学373种期刊中排名第58,均属于一区期刊。从近年情况看,Emerging Markets Review的年发文量呈逐年增加趋势,2019年发表了60篇文章。
中国大陆地区是Emerging Markets Review刊文的首要来源地。西南财经大学是入围该刊发文前十大来源机构的唯一一所中国大陆地区高校。
⑹ 人工智能的顶会有哪些
人工智能和机器学习技术的快速发展,使得AI 主题会议也层出不穷,下面带大家一起了解一下人工智能领域的顶会都有哪些
1. CVPR
国际计算机视觉与模式识别会议(CVPR)是IEEE一年一度的学术性会议,会议的主要内容是计算机视觉与模式识别技术。CVPR是世界顶级的计算机视觉会议(三大顶会之一,另外两个是 ICCV 和 ECCV ),近年来每年有约1500名参加者,收录的论文数量一般300篇左右。本会议每年都会有固定的研讨主题,而每一年都会有公司赞助该会议并获得在会场展示的机会。
2. ECCV
ECCV 的全称是European Conference on Computer Vision(欧洲计算机视觉国际会议) ,两年一次,是计算机视觉三大会议(另外两个是ICCV和CVPR)之一。每次会议在全球范围录用论文300篇左右,主要的录用论文都来自美国、欧洲等顶尖实验室及研究所,中国大陆的论文数量一般在10-20篇之间。ECCV2010的论文录取率为27%
3.ICCV
ICCV 的全称是 IEEE International Conference on Computer Vision,即国际计算机视觉大会,由IEEE主办,与计算机视觉模式识别会议(CVPR)和欧洲计算机视觉会议(ECCV)并称计算机视觉方向的三大顶级会议,被澳大利亚ICT学术会议排名和中国计算机学会等机构评为最高级别学术会议,在业内具有极高的评价。不同于在美国每年召开一次的CVPR和只在欧洲召开的ECCV,ICCV在世界范围内每两年召开一次。ICCV论文录用率非常低,是三大会议中公认级别最高的.
4. ICLR
ICLR ,全称为“International Conference on Learning Representations”(国际学习表征会议),2013 年才刚刚成立了第一届。这个一年一度的会议虽然今年(2018)才办到第六届,但已经被学术研究者们广泛认可,被认为“深度学习的顶级会议”。这个会议的来头不小,由位列深度学习三大巨头之二的 Yoshua Bengio 和 Yann LeCun 牵头创办。
5. NIPS
NIPS (NeurIPS),全称神经信息处理系统大会(Conference and Workshop on Neural Information Processing Systems),是一个关于机器学习和计算神经科学的国际会议。该会议固定在每年的12月举行,由NIPS基金会主办。NIPS是机器学习领域的顶级会议。在中国计算机学会的国际学术会议排名中,NIPS为人工智能领域的A类会议。
6.ICML
ICML 是 International Conference on Machine Learning的缩写,即国际机器学习大会。ICML如今已发展为由国际机器学习学会(IMLS)主办的年度机器学习国际顶级会议。
7. IJCV
国际期刊计算机视觉,详细描绘了信息科学与工程这一领域的快速发展。一般性发表的文章提出广泛普遍关心的重大技术进步。短文章提供了一个新的研究成果快速发布通道。综述性文章给与了重要的评论,以及当今发展现状的概括。
8. PAMI
PAMI 是IEEE旗下,模式识别和机器学习领域最重要的学术性汇刊之一。在各种统计中,PAMI被认为有着很强的影响因子和很高的排名。
9. AAAI
国际人工智能协会。前身为美国人工智能协会,目前是一个非盈利的学术研究组织,致力于推动针对智能行为本质的科学研究
10. IJCAI
IJCAI 全称为人工智能国际联合大会(International Joint Conference on Artificial Intelligence),是国际人工智能领域排名第一的学术会议,为 CCF A 类会议。该会议于 1969 年首度在美国华盛顿召开,随着人工智能的热度日益攀升,原本仅在奇数年召开的IJCAI 自 2015 年开始变成每年召开。
11. ACM/MM
ACMMM 是全球多媒体领域的顶级会议,会议每年通过组织大规模图像视频分析、社会媒体研究、多模态人机交互、计算视觉、计算图像等影响多媒体行业的前沿命题竞赛,引领全球新媒体发展方向。
12. TNNLS
从英文翻译而来-IEEE神经网络与学习系统交易是由IEEE计算智能学会出版的月度同行评审科学期刊。它涵盖了神经网络和相关学习系统的理论,设计和应用。
⑺ 轻量化CNN构建总结
感受野(Receptive Field)
感受野指的是卷积神经网络每一层输出的特征图(feature map)上每个像素点映射回输入图像上的区域大小,神经元感受野的范围越大表示其能接触到的原始图像范围就越大,也意味着它能学习更为全局,语义层次更高的特征信息,相反,范围越小则表示其所包含的特征越趋向局部和细节。因此感受野的范围可以用来大致判断每一层的抽象层次,并且我们可以很明显地知道网络越深,神经元的感受野越大。
分辨率(Resolution)
分辨率指的是输入模型的图像尺寸,即长宽大小。通常情况会根据模型下采样次数n和最后一次下采样后feature map的分辨率k×k来决定输入分辨率的大小,即:
从输入r×r到最后一个卷积特征feature map的k×k,整个过程是一个信息逐渐抽象化的过程,即网络学习到的信息逐渐由低级的几何信息转变为高级的语义信息,这个feature map的大小可以是3×3,5×5,7×7,9×9等等,k太大会增加后续的计算量且信息抽象层次不够高,影响网络性能,k太小会造成非常严重的信息丢失,如原始分辨率映射到最后一层的feature map有效区域可能不到一个像素点,使得训练无法收敛。
在ImageNet分类任务中,通常设置的5次下采样,并且考虑到其原始图像大多数在300分辨率左右,所以把最后一个卷积特征大小设定为7×7,将输入尺寸固定为224×224×3。在目标检测任务中,很多采用的是416×416×3的输入尺寸,当然由于很多目标检测模型是全卷积的结构,通常可以使用多尺寸训练的方式,即每次输入只需要保证是32×的图像尺寸大小就行,不固定具体数值。但这种多尺度训练的方式在图像分类当中是不通用的,因为分类模型最后一层是全连接结构,即矩阵乘法,需要固定输入数据的维度。
深度(Depth)
神经网络的深度决定了网络的表达能力,它有两种计算方法,早期的backbone设计都是直接使用卷积层堆叠的方式,它的深度即神经网络的层数,后来的backbone设计采用了更高效的mole(或block)堆叠的方式,每个mole是由多个卷积层组成,它的深度也可以指mole的个数,这种说法在神经架构搜索(NAS)中出现的更为频繁。通常而言网络越深表达能力越强,但深度大于某个值可能会带来相反的效果,所以它的具体设定需要不断调参得到。
宽度(Width)
宽度决定了网络在某一层学到的信息量,但网络的宽度时指的是卷积神经网络中最大的通道数,由卷积核数量最多的层决定。通常的结构设计中卷积核的数量随着层数越来越多的,直到最后一层feature map达到最大,这是因为越到深层,feature map的分辨率越小,所包含的信息越高级,所以需要更多的卷积核来进行学习。通道越多效果越好,但带来的计算量也会大大增加,所以具体设定也是一个调参的过程,并且各层通道数会按照8×的倍数来确定,这样有利于GPU的并行计算。
下采样(Down-Sample)
下采样层有两个作用,一是减少计算量,防止过拟合,二是增大感受野,使得后面的卷积核能够学到更加全局的信息。下采样的设计有两种:
采用stride为2的池化层,如Max-pooling或Average-pooling,目前通常使用Max-pooling,因为它计算简单且最大响应能更好保留纹理特征;
采用stride为2的卷积层,下采样的过程是一个信息损失的过程,而池化层是不可学习的,用stride为2的可学习卷积层来代替pooling可以得到更好的效果,当然同时也增加了一定的计算量。
上采样(Up-Sampling)
在卷积神经网络中,由于输入图像通过卷积神经网络(CNN)提取特征后,输出的尺寸往往会变小,而有时我们需要将图像恢复到原来的尺寸以便进行进一步的计算(如图像的语义分割),这个使图像由小分辨率映射到大分辨率的操作,叫做上采样,它的实现一般有三种方式:
插值,一般使用的是双线性插值,因为效果最好,虽然计算上比其他插值方式复杂,但是相对于卷积计算可以说不值一提;
转置卷积又或是说反卷积,通过对输入feature map间隔填充0,再进行标准的卷积计算,可以使得输出feature map的尺寸比输入更大;
Max Unpooling,在对称的max pooling位置记录最大值的索引位置,然后在unpooling阶段时将对应的值放置到原先最大值位置,其余位置补0;
参数量(Params)
参数量指的网络中可学习变量的数量,包括卷积核的权重weight,批归一化(BN)的缩放系数γ,偏移系数β,有些没有BN的层可能有偏置bias,这些都是可学习的参数 ,即在模型训练开始前被赋予初值,在训练过程根据链式法则中不断迭代更新,整个模型的参数量主要由卷积核的权重weight的数量决定,参数量越大,则该结构对运行平台的内存要求越高,参数量的大小是轻量化网络设计的一个重要评价指标。
计算量(FLOPs)
神经网络的前向推理过程基本上都是乘累加计算,所以它的计算量也是指的前向推理过程中乘加运算的次数,通常用FLOPs来表示,即floating point operations(浮点运算数)。计算量越大,在同一平台上模型运行延时越长,尤其是在移动端/嵌入式这种资源受限的平台上想要达到实时性的要求就必须要求模型的计算量尽可能地低,但这个不是严格成正比关系,也跟具体算子的计算密集程度(即计算时间与IO时间占比)和该算子底层优化的程度有关。
在神经网络架构设计中,标准卷积是最常见的结构,假设其输入feature map的维度是(1, iC, iH, iW),每个卷积核的维度是(1, iC, k, k),一次卷积滤波得到一层feature map的维度为(1,1, oH, oW),一共有oC个卷积核,则输出feature map的维度是(1, oC, oH, oW),计算量为iC×k×k×oC×oH×oW,
深度卷积 (Depthwise Convolution)
深度卷积与标准卷积相比,顾名思义是在深度上做了文章,而这里的深度跟网络的深度无关,它指的通道,标准卷积中每个卷积核都需要与feature map的所有层进行计算,所以每个卷积核的通道数等于输入feature map的通道数,通过设定卷积核的数量可以控制输出feature map的通道数。而深度卷积每个卷积核都是单通道的,维度为(1,1,k,k) ,卷积核的个数为iC,即第i个卷积核与feature map第i个通道进行二维的卷积计算,最后输出维度为(1,iC,oH,oW),它不能改变输出feature map的通道数,所以通常会在深度卷积后面接上一个(oC,iC,1,1)的标准卷积来代替3×3或更大尺寸的标准卷积,总的计算量为iC×k×k×oH×oW+iC×oH×oW×oC,是普通卷积的1/oC+1/(k×k),大大减少了计算量和参数量,又可以达到相同的效果,这种结构被称为深度可分离卷积(Depthwise Separable Convolution),在MobileNet V1被提出,后来渐渐成为轻量化结构设计的标配。
分组卷积 (Group Convolution)
分组卷积最早在AlexNet中出现,当时作者在训练模型时为了减少显存占用而将feature map分组然后给多个GPU进行处理,最后把多个输出进行融合。具体计算过程是,分组卷积首先将输入feature map分成g个组,每个组的大小为(1, iC/g, iH, iW),对应每组中一个卷积核的大小是(1,iC/g,k,k),每组有oC/g个卷积核,所以每组输出feature map的尺寸为(1,oC/g,oH,oW),最终g组输出拼接得到一个(1,oC,oH,oW)的大feature map,总的计算量为iC/g×k×k×oC×oH×oW,是标准卷积的1/g,参数量也是标准卷积的1/g。
空洞卷积 (Dilated Convolution)
空洞卷积是针对图像语义分割问题中下采样会降低图像分辨率、丢失信息而提出的一种卷积思路。通过间隔取值扩大感受野,让原本3x3的卷积核,在相同参数量和计算量下拥有更大的感受野。这里面有个扩张率(dilation rate)的系数,
,标准卷积相当于dilation rate为1的空洞卷积,下图展示的是dilation rate为2的空洞卷积计算过程,可以看出3×3的卷积核可以感知标准的5×5卷积核的范围,还有一种理解思路就是先对3×3的卷积核间隔补0,使它变成5×5的卷积,然后再执行标准卷积的操作。
转置卷积 (Transposed Convolutions)
转置卷积又称反卷积(Deconvolution),它和空洞卷积的思路正好相反,是为上采样而生,也应用于语义分割当中,而且他的计算也和空洞卷积正好相反,先对输入的feature map间隔补0,卷积核不变,然后使用标准的卷积进行计算,得到更大尺寸的feature map。
可变形卷积 (deformable convolution)
以上的卷积计算都是固定的,每次输入不同的图像数据,卷积计算的位置都是完全固定不变,即使是空洞卷积/转置卷积,0填充的位置也都是事先确定的。而可变性卷积是指卷积核上对每一个元素额外增加了一个h和w方向上偏移的参数,然后根据这个偏移在feature map上动态取点来进行卷积计算,这样卷积核就能在训练过程中扩展到很大的范围。而显而易见的是可变性卷积虽然比其他卷积方式更加灵活,可以根据每张输入图片感知不同位置的信息,类似于注意力,从而达到更好的效果,但是它比可行变卷积在增加了很多计算量和实现难度,目前感觉只在GPU上优化的很好,在其他平台上还没有见到部署。
池化(pooling)
池化这个操作比较简单,一般在上采样和下采样的时候用到,没有参数,不可学习,但操作极为简单,和depthwise卷积类似,只是把乘累加操作替换成取最大/取平均操作。
最大池化和平均池化
全局平均池化 全局平均池化的操作是对一个维度为(C,H,W)的feature map,在HW方向整个取平均,然后输出一个长度为C的向量,这个操作一般在分类模型的最后一个feature map之后出现,然后接一个全连接层就可以完成分类结果的输出了。早期的分类模型都是把最后一个feature map直接拉平成C×H×W的向量,然后再接全连接层,但是显然可以看出来这个计算量极大,甚至有的模型最后一个全连接层占了整个模型计算量的50%以上,之后由研究人员发现对这个feature map做一个全局平均池化,然后再加全连接层可以达到相似的效果,且计算量降低到了原来的1/HW。
全连接计算(Full Connected)
这个本质其实就是矩阵乘法,输入一个(B, iC)的数据,权重为(iC, oC),那么输出为(B, oC),在多层感知机和分类模型最后一层常常见到。
Addition / Concatenate分支
Addition和Concatenate分支操作统称为shortcut,如下图所示,操作极为简单。Addition是在ResNet中提出,两个相同维度的feature map相同位置点的值直接相加,得到新的相同维度feature map,这个操作可以融合之前的特征,增加信息的表达,Concatenate操作是在Inception中首次使用,被DenseNet发扬光大,和addition不同的是,它只要求两个feature map的HW相同,通道数可以不同,然后两个feature map在通道上直接拼接,得到一个更大的feature map,它保留了一些原始的特征,增加了特征的数量,使得有效的信息流继续向后传递。
Channel shuffle
channel shuffle是ShuffleNet中首次提出,主要是针对分组卷积中不同组之间信息不流通,对不同组的feature map进行混洗的一个操作,如下图所示,假设原始的feature map维度为(1,9,H,W),被分成了3个组,每个组有三个通道,那么首先将这个feature map进行重塑操作,得到(1,3,3,H,W),然后对中间的两个大小为3的维度进行转置,依然是(1,3,3,H,W),最后将通道拉平,变回(1,9,H,W),就完成了通道混洗,使得不同组的feature map间隔保存,增强了信息的交互。
激活函数的非线性是神经网络发挥作用最重要的因素之一,而对于实际部署,激活函数的实现也是很重要的一个方面,实现的不好对加速效果影响很大。
ReLU系列
这里主要指常用的ReLU,ReLU6和leaky ReLU。ReLU比较好部署,小于0的部分为0,大于0的部分为原始值,只需要判断一下符号位就行;ReLU6与ReLU相比也只是在正向部分多了个阈值,大于6的值等于6,在实现时多了个比较也不算麻烦;而leaky ReLU和ReLU正向部分一样,都是大于0等于原始值,但负向部分却是等于原始值的1/10,浮点运算的话乘个0.1就好了,如果因为量化要实现整数运算,这块可以做个近似,如0.1用13>>7来代替,
Sigmoid系列
早期比较经典的卷积神经网络,如AlexNet,VGG,GoogleNet(或Inception),ResNet,DenseNet都是以提升模型在ImageNet数据集上的分类精度为主了,很少考虑参数量和计算量的问题,他们的主要结构解析起来也比较简单,基本都是由标准卷积(7×7,5×5,3×3和1×1),Pooling和shortcut操作(Addition / Concatenate)构成,而且以3×3及其以上的卷积核为主,通道数也是动辄上千,所以参数量和计算量巨大。后续研究人员慢慢发现两个3×3卷积可以代替一个5×5卷积的效果,三个3×3卷积可以代替一个7×7卷积的效果,大量使用1×1卷积,使用3×3 depthwise conv + pointwise conv(1×1标准卷积)可以代替3×3普通卷积......一系列操作可以减少参数量和计算量
SqueezeNet
SqueezeNet是公认的轻量级模型设计最早期的工作之一,作者提出了三种策略来实现在保持精度的情况下大大减少当时主流模型(以AlexNet为例)的计算量和参数量:
将模型中一部分的3×3卷积用1×1来代替,1×1卷积是3×3参数量和计算量的1/9,所以可以大大减少参数量和计算量;减少3×3卷积的输入通道数,这个可以通过在进入3×3卷积之前加一个1×1卷积来实现通道数量的减少;将下采样层的位置往后推,使得模型可以在更大的feature map上进行更多的学习,这一步虽然会在增加计算量,但是和上面两个策略结合可以在维持模型精度的情况下仍大大减少参数量和计算量;
根据上面的策略,作者提出了fire mole的子结构,如上图所示,然后整个模型由这样的子结构堆叠而成。这个fire mole由squeeze部分和expand部分构成,squeeze部分是1×1的卷积层,而expand部分是1×1的卷积和3×3的卷积拼接起来的,每次feature map输入这个fire mole会在squeeze层降低通道数,然后在expand通道增加通道数,从而在参数量更少的情况下仍然可以得到充分的学习。最后结合一些模型压缩的方法可以使得SqueezeNet在达到AlexNet同等精度的情况下,参数量减少到后者的1/50,计算量减少到后者的1/510。
这篇论文使用大量1×1的卷积核代替3×3卷积,并且利用1×1卷积改变大尺度卷积层输入feature map的通道数从而减少计算量的思想是非常有意义的,后续的很多轻量级网路的论文都沿用了这种套路。
MobileNet系列
MobileNet系列一共有V1,V2和V3三篇论文,简要的讲:
MobileNet V1主要思想是提出了一种新的结构—深度可分离卷积(Depthwise Separable Convolution)来代替标准3×3卷积,从而大大减少模型的参数量和计算量;
MobileNet V2在V1的基础上提出了一种倒置残差的模块,这个模块有三个卷积,第一个部分是一个1×1标准卷积,用来升维,第二个部分是由3×3深度卷积+1×1标准卷积构成的深度分离卷积,用来学习特征和降维,模块的输出和输入再进行一个Addition的操作,由于和ResNet中维度升降方式相反,所以称为倒置残差。中间升维的作用是让深度可分离卷积得到更充分的学习,计算量相对于标准卷积来说也不大,而且这种升降维的方式非常灵活,可以大大减少计算量。本文还从流形学的角度探究了输入深度可分离卷积上一层的ReLU6对信息传递的影响,理论证明去掉上一个1×1标准卷积的ReLU激活函数能更有利于后面的深度可分离卷积对特征的学习。
MobileNet V3感觉相对于前两篇没有那么大的结构创新了,主要思想是神经架构搜索(NAS)和硬件友好结构,总的来看V3的结构是在V2的基础上进行了一些修改,如增加了SE block这种已被提出的注意力机制,激活函数换成了H-swish,last stage减少了几层计算,针对语义分割提出了Lite R-ASPP的head(不在讨论之列)。
ShuffleNet系列 旷视出品的ShuffleNet系列有两篇论文
ShuffleNet V1是在MobileNet V1后MobileNet V2前提出的,说实话结构上和MobileNet V2还挺像,大家可以上下两张图片对比一下。两者都想到了学习ResNet的残差结构,区别在于ShuffleNet V1觉得block当中的1×1标准卷积也非常耗时,于是用1×1的分组卷积外加channel shuffle的操作给替换了,然后MobileNet V2会先升维让深度可分离卷积得到充分的学习再降维回来,ShuffleNet V1中stride为2的模块也有自己的特色,虽然看着MobileNet V2的结构更简洁一些,但ShuffleNet V1创新也是不少,尤其那个用channel shuffle增强不同组之间信息交互的操作
huffleNet V2论文是一篇诚意满满之作,作者通过分析ShuffleNet v1与MobileNet v2这两个移动端网络在GPU/ARM两种平台下的时间消耗分布,看出Conv等计算密集型操作占了绝大多数时间,但其它像Elemwise和IO等内存读写密集型操作也占了相当比例的时间,因此像以往那样仅以FLOPs来作为指导准则来设计CNN网络是不完备的,虽然它可以反映出占大比例时间的Conv操作,但不够准确。于是作者提出了高效网络设计的四个指导原则:
当输入和输出的通道数相同时,conv计算所需的MAC(memory access cost)最小;
大量的分组卷积会增加MAC开销;
网络结构的碎片化会减少其可并行优化的程度,GoogleNet系列和NASNet中很多分支进行不同的卷积/pool计算非常碎片,对硬件运行很不友好;
Element-wise操作不可忽视,对延时影响很大,包括ReLU,Addition,AddBias等,主要是因为这些操作计算与内存访问的占比太小;
基于此,作者提出了ShuffleNet V2的blocks,如下所示,与V1相比,去掉了分组卷积的操作,去掉了Add操作,换成了Concat,stride为2的block的旁路把平均池化换成了深度可分离卷积,为了继续延续channel shuffle的操作,作者在block进去的地方做了个split的操作,最后再concat+channel shuffle,这里是为了替换掉之前的Add,同时也可以减少计算量。
GhostNet
GhostNet也是一篇很有意思且简洁的架构设计的论文,作者在可视化一些训练好的神经网络中间feature map时发现它们通常会包含一些相似且冗余的特征图,使得神经网络能得到更充分的学习。基于这个想法,作者通过设定一系列廉价的线性运算操作来代替部分卷积计算,以此来产生更多的特征图,仅仅这么一个简单的操作就可以减少模型的参数量和计算量,而且在几个视觉公开数据集上取得了很不错的效果,甚至超越了MobileNet V3
总的思路:选定合适结构 + 通道剪枝 + 量化
训练 :ImageNet pretrain model + Data Normalization(统计自己数据集的均值和方差) + Batch Normlization + 大batch size + 一堆数据增强tricks + 尝试各种花里胡哨的loss function和optimizer
https://mp.weixin.qq.com/s/LO1W2saWslf6Ybw_MZAuQQ
⑻ neurocomputing是什么期刊 neurocomputing简述
1、Neurocomputing是Elsevier旗下的SCI期刊。
2、该期刊主要关注领域包括神经网络、机器学习等人工智能领域热门话题。随着人工智能领域越来越受到学术界的关注,该期刊的关注程度和影响力也在逐步提升。
⑼ 机器学习领域有哪些着名的期刊和会议
重要会议和期刊
机器学习
会议
国际机器学习会议(ICML)
国际神经信息处理系统会议(NIPS)
国际学习理论会议(COLT)
欧洲机器学习会议(ECML)
亚洲机器学习会议(ACML)
期刊
Journal of Machine Learning Research
Macine Learning
人工智能
会议
IJCAI
AAAI
期刊
Artificial Intelligence
Journal of Artificial Intelligence Research
数据挖掘
会议
KDD
ICDM
期刊
ACM Transactions on Knowledge Discovery from Data
Data Mining and Knowledge Discovery
计算机视觉与模式识别
会议
CVPR
期刊
IEEE Transactions on Pattern Analysis and Machine Intelligence
神经网络
期刊
Neural Computation
IEEE Transaction on Neural Networks and Learning Systems
国内活动
每两年一届的中国机器学习大会CCML
每年举行的机器学习及其应用研讨会MLA
-----------------------------------------------------
这是从周志华《机器学习》里摘抄的