重生学神有系统
时间:2023-05-21 来源: 作者:一碗酸梅汤
李东等连连点头。
江寒去好好洗了个澡,换了身衣服,等到下午一点多,就去班级找到老宋。
老宋听完江寒的述说,并没有为难他,叮嘱他好好休养,还带他到教务处,开了个长期病假的条子。
江寒拿到病假条,又去寝室楼值班室,找到老李,做了个备案。
这样,他白天晚上随时都可以出入寝室楼。
然后,江寒打了个出租车,直奔“绿树家园”小区。
从夏如虹那里借来的车库,就在那里。
第157章 找个清静的地方
“旁边这个车库是你家的”江寒问。
“对啊……进屋坐会儿”张大麻子热情地招呼着,“我姓张,你叫我老张或者张大麻子就行……”
江寒摇头:“下次吧,我着急回去。”
又说了几句后,江寒就和张大麻子告别。
为什么这么不给面子
张大麻子身后的车库里,隐隐传来“吃”、“杠”、“碰”的声音……
可能是个棋牌室,江寒对这个一向敬而远之。
以后自己和这位邻居,维持表面上的礼貌即可,无需深交。
走出小区,再次打车回学校。
由于是上课时间,室友们都不在,寝室里十分清净,
江寒抓紧时间,把准备好的8篇“感知机”应用方面的论文,重新整理一遍,然后一一投递了出去。
这些论文水分十分大,稍微有点档次的刊物,就不一定看得上。
所以江寒选择投稿期刊的时候,只看过稿率和审稿速度,什么期刊知名度、影响因子之类的一概不管。
反正即使发表在最烂的sci上,也至少奖励一个学术点。
最后江寒把其中5篇投向了国内的sci期刊,另外3篇则投向了国外边角小刊物,以往听都没听说过的那种。
只要耐心等上个把月,这8篇论文中的大多数,都应该能得到反馈了。
能过稿几篇不好说,但即使8篇全部顺利登刊,也不过才8个学术点。
距离偿清14点的欠款,差得还有点远。
所以接下来还得多水一些论文。
江寒将下一阶段的研究课题,列了一张表格。
打算在接下来一段时间里,全力以赴,逐一攻克。
这些课题包括:“自组织神经网络”、adaline网络、最小均方滤波器、hopfield神经网络、二进制联想网络学习矩阵……
林林总总十几项,都是在另一个世界,曾经出现过的理论。
当然,并不是每一样东西,都具有实践上的价值。
其中相当一部分,很可能只会昙花一现,成为其他理论的垫脚石。
但江寒只想要学术点,其他的东西根本无所谓。
所以,哪怕明知道这些东西价值不大,即使发表了,也可能很快就会被淘汰,还是决定花费一定的时间,去好好研究一下。
毕竟这些东西理论基础比较完备,研究起来比较有可操作性。
不像有些先进技术,存在着相当严重的代差问题。
比如支持向量机、流形学习等等,虽然很好很强大,但以目前的理论基础和数学能力,根本就弄不出来……
科研就是这样,并不是所有的努力都有回报,也不是所有的成果都有价值。
但哪怕是错误的路线,也需要有人去排除……
当然,其中也有一些理论,将会对“人工神经网络”的发展,起到极其重要的推动作用。
比如反向传播技术……
等到bp技术横空出世,整个“人工神经网络”的大厦,就彻底完成了奠基工作。
从那之后,机器学习各条路线的“武林争霸”中,“人工神经网络”就会正式粉墨登场,然后异军突起,直至一骑绝尘……
江寒搞定以上工作后不久,室友们也放学了,大家一起去食堂,吃了顿晚餐。
再次回到寝室后。
考虑到室友需要休息,江寒也不想闲聊分心,于是带上笔记本和参考书等出门。
先找个清静的地方,暂时住几天,等车库弄好了再搬进去。
什么地方比较清静呢
江寒马上就想到了酒店。
好吧,那就随便找个酒店,条件什么的都无所谓,最好离学校近一点,随便凑合几天算了。
可惜人算不如天算,学校附近的酒店、小旅馆,居然全都爆满。
青年旅社倒是有地方,但他不想跟别人挤,再说也不方便搞研究。
当下拿出手机,打开携程app,搜索一番后,定了一间标间。
酒店的名字叫“星河”,三星级,在松江只算中档,价格不算高,388元一晚。
江寒打车前往,很快到了地方。
进入大厅后,直接去前台办理入住手续。
负责前台接待的是两名女性。
比较年轻的一个,只有二十多岁,颜值在线,身材苗条。
&
第158章 查岗?
如果说“感知机”是单个的神经元,那么“多层感知机”就是将分散的神经元,连接成了网络。
在输入层和输出层之间,再加入若干层,每层若干个神经元。
然后每一层的每个神经元,与下一层的每个神经元,都通过权重参数建立起连接……
层与层之间,完全连接。
也就是说,第i层的任意一个神经元,一定与第i+1层的任意一个神经元相连。
这就是多层感知机,简称mlp。
但仅仅简单组合在一起,还不算真正的“人工神经网络”,必须对“感知机”的基本结构,做出一定的改进。
首先,必须加入隐藏层,以增强模型的表达能力。
隐藏层可以有多层,层数越多,表达能力越强,但与此同时,也会增加模型的复杂度,导致计算量急遽增长。
其次,输出层的神经元允许拥有多个输出。
这样模型就可以灵活地应用于各种分类回归,以及其他的机器学习领域,比如降维、聚类等。
此外,还要对激活函数做出扩展……
前一篇“感知机”论文中,主要使用的是阶跃函数sign,虽然简单易用,但是处理能力有限。
因此神经网络的激活函数,一般使用其他的非线性函数。
备选的函数有很多:sigmoid函数,tanh函数,relu函数……
江寒逐一进行了分析。
通过使用多种性能各异的激活函数,可以进一步增强神经网络的表达能力。
对于二分类问题,只需要一个输出神经元就够了。
使用sigmoid作为激活函数,来输出一个0到1之间的数值,用来表示结果为1的概率。
对于多类分类问题,一般在输出层中,安排多个神经元,每个分类一个。
然后用softmax函数来预测每个分类的概率……
描述完结构之后,就可以讨论一下“多层感知机”的训练了。
首先是mlp的训练中,经典的前向传播算法。
顾名思义,前向传播就是从输入层开始,逐层计算加权和,直到算出输出值。
每调整一次参数值,就需要重头到尾重新计算一次。
这样运算量是非常大的,如果没有强大的硬件基础,根本无法支撑这种强度的训练。
好在现在已经是2012年,计算机性能已经足够强悍。
前向传播无疑是符合直觉的,缺陷就是运算量很大,训练起来效率比较差。
与“感知机”的训练相比,mlp的训练需要引入损失函数和梯度的概念。
神经网络的训练,本质上是损失函数最小化的过程。
损失函数有许多种选择,经典的方法有均方误差、交叉熵误差等,各有特性和利弊。
整个训练过程是很清晰的。
先随机初始化各层的权重和偏置,再以损失函数为指针,通过数值微分求偏导的办法,来计算各个参数的梯度。
然后沿着梯度方向,以预设的学习率,逐步调整权重和偏置,就能求得最优化的模型……
写完这些就足够了,再多的内容,可以安排在下一篇文章里。
不过,江寒想了想,觉得这篇论文的内容,还是有点过于充实。
仔细琢磨了一下,干脆将其一分为二。
多层感知机的结构和前向传播的概述部分,单独成篇。
神经网络训练中,关于激活函数和损失函数讨论的部分,再来一篇。
然后分开投稿,这样不就可以多拿1个学术点了
反正学术点又不看字数……
当然,这两篇论文都必须以前一篇的感知机为基础,分别进行阐述,而不能互为前提、互相引用。
这样就需要多动点脑筋了。
江寒又花了一个多小时,才将它们全都补充完整,并丰满起来。
接下来校队、润色一番后,翻译成英文,转换pdf……
投稿的时候,江寒仔细琢磨了一下,在三区里选了两家方向对口的期刊,投了出去。
没有选择影响因子更大的二区或一区期刊。
因为二区以上的期刊,虽然影响因子更高,发表后收获的学术点也多。
但发表难度太大,万一被打回来,再重新投递……
时间耽搁不起。
要知道,江寒只有三个月的时间。
一系列操作下来,差不多就到了10点半。
江寒脱掉外衣,去洗了个澡,然后换上睡衣。
忙了一下午带一晚上,直到这时才闲了下来。
然后他就想起了夏雨菲,也不知道她下午过得好不好,开不开心
一股深切的思念,从心底涌出。
拿过手机,指纹解锁。
这才发现,有好几条未读微信。
夏雨菲发来的。
&
第159章 想怎么看,就怎么看?
视频接通,夏雨菲毫无瑕疵的俏脸,出现在了镜头中。
像素挺高,纤毫可见。
看背景,她正在自己的房间。
夏雨菲穿着一件十分少女风的卡通睡衣,看起来有点可爱。
由于前置摄像头视野的问题,只能看到她头肩以上的部位。
“酒店的环境怎么样”夏雨菲甜甜地笑着。
“还行。”江寒笑着回答。
“你下地转一圈,让我也欣赏一下呗还从来没来过这一家呢……”夏雨菲忽闪着大眼睛。
江寒也眨了眨眼。
果然是想查岗……
那你就直说呗!扯什么信号不好
江寒起身下地,举着手机到处晃了一圈。
尤其是窗帘后、阳台、卫生间、衣柜里……
整个房间一处不落,逐一展示出来。
最后重新回到床上。
江寒看着镜头里的夏雨菲,笑嘻嘻地说:“看到了吧,我真的在酒店,也没藏着什么人。”
夏雨菲张了张嘴,半晌后才叹了口气:“你真聪明!什么都瞒不过你……”
江寒呵呵一笑:“那你现在放心了没有呢”
夏雨菲有点不好意思:“其实我……就是很想你了,很想看看你的样子……”
顿了顿,“然后我……刚看过一本书,里面说……”
江寒心领神会。
这丫头遇上自己之前,根本没谈过恋爱,还是个0经验值的新手号。
可能在边看“教程”边实践
猜你喜欢