您当前位置:首页  >  都市言情

重生学神有系统

时间:2023-05-21  来源:  作者:一碗酸梅汤

    也不知道他是真不扛夸,还是玩保护色玩上瘾了

    江寒姑且听之吧,随口附和着。

    金富贵终于认真起来:“小江,就凭咱们的交情,你如果有需要,尽管开口,叔叔只加价3成,每只大约330元,够厚道不”

    每只平均300元,这是市场价,拿货价肯定会便宜不少。

    老金的确很厚道了,别管他实际上加价几成,总之加完价之后,也没有比市场价高多少。

    人家倒腾来倒腾去,也是有人工、运费和损耗的。

    江寒琢磨了一下,一斤约合5000元,一个月200斤,只需要100多万,就能……

    what

    100……万!

    江寒忽然反应过来,感情吃一个月这玩意,就得花出去100万

    自己现在的身家,总共才,还不够吃两年红极参

    好吧,先少买点,吃着看看效果,吃好了再继续买。

    至于钱的事儿,那都是小事儿,不够花就再去赚呗……

    临走,江寒在海龙川买了100只冰岛野生红极参带走。

    这已经是店里当天存货的三分之一。

    这里是销售链末端,一只要卖到800多,使用了vip卡,打了8.5折之后,也将近7万块。

    而且,100只看着不少,能吃几天还真不好说。

    红极参挺娇贵的,怕热怕干,也容易变质。

    虽然现在已经是11月中旬,天气很冷了,但裸运还是有点不够稳妥。

    江寒干脆又花了一点小钱,买了一个简易的保温箱。

    这种箱子内壁有一圈保温苯板,用的时候,先在里面放上冰块,再把海鲜放进去。

    保鲜十个小时左右,基本没啥大问题。

    等回家以后,再去买专业的海参冷藏恒温箱。

    诸事完结,一行人结队出门。

    江寒打开保时捷的后备箱,将保温箱放了进去。

    苗清澜看着好笑:“你这是吃上好了啊还带了这么多回去。”

    江寒嘿嘿一笑:“是啊,以后顿顿拿两个出来,搓一搓强身健体,闻一闻提神醒脑,尝一尝精神百倍,吃下去生津止渴……”

    一通胡扯中,四人上了车。

    回到香格里拉之后,江寒带着保温箱,来到酒店的前台。

    夏雨菲挽着他的胳膊,亦步亦趋。

    “先生,女士,下午好。请问要开房间吗”前台小服务员彬彬有礼地询问。

    江寒微微一笑:“我们是这里的住客,这是房卡。”

    小服务员拿过去看了一眼:“房卡怎么了是不是出问题了”

    江寒摇了摇头:“房卡应该没问题。”

    小服务员有点不解地看着江寒。

    江寒洒脱一笑,解释说:“是这样的,我买了点海鲜,想带回家去,不过屋子里温度高,我怕放坏了,想问问你们,能不能帮忙冷冻一下”

    小服务员想了想,问:“请问是什么海鲜呢我们的冰柜也没剩太多空间,太大的海鲜,比如龙虾、帝王蟹之类的,可能会放不下。”

    江寒理解地一笑,说:“只是一点冰岛红极参而已,个头倒是不算大,就是数量有点多,你帮我看看能不能冻得下。”

    说着打开保温箱,让小服务员看了一眼。

    这些红极参卖相不俗,小服务员也是个有见识的,一看就知道是顶级品。

    这玩意价值不菲,一般人可吃不起。

    别看只有这么一小箱,差不多抵得上她两年的工资!

    有钱人可真够奢侈的,也不知道是哪家的二代

    小服务员默默地想着,又看了一眼夏雨菲。

    不愧是有钱人的女朋友,不但天生丽质、身材完美,身上那些穿戴也绝对不便宜。

    别的不说,光那件限量款的香奈儿羊绒小围巾,只怕自己两年的工资还不见得够!

    小服务员有些艳羡,忍不住心中腹诽,脸上的笑容反而更甜了:“您请稍等,我这就和总厨联系。”

    很快就有了反馈结果。

    厨房答应帮忙保管,但最多只能放两天,因为后天晚上会有大批冻货入库。

    江寒听完服务员的转述,欣然一笑:“我明天就退房了,时间上没有问题。”

    事情谈妥后,小服务员先帮江寒将箱子密封好,然后亲




第254章 数据解析和FCN的拓扑结构
    随后,江寒操作着电脑,心无旁骛,很快就进入了状态。

    夏雨菲也不再来打扰他,拿着手机,半躺在床上,自己上网、听歌。

    江寒将高老师发送来的和下载下来,连同夏雨菲下载的前11个文件,放在了同一个文件夹中。

    然后在第1个文件上点击鼠标右键,选择用winrar解压缩,很快就得到了数据包。

    一共两个文件,n-labels-idx1-ubyte。

    -ubyte都是自定义的文件格式,官网上就有格式说明。

    train-images文件大小超过1g,保存了20万张手写数字的图片信息。

    而train-labels中则存储了20万个标签数据,与train-images一一对应。

    和公开版本的mnist不同,用于比赛的这个手写数字数据集,数据量要大出好几倍。

    kaggle官方将数据集分为两部分,训练集train向参赛选手公开,而测试集test则内部保存。

    比赛的形式很简单,大家根据公开的训练集,编写自己的程序,提交给主办方。

    主办方用不公开的测试集数据,对这些程序逐一进行测试,然后比较它们在测试集上的表现。

    主要指标是识别率,次要指标是识别速度等。

    这是“人工神经网络”在这类竞技场上的初次亮相,江寒可不想铩羽而归。

    事实上,如果想追求更好的成绩,最好的办法,就是弄出卷积神经网络(cnn)来。

    那玩意是图像识别算法的大杀器。

    在“机器学习”这个江湖中,cnn的威力和地位,就相当于武侠世界中的倚天剑、屠龙刀。

    cnn一出,谁与争锋!

    只可惜,这个东西江寒现在还没研究出来。

    现上轿现扎耳朵眼,也来不及了。

    再说,饭要一口口吃,搞研究也得一步步来。

    跨度不能太大喽,免得扯到蛋……

    所以在这次比赛中,江寒最多只能祭出“带隐藏层的全连接神经网络”(fcn)。

    有了这个限制,就好比戴着镣铐跳舞,给比赛平添了不少难度和变数。

    那些发展了几十年的优秀算法,也不见得会输普通的fcn多少。

    所以,现在妄言冠军十拿九稳,还有点为时过早。

    不过,有挑战才更有趣味性嘛,稳赢的战斗打起来有什么意思呢

    江寒根据官网上找到的数据格式说明文档,编写了一个文件解析函数,用来从两个train文件中提取数据。

    train-images-idx3-ubyte的格式挺简单的,从文件头部连续读取4个32位整形数据,就能得到4个参数。

    用来标识文件类型的魔数m、图片数量n、每张图片的高度h和宽度w。

    从偏移0016开始,保存的都是图片的像素数据。

    颜色深度是8位,取值范围0~255,代表着256级灰度信息,每个像素用一个字节来保存。

    然后,从文件头中可以得知,每张图片的分辨率都是。

    这样每张图片就需要784个字节来存储。

    很容易就能计算出每张图片的起始地址,从而实现随机读取。

    如果连续读取,那就更简单了,只需要每次读取784个字节,一共读取n次,就能恰好读取完整个文件。

    需要注意的是,图像数据的像素值,在文件中存储类型为unsignedchar型,对应的format格式为b。

    所以在python程序中,在(取值为784)这个参数的后面,还要加上b参数,这样才能读取一整张图片的全部像素。

    如果忘了加b,则只能读取一个像素……

    train-labels-idx1-ubyte格式更加简单。

    前8个字节是两个32位整形,分别保存了魔数和图片数量,从偏移0009开始,就是unsignedbyte类型的标签数据了。

    每个字节保存一张图片的标签,取值范围0~9。

    江寒很快就将标签数据也解析了出来。

    接下来,用matplot的绘图功能,将读取出来的手写数字图片,绘制到屏幕上。

    然后再将对应的标签数据,也打印到输出窗口,两者一比较,就能很轻松地检验解析函数是否有问题。

    将解析函数调试通过后,就可以继续往下进行了。

    首先要将图片的像素信息压缩一下,二值化或者归一化,以提高运算速度,节省存贮空间。

    像素原本的取值范围是0255。

    二值化就是将大于阈值(通常设为中间值127)的数值看做1,否则看做0,这样图片数据就转换成了由0或者1组成的阵列。

    归一化也比较简单,只需要将每个像素的取值除以最大值255,那么每个像素的取值空间,就变成了介于0和1之间的浮点数。

    两种手段各有利弊,江寒决定每种都试一下,看看在实践中,哪个表现更好一些。

    由于江寒使用的是全连接网络,而不是卷积神经网络,所以还要将2维的图片,转换成1维的向量。

    这个步骤非常简单,将二维的图片像素信息,一行接一行按顺序存入一维数组就行。

    事实上,在解析数据文件的时候,已经顺便完成了这一步,所以并不需要额外的操作。



第255章 调整超参数,以及防止过拟合
    江寒在这个fcn网络中,实现了一种新的训练策略,也就是迷你批次训练法。

    简单地说,就是每次在18万个训练数据中,随机抽取若干条数据,组成一个小包,作为训练的样本。

    然后,若干个小包组成一个完整的批次,训练若干个批次后,训练过程就宣告结束。

    显而易见,相较于一次训练全部数据,这样做既节省了资源,又能提高训练速度。

    这里涉及到3个超参数:每个小包的数据条数n,每批次包含的小包数量m,以及训练的总批次s。

    神经网络里,每个神经元的偏置和权重,都是在训练中获得的,称作参数。

    而学习速率、隐藏层神经元的数量,隐藏层的层数,权重初始化方案的选择、激活函数的选择、损失函数的选择……

    这些都是超参数,必须在神经网络训练之前指定。

    但由于缺乏理论指导,没有人知道这些超参数,到底如何选取才是最合理的。

    所以在实践中,往往先根据经验,暂时预设一个差不多的,然后在训练的过程中,根据反馈结果,慢慢进行调整。

    打造神经网络的过程中,最困难的就是超参数的选择,这往往意味着巨大的工作量。

    每次调整超参数,都要重新训练一次神经网络,才能知道这次调整是否成功。

    更麻烦的是,超参数之间并不是相互独立的,经常会调整了某一个,就会影响到另一个。

    极端情况下,就会像多米诺骨牌一样,一个影响一个,最后导致全盘重来。

    在原来的世界,机器学习算法工程师们经常为此挠破了头皮。

    所以他们又自嘲或者被戏称为“调参狗”……

    这个问题的解决,往往取决于网络设计者的经验。

    一名合格的调参狗……咳,算法工程师,往往能凭经验和直觉,大体确定超参数的取值范围,然后根据实际情况逐步优化,直到取得近似最优解。

    江寒当然算不上经验丰富,但前世玩神经网络的时候,也接触过不少讨论超参数选择的文章。

    以权重初始化举例,就有不少可行的方案:初始化为0值、随机初始化、xavier初始化、he方法等。

    其中,xavier初始化又包含许多种做法。

    比如将权重w的随机初始化区间,设为正负sqrt)之间。

    其中,n0是上一层神经元的个数,n1是本层神经元的个数。

    这是一个经验公式,很多时候都很好用,江寒还记得这个公式。
1...96979899100...197
猜你喜欢