您当前位置:首页  >  都市言情

永不下车

时间:2023-05-22  来源:  作者:阳电

    撇开极小概率的宇宙射线、本底瑕疵等因素,的确,人类制造出的计算机,可以认为具有100的可靠性,如果最终计算结果与事实不符,绝对是程序的设计、或者初始条件有问题,最终一定会追溯到人的身上。

    计算一百次加法,计算机不会错,人也不会。

    但是计算一百亿次加法,计算机不出错很寻常,人呢,根本就不可能一个不拉的全做对。

    “人脑迟早会出错”的现象,长期以来,在计算机的永不出错面前自惭形秽,自愧不如,但反映到另一个层面,正是这种模拟式、并行式生化系统的“出错”,才让探索性、创造性的科学研究成为可能。

    从已知,尝试推断未知,人类的一切科研活动,本质上都未脱出这样的形式。

    而这正是计算机,至少到目前为止的计算机,始终做不到的。

    计算机能做的工作,譬如说,计算,总归是一项人类交托的任务,是先由人来判断该问题是否有解,如果有,具体的算法是什么,然后将数据与算法交给计算机的逻辑电路去处理,所得结果也要由人去理解,阐述。

    即便像aiasg这样的系统,能自主生成程序,实质上,也不过是将一些类似的已有成果排列组合,解决那些早已被人解决过的问题。

    路,还是人走出来,计算机只不过是更快的再走一遍,两遍,三遍;

    就算再走无数遍,仍没有任何创新。

    取而代之的崭新思路,“敛散算法”,则是根据一定的初始条件,在算法的每一步,尝试尽可能多的展开分支,引入额外的发散量,当然这种做法,很快就会让计算量暴增,所以还需要进行“收敛”,通过同样包含随机性的判据,迅速“砍”掉大量无意义的分支。

    表面上看,这一先发散、后收敛的做法,与向系统中引入随机变量,并无本质区别,实质上也可以粗糙的这样认为。

    区别则在于,算法步骤中引入的变量,并非随机数,而是来自于初始状态库的一切既有知识。

    那么就是在穷举吗,似乎是,只不过为了应对完全穷举的计算量暴涨,而必须在每一步进行判断、预计与猜测,将无意义的分支完全消除。

    具体到某一个分支,其是否有意义,判断起来也并不容易,此外还要引入额外的随机性,将某些“看起来”无意义的分支,移入另一个线程继续追踪。

    这一做法,能避免收敛策略错杀那些切实可行、却不符合既有知识体系的分支。

    “敛散策略”的核心思想,是建立在传统计算机的运行之上,此外再加入“关联扰动”与“随机性”,利用这种方式,尝试让ai具备创造性、探索性思维。

    这种体系,一开始在验证可行性时,需要的资源量并不太大。

    但可想而知,倘若投入到实际运行中,这样的系统必然耗费巨大,哪怕只用来解决一些粗浅的问题,都需要比传统计算机更多的算力,当然,倘若其真能具备“强人工智能”的特质,巨大的投入也是值得的。

    “强人工智能”的第一台实验机,所需算力,设计指标大约在1fos。

    以今天的计算机技术水平,这种规模的算力并不难,不过,1fos算力能支持的思维、认知,可以达到多高的水平,仅从理论模型出发并无从得知,一切还要在初号机完成并上线运转一段时间后,才能得出结论。

    按项目组的计划,从初号机开始,“强人工智能”就应该具备一定的自我演化能力,这种特质,也更接近于人脑的状态。

    那么,假以时日,这样的机器能演化到什么状态,就更需要时间来给出答案。

    自从掌控一个大区,直到今天,1495年才启动“强人工智能”的研发工作,这种进度怎么说也并不算快。

    但在方然看来,情况还好,他并不认为所有大区的管理员都和自己一样,能够洞悉“强ai”定义的内在矛盾,继而认识到,以现有的科学技术水平,人类其实是可以研发出某种程度的自主ai,进而窥破“思维”、“认知”活动的奥秘。




第四九六章 学数
    涉猎这一领域,成败,并不在于何时开始,而在于能否想到这一步。

    盛夏时节,眼见就要过去,东北太平洋大区的广袤土地上,第一缕秋风带来丝丝缕缕的凉意,ne791的地下世界,扩建工程紧锣密鼓,在初号机测试进行的同时,更大规模的“强人工智能”部署用基础设施,也在紧张施工中。

    研究划时代的“强人工智能”,单论项目本身,已经是一项前所未有的巨大成就。

    但方然的动机,据实而言,并不是简单的探寻科学技术之未知,他希望拥有的“强ai”,能力至少也要在最顶尖的人类科学家之上。

    否则,从促进科技发展的角度,庸碌的“强ai”就没有意义,单纯研究意识、思维与认知,进而用计算机人工智能的方式将其复现,便会成为旧时代的诸多烧钱工程,徒然耗费资源而得不到即期的收益。

    一切科学技术的研究,必须要有收益,否则,ne便无法自残酷的竞争中胜出。

    即便如此,一开始研发“强人工智能”,目的仍然是验证总体架构的可用性,出于种种考虑,ne791地下世界里的初号机,指标要求一点也不高。

    采纳莱斯利兰伯特的意见,方然为初号机选定的研究领域,是数学。

    遵循从易到难的原则,考虑到强人工智能的一切初始条件,只能来自于人,而人类的科学技术体系又未必完全正确、完全自洽,为避免不必要的干扰和疏漏,“数学”这样一个最客观的学科,是很合理的选择。

    总之,第一个“强人工智能”的目标,是探索数学。

    但依靠很原始的强ai,能否去探索前沿,解决大量悬而未决的问题呢,当然不可能,没学会爬就像跑,只会摔一个大跟头。

    研发组的具体规划,是给予初号机的数据库一份简单的“已有知识列表”,按fsci体系的规范要求,录入基础知识条目,而后启动该系统,观察、测度系统能否从这些简单的已有知识出发,推导出其自身并不知晓的数学定律。

    即便推导出的结果,极大可能,是人类已经掌握、因此而毫无价值的东西。

    但用来验证系统的可用性,这却是一个可行之策。

    不仅如此,观察系统的运行,借助asa这样的人工智能进行追踪,还有望解析“强ai”的运作机理,甚至搞清楚其自主意识的根源。

    数据库,思维核心,具备这两大部分的系统,原则上便是一个“强人工智能”。

    不过,早在项目的规划之初,方然就意识到,仅有这两部分所组成的“强ai”,能力注定十分有限,直白的讲,其理论上的最高成就,仅仅局限于现有基础理论的延拓、应用,而绝不可能在现有基础理论的基础上更进一步。

    原因很简单,不论是人,还是人工智能,脱离客观世界、闭门造车,都不可能凭空推动科学技术的进步。

    理论,对与不对,要由实践来检验。

    没有后面的这一步,再华丽的理论,也只能永远停留在空中楼阁的状态,永远无法坐实,永远无法成为新的出发点。

    正是基于这种考虑,在规划ai整体框架时,自己才会有意略过“实践”这一块。

    只要强人工智能没有这一模块,其全部活动,便只能在现有框架的范畴内进行,即便如兰伯特先生所言,随时间流逝,其自身状态越来越未可知,风险持续累计,也不至于越过虚幻与现实的界限,轻易对人类、也即自己构成威胁。

    工程进度有条不紊,到1495年深秋,数据思维实践,强人工智能的三大模块中,前两部分已大致完成。

    至于第三部分,研发,也在持续进行中,只不过一时半刻还用不上。

    不仅如此,为防范“强人工智能”失控的风险,思虑再三,方然还是在一开始就启动了自称为“连锁安全机制”的并行研究,除ne791外,还指示另外两处研究机构进行“强ai”的研究。

    目的,不是要多个方案、优中选优,而是让目标不同的ai彼此制衡。

    791研究机构里的“强ai”,初号机的目标,一开始被指定为“数学基础理论研究”,后续目标则是“科学技术的创造性、探索性研究”。

    787研究机构的“强ai”,目标则是“防范自主系统的越权企图”,简单说来,这一强人工智能要去解决的问题,是利用自身的思维、认知能力,全力防范一个“自主系统”的独走,给出反制的措施。

    最后,还有一个830研究机构,同样进行“强ai”的研发,初号机的目标是“安保系统权限与行为审查”。

    不消说,这一强ai要盯防的,正是ne787正在研究的强人工智能。

    一环扣一环,三大研究机构的开发团队,实力大致相若,获得的资源也差不多一样,“以人工智能提防人工智能”的策略,则在逻辑上确保了项目整体的安全性。

    原因很简单,倘若ne787的“监控强ai之ai”研发不力,无法获得具有自主思维、能够主动采取措施限制目标行为的“强人工智能”,最有可能的原因,只能是这一设想本身有问题,以人类现有的技术水平,根本无法创造出具有自主思维的ai。

    换句话说,如果以东北太平洋大区的技术水平,能创造出“强人工智能”,那么也就应该能创造出监控这种ai的“监控型强ai”。

    至于万一的概率,监控型ai,也会有失控独走的风险,

    则由ne830的“监控监控型强ai之ai”,来作为最后一道安全屏障。

    一环扣一环,以人工智能盯防人工智能,这种策略要想做到万无一失,理论上需要将链条延伸到无穷远,当然这不可能,方然能做到的,也不过是权衡利弊,在资源消耗与预期收益之间取得暂时的平衡。

    提前部署了这一切,项目启动后,方然时常抽时间浏览报告,了解“强人工智能”的研发情况。

    史上第一次,尝试打破人类对智力的垄断,对可能遇到的困难,方然已经有一些心理准备,所以,当各研发组报告进展顺利,预计将在两、三年内得到成果时,他着实挺意外。



第四九七章 调试
    曾经被学术界认为高不可攀的“强人工智能”,现如今,只需一个大区的少量经费、资源,就能研发出来,这的确令人意外。

    但想了想,方然也没有十分惊讶,毕竟自己想要研发的“强ai”,和旧时代学术界心心念念的、那种能通过“图灵测试”的强人工智能,根本就不是一回事,两者的研发难度大有区别,也是很寻常的。

    另一方面,既然两三年就能有成果,对“强ai初号机”的能力,也不能期望太高。

    不同于旧时代的“图灵测试”,今天的强人工智能之判据,着眼于本质、而非表象,ne791研发的初号机,哪怕其行为特质,以图灵测试的判定就是一个智障,只要表征出可信的自主思维特征,就可以认为研发成功。

    一旦研发出基础架构,原则上,要实现更强功能的“强人工智能”,便只需提升其规模。

    与人类受制于大脑体积、结构的困窘不同,计算机系统,目前还没有碰到基本架构与运行原理决定的性能天花板,新一代超级计算机的计算效率,虽然只有3540,相比上一代超算,怎么说也还在继续增长。

    而人脑,一百四十亿神经元的组织体,重量一公斤有余,物理上的限制在现阶段几乎无法突破。

    有些研究甚至认为,目前的人脑已经是有机物细胞器官架构的最高水平,即便再怎样演化,譬如增加神经元的数量提升规模,提升单个神经元的体积提高信噪比,填充更多的脑白质拓展带宽,都会因产生的副作用而得不偿失。

    这些研究,在asa的数据库里都有,方然也读过一些,只是暂时还未能确证。

    但现在这一切已不重要,不论人脑是否还有演进的可能,短时间内,也根本无法获得飞跃性的提升,根本无法追赶电子计算机的脚步。

    只要得到一台切实可用的“强人工智能”,只要肯投入资源,便能得到更强大的“强ai”。

    尽管这种投入,费效比想必会是一条斜率不断接近于10的曲线,随投入的翻番,所获得的性能则距离翻一番越来越远。

    总体看来,还是会比豢养人类研究者更经济。

    ai与人类研究者,谁更经济,这是方然一早就判明了的,专家组的意见也大致如此。

    即便按目前的粗略预计,要具备与科学家相近的智力水平,整个“强人工智能”系统的造价与运行费用必然十分高昂,甚至会大大超出培养、雇佣一批科学家的总消耗,投入产出比也会很难看。

    但换一个角度,一个人的智力再怎样高超,将一群人组织起来,从事研究,则所有研究者都会被“信息交流效率低下”所困扰。

    人类拥有的交流手段,视觉,听觉,触觉,嗅觉,味觉,除此之外,别无其他。

    而这些手段,就算其中效率最高的视觉,传递讯息的能力也一点都不强,即便借助学术论文、科研资料,研究者之间的沟通效率,也很难超过10100bs。

    随着组织规模的扩大,人与人之间,联系愈加繁杂而紧密,这一问题便格外突出。

    而利用fsci体系的计算机系统,则高效得多,哪怕微型计算机之间,彼此间的信息互联也能达到gbs、甚至成百上千gbs的速率。

    通讯的优势,在一定系统规模的支持下,可以弥补节点的能力。

    继而,在计算机、人工智能领域,创造出智力超越一个人、甚至一群人的系统,也会比想象中来的更容易。

    不知不觉,时间来到1495年深冬,ne791地下建筑内的“强ai初号机”完成初步配置,各模块调试正常,等待阿达民审核一系列初始配置,将数据装入系统,就可以上电进行第一次持续联调。

    只是1fos基础算力,对应的智力,可以达到什么样的水平呢。

    这一点,在研发时进行过几轮仿真、估算,事到如今,莱斯利兰伯特还是说不准,毕竟置信区间跨越几个量级,这种预测数字几乎没有意义。

    故,在设置初号机的背景知识库时,研究人员的设置,是谨慎的fsci基础库数学部分的信息,这些信息都是年头已久、绝对正确的概念、公理、定理等,难度则设置在“小学低年级”的水准。

    难度水准仅供参考,事实上,研发组中的数学家,会同莱斯利兰伯特一起研讨,仍无法判断给“强ai初号机”的数据,相当于人类的什么水平。

    反正一开始的强人工智能,无须与人类比较,只要有自我思维能力即可。

    贯注数据,检查所有模块正常,西历1495年12月的某一天,强人工智能初号机进入第一次没有明确目标的全系统联调,算力1fos的巨型机开始全速运转,监控系统抽取的数据,显示ai的逻辑内核运行基本正常。

    基本正常,放在传统的计算机领域,这是一个很模棱两可、似不应出现的词。
1...138139140141142...212
猜你喜欢