永不下车
时间:2023-05-22 来源: 作者:阳电
但不管怎么说,自主式科研ai能否推进科技,那毕竟也是一个很长远的问题,眼前的危机,才更值得警惕
出于种种考虑,研发具有创造性、探索性思维的人工智能,ai一旦这样的被研究出来,阿达民先生,您是否能确定,凭现有的科技、武器与战力水准,自己必然能掌控这ai,而不会被自主决策的ai所消灭”
“ai的反叛,是的,这是一个想当棘手的问题,但,可以提前采取”
“没有什么提前采取
恰恰相反,一旦具有超越人类的科研能力,这样的ai被制造出来,其行为与动机,就注定会脱离人类的掌控,这并非安保手段、武力强弱的定量问题,而是由双方智力差距所决定的,无解的困局。
试想一下,阿达民先生,您之所以拍板这样宏大的计划,目标,正如刚才亲口所言,绝不是为了获得能够与人相比拟的那种ai。
投入大量资源,消耗时间,只为了得到一些模仿的产物,根本得不偿失。
此类研究的根本动机,显而易见,是期望获得能力超越人类、甚至远远超越人类的强ai,目的,并非研究什么自我意识、或者要创造出这样的自我意识,而是要在人类专有的科学技术研究领域,制造出一个碾压现今所有人的利维坦。
这样的东西,一旦真被研究出来,凭你我这种人类的头脑、意识,恐怕连预测其行为、判断其动机都做不到;
有怎么能奢望,凭借一些儿戏般的安保手段,便能将其禁锢起来,为己所用。”
滔滔不绝,莱斯利兰伯特的一番直抒胸臆,脸都有些涨红。
至于他要表达的意思,无需聚精会神,方然也能明白,事实上,自从掌控ne大区之初,自己便一直在琢磨事关重大的难题。
创造性思维,具有这种特质的ai,先不论通过什么样的手段去研发,一旦成为现实,那么,除非这种ai的能力与人类相仿,一旦其能力远超人类,再加上其自身“思维”、“决策”的无可预测,人类就会有灭顶之灾。
这种风险,只要着手开展此类研究,就一定会出现。
不仅必定出现,应对之策,事实上也是不存在的,并不会因为一些莫须有的“拉电闸”、“核弹爆轰”的手段而改变。
一切的缘由,完全在于ai的“自主意识”,其危害之大,只要设想一个能力超卓、却与同类决裂的人类,能对人类世界造成多么大的破坏,然后将这种威胁放大若干倍,便不难想象到时的情形。
面对特立独行、完全漠视人类利益的威胁
一切应对之策,在强ai的眼里都会十分可笑。
第四九一章 自缚
到那时,脱离了这一躯壳的人,还能算是传统的“人类”、甚至于“人”么。
想法有点脱离实际,现在,只能借助“替身机器”去远程操控生化仿真人,其实这一过程也和完全的机械化差不多,区别只在于,人的意识栖居之所,神经系统,仍然依赖着传统的肉身才能存活。
倘若有这样的办法,让身体永存,每一天都借助“替身机器”在这世界上活动,甚至更进一步,用vr徜徉于虚拟世界,是不是就更接近于永生。
在一边看兰伯特吃饭,诸多想法一晃而过,方然借助虚拟显示查看资料,整理思路。
而看上去有一点心事重重的莱斯利兰伯特,则有点食不知味,踌躇片刻后,还是有点沙哑的开口。
“阿达民先生,说真的,对您刚才所说的一切,我们的确未曾严肃认真的考虑过。
但,这方面的辩论且不谈,即便ai的自我意识,会和遍布历史痕迹的人类之自我意识不一样,本质上就大有区别,但,失控的风险仍会存在
一个ai,终日沉浸于科学研究,以探寻未知、探索奥秘为至高目标,作为创造者,人类或许能将ai塑造成这般模样。
但,说到这里,您想必也能明白,有能力从事创造性、探索性科学研究的ai,其基础架构与运行机制,必定与现有的一切ai大有区别,本质上讲,其必定会有强大的自我重构、自我完善能力,甚至还可以自我演化、自我推进。
这样的ai,其核心的自我意识部分,假使有的话,很快就会完全脱离人类的控制,即便对其施加影响也十分困难
总而言之,一旦启动该系统,接下来我们能做的就很有限,差不多就是听天由命。
随着机器小时的积累,对人而言,ai的当前运行状态,及其自身所处的状态,会越来越模糊,越来越不可知;
这,难道不是一种潜在的、极其危险的情形吗。”
ai的失控风险,乍一听来,似乎是科幻作品的滥情节,方然却很专注,他知道兰伯特先生想表达的并非那种意思。
“人工智能觉醒,继而与人开战”,从终结者到黑客帝国的火爆场景观赏性十足,却经不起推敲除非以毁灭人类为目标,专门开发这样的ai,否则人工智能并不会变成一个失控的精神病,这才是学术界公认的观点。
但是,即便以纯粹的研发、探索等目标,设计并制造出这样的ai,假以时日,会不会性情大变,甚至认为其环境的一部分人类,是其实现目标的障碍;
在进行相关研究时,这,是一个必须考虑的原则性问题。
站在莱斯利兰伯特的立场,阿达民,既然专门找自己谈话,吩咐研发任务,想必一定全面的权衡过利弊、分析过风险。
然而听到阿达民的话,他却有一点意外
“是的,兰伯特先生,这的确是一种莫大的风险。”
“那我们”
什么意思,您到底要不要吩咐我们,进行这些研究;
或者,这只是一次闲极无聊的纯粹理论研讨、空对空的畅想,兰伯特有点迷惑。
而这时的方然,虽然有点饿,还是挺少见的决定讲完这一席话再退出连线,毕竟,他认为接下来的话,对兰伯特和他的同僚很重要
“风险,自始至终,必定是会有的。
如果考虑到ai的自我演化,是从事科学技术研究的一种必备要素,一旦创造出这种ai,接下来,人类就只能在旁观望、听天由命,这说法也没有什么原则性的错误。
但接下来,意识到这种莫大的风险,人类又当何去何从
为了规避风险,而禁止一切与强ai相关的研究,正如我之前所做的那样,是吗。”
“不,这不一样,出发点和动机并不一样。”
“动机并不一样,这我承认;
但是讨论这种问题时,动机,根本就不重要。
回到这一根本性的问题,兰伯特先生,听完这些话,您是否仍坚持,人类应该自缚手脚、禁止进行任何创造性、探索性人工智能的研究
那么,这里必须指出,禁止强ai研究的后果会是什么
当今时代的基础科学,老生常谈,几十年来恍若一潭死水,倘若我们瞻前顾后、束手束脚,在现今唯一有希望突破的领域强人工智能方面无所作为,那么,人类文明或将在未来很长一段时间内,”
说到这里,方然忽然心头发紧,但“替身”没有面部表情,对方也无从得知,
“都无法有任何进步,不仅如此,彼时放眼未来,甚至会连一丝改变现状的希望都没有。
面对这种前途,倘若能接受停滞不前的状态,甘于苟活在这样一个死气沉沉的世界,似乎也还可以忍受;
但我却想要提醒您、和您的同僚,以宇宙之浩瀚无垠,其他行星上的高等文明想必不在少数,即便面对强ai的诱惑,绝大多数文明的选择都会是画地为牢,然而,一旦有极少数文明,出于种种考虑而选择了研发强ai,局面又会怎样
宇宙中其他文明,一旦研发并创造出强人工智能,是否能凭借这种力量,获得飞跃性的发展,甚至突破文明与文明之间的遥远时空,本人无从知晓。
唯一能确定的事实,则是选择自缚手脚、裹足不前的文明,必定不会有未来。”
一边叙述,一边有点情绪激动,方然的手势被“替身”精确再现,而坐在旁边的莱斯利兰伯特,则嘴巴微张、面露惊讶。
的确,倘若一切如阿达民所言,那么现在的局面
今天的人类文明,即便拒绝研发强ai、拒绝尝试创造出有自主行为的人工智能,也没办法以眼下的状态长久维持下去,用不着谁提醒,ne大区的每一位资深研究者,都清楚这样的事实。
当今时代的科研,事关岗位、生计,然而没了基础研发的支持,这一切忙碌的表象又能维持多久;
终有一天,当所有的技术领域,都开掘殆尽,人类的科技研发穷途末路。
那时会笼罩着文明的,便将会是黑暗,没有尽头。
第四九二章 认知
到那时,脱离了这一躯壳的人,还能算是传统的“人类”、甚至于“人”么。
想法有点脱离实际,现在,只能借助“替身机器”去远程操控生化仿真人,其实这一过程也和完全的机械化差不多,区别只在于,人的意识栖居之所,神经系统,仍然依赖着传统的肉身才能存活。
倘若有这样的办法,让身体永存,每一天都借助“替身机器”在这世界上活动,甚至更进一步,用vr徜徉于虚拟世界,是不是就更接近于永生。
在一边看兰伯特吃饭,诸多想法一晃而过,方然借助虚拟显示查看资料,整理思路。
而看上去有一点心事重重的莱斯利兰伯特,则有点食不知味,踌躇片刻后,还是有点沙哑的开口。
“阿达民先生,说真的,对您刚才所说的一切,我们的确未曾严肃认真的考虑过。
但,这方面的辩论且不谈,即便ai的自我意识,会和遍布历史痕迹的人类之自我意识不一样,本质上就大有区别,但,失控的风险仍会存在
一个ai,终日沉浸于科学研究,以探寻未知、探索奥秘为至高目标,作为创造者,人类或许能将ai塑造成这般模样。
但,说到这里,您想必也能明白,有能力从事创造性、探索性科学研究的ai,其基础架构与运行机制,必定与现有的一切ai大有区别,本质上讲,其必定会有强大的自我重构、自我完善能力,甚至还可以自我演化、自我推进。
这样的ai,其核心的自我意识部分,假使有的话,很快就会完全脱离人类的控制,即便对其施加影响也十分困难
总而言之,一旦启动该系统,接下来我们能做的就很有限,差不多就是听天由命。
随着机器小时的积累,对人而言,ai的当前运行状态,及其自身所处的状态,会越来越模糊,越来越不可知;
这,难道不是一种潜在的、极其危险的情形吗。”
ai的失控风险,乍一听来,似乎是科幻作品的滥情节,方然却很专注,他知道兰伯特先生想表达的并非那种意思。
“人工智能觉醒,继而与人开战”,从终结者到黑客帝国的火爆场景观赏性十足,却经不起推敲除非以毁灭人类为目标,专门开发这样的ai,否则人工智能并不会变成一个失控的精神病,这才是学术界公认的观点。
但是,即便以纯粹的研发、探索等目标,设计并制造出这样的ai,假以时日,会不会性情大变,甚至认为其环境的一部分人类,是其实现目标的障碍;
在进行相关研究时,这,是一个必须考虑的原则性问题。
站在莱斯利兰伯特的立场,阿达民,既然专门找自己谈话,吩咐研发任务,想必一定全面的权衡过利弊、分析过风险。
然而听到阿达民的话,他却有一点意外
“是的,兰伯特先生,这的确是一种莫大的风险。”
“那我们”
什么意思,您到底要不要吩咐我们,进行这些研究;
或者,这只是一次闲极无聊的纯粹理论研讨、空对空的畅想,兰伯特有点迷惑。
而这时的方然,虽然有点饿,还是挺少见的决定讲完这一席话再退出连线,毕竟,他认为接下来的话,对兰伯特和他的同僚很重要
“风险,自始至终,必定是会有的。
如果考虑到ai的自我演化,是从事科学技术研究的一种必备要素,一旦创造出这种ai,接下来,人类就只能在旁观望、听天由命,这说法也没有什么原则性的错误。
但接下来,意识到这种莫大的风险,人类又当何去何从
为了规避风险,而禁止一切与强ai相关的研究,正如我之前所做的那样,是吗。”
“不,这不一样,出发点和动机并不一样。”
“动机并不一样,这我承认;
但是讨论这种问题时,动机,根本就不重要。
回到这一根本性的问题,兰伯特先生,听完这些话,您是否仍坚持,人类应该自缚手脚、禁止进行任何创造性、探索性人工智能的研究
那么,这里必须指出,禁止强ai研究的后果会是什么
当今时代的基础科学,老生常谈,几十年来恍若一潭死水,倘若我们瞻前顾后、束手束脚,在现今唯一有希望突破的领域强人工智能方面无所作为,那么,人类文明或将在未来很长一段时间内,”
说到这里,方然忽然心头发紧,但“替身”没有面部表情,对方也无从得知,
“都无法有任何进步,不仅如此,彼时放眼未来,甚至会连一丝改变现状的希望都没有。
面对这种前途,倘若能接受停滞不前的状态,甘于苟活在这样一个死气沉沉的世界,似乎也还可以忍受;
但我却想要提醒您、和您的同僚,以宇宙之浩瀚无垠,其他行星上的高等文明想必不在少数,即便面对强ai的诱惑,绝大多数文明的选择都会是画地为牢,然而,一旦有极少数文明,出于种种考虑而选择了研发强ai,局面又会怎样
宇宙中其他文明,一旦研发并创造出强人工智能,是否能凭借这种力量,获得飞跃性的发展,甚至突破文明与文明之间的遥远时空,本人无从知晓。
唯一能确定的事实,则是选择自缚手脚、裹足不前的文明,必定不会有未来。”
一边叙述,一边有点情绪激动,方然的手势被“替身”精确再现,而坐在旁边的莱斯利兰伯特,则嘴巴微张、面露惊讶。
猜你喜欢