您当前位置:首页  >  都市言情

永不下车

时间:2023-05-22  来源:  作者:阳电

    但不管怎么说,自主式科研ai能否推进科技,那毕竟也是一个很长远的问题,眼前的危机,才更值得警惕

    出于种种考虑,研发具有创造性、探索性思维的人工智能,ai一旦这样的被研究出来,阿达民先生,您是否能确定,凭现有的科技、武器与战力水准,自己必然能掌控这ai,而不会被自主决策的ai所消灭”

    “ai的反叛,是的,这是一个想当棘手的问题,但,可以提前采取”

    “没有什么提前采取

    恰恰相反,一旦具有超越人类的科研能力,这样的ai被制造出来,其行为与动机,就注定会脱离人类的掌控,这并非安保手段、武力强弱的定量问题,而是由双方智力差距所决定的,无解的困局。

    试想一下,阿达民先生,您之所以拍板这样宏大的计划,目标,正如刚才亲口所言,绝不是为了获得能够与人相比拟的那种ai。

    投入大量资源,消耗时间,只为了得到一些模仿的产物,根本得不偿失。

    此类研究的根本动机,显而易见,是期望获得能力超越人类、甚至远远超越人类的强ai,目的,并非研究什么自我意识、或者要创造出这样的自我意识,而是要在人类专有的科学技术研究领域,制造出一个碾压现今所有人的利维坦。

    这样的东西,一旦真被研究出来,凭你我这种人类的头脑、意识,恐怕连预测其行为、判断其动机都做不到;

    有怎么能奢望,凭借一些儿戏般的安保手段,便能将其禁锢起来,为己所用。”

    滔滔不绝,莱斯利兰伯特的一番直抒胸臆,脸都有些涨红。

    至于他要表达的意思,无需聚精会神,方然也能明白,事实上,自从掌控ne大区之初,自己便一直在琢磨事关重大的难题。

    创造性思维,具有这种特质的ai,先不论通过什么样的手段去研发,一旦成为现实,那么,除非这种ai的能力与人类相仿,一旦其能力远超人类,再加上其自身“思维”、“决策”的无可预测,人类就会有灭顶之灾。

    这种风险,只要着手开展此类研究,就一定会出现。

    不仅必定出现,应对之策,事实上也是不存在的,并不会因为一些莫须有的“拉电闸”、“核弹爆轰”的手段而改变。

    一切的缘由,完全在于ai的“自主意识”,其危害之大,只要设想一个能力超卓、却与同类决裂的人类,能对人类世界造成多么大的破坏,然后将这种威胁放大若干倍,便不难想象到时的情形。

    面对特立独行、完全漠视人类利益的威胁

    一切应对之策,在强ai的眼里都会十分可笑。




第四九一章 自缚
    到那时,脱离了这一躯壳的人,还能算是传统的“人类”、甚至于“人”么。

    想法有点脱离实际,现在,只能借助“替身机器”去远程操控生化仿真人,其实这一过程也和完全的机械化差不多,区别只在于,人的意识栖居之所,神经系统,仍然依赖着传统的肉身才能存活。

    倘若有这样的办法,让身体永存,每一天都借助“替身机器”在这世界上活动,甚至更进一步,用vr徜徉于虚拟世界,是不是就更接近于永生。

    在一边看兰伯特吃饭,诸多想法一晃而过,方然借助虚拟显示查看资料,整理思路。

    而看上去有一点心事重重的莱斯利兰伯特,则有点食不知味,踌躇片刻后,还是有点沙哑的开口。

    “阿达民先生,说真的,对您刚才所说的一切,我们的确未曾严肃认真的考虑过。

    但,这方面的辩论且不谈,即便ai的自我意识,会和遍布历史痕迹的人类之自我意识不一样,本质上就大有区别,但,失控的风险仍会存在

    一个ai,终日沉浸于科学研究,以探寻未知、探索奥秘为至高目标,作为创造者,人类或许能将ai塑造成这般模样。

    但,说到这里,您想必也能明白,有能力从事创造性、探索性科学研究的ai,其基础架构与运行机制,必定与现有的一切ai大有区别,本质上讲,其必定会有强大的自我重构、自我完善能力,甚至还可以自我演化、自我推进。

    这样的ai,其核心的自我意识部分,假使有的话,很快就会完全脱离人类的控制,即便对其施加影响也十分困难

    总而言之,一旦启动该系统,接下来我们能做的就很有限,差不多就是听天由命。

    随着机器小时的积累,对人而言,ai的当前运行状态,及其自身所处的状态,会越来越模糊,越来越不可知;

    这,难道不是一种潜在的、极其危险的情形吗。”

    ai的失控风险,乍一听来,似乎是科幻作品的滥情节,方然却很专注,他知道兰伯特先生想表达的并非那种意思。

    “人工智能觉醒,继而与人开战”,从终结者到黑客帝国的火爆场景观赏性十足,却经不起推敲除非以毁灭人类为目标,专门开发这样的ai,否则人工智能并不会变成一个失控的精神病,这才是学术界公认的观点。

    但是,即便以纯粹的研发、探索等目标,设计并制造出这样的ai,假以时日,会不会性情大变,甚至认为其环境的一部分人类,是其实现目标的障碍;

    在进行相关研究时,这,是一个必须考虑的原则性问题。

    站在莱斯利兰伯特的立场,阿达民,既然专门找自己谈话,吩咐研发任务,想必一定全面的权衡过利弊、分析过风险。

    然而听到阿达民的话,他却有一点意外

    “是的,兰伯特先生,这的确是一种莫大的风险。”

    “那我们”

    什么意思,您到底要不要吩咐我们,进行这些研究;

    或者,这只是一次闲极无聊的纯粹理论研讨、空对空的畅想,兰伯特有点迷惑。

    而这时的方然,虽然有点饿,还是挺少见的决定讲完这一席话再退出连线,毕竟,他认为接下来的话,对兰伯特和他的同僚很重要

    “风险,自始至终,必定是会有的。

    如果考虑到ai的自我演化,是从事科学技术研究的一种必备要素,一旦创造出这种ai,接下来,人类就只能在旁观望、听天由命,这说法也没有什么原则性的错误。

    但接下来,意识到这种莫大的风险,人类又当何去何从

    为了规避风险,而禁止一切与强ai相关的研究,正如我之前所做的那样,是吗。”

    “不,这不一样,出发点和动机并不一样。”

    “动机并不一样,这我承认;

    但是讨论这种问题时,动机,根本就不重要。

    回到这一根本性的问题,兰伯特先生,听完这些话,您是否仍坚持,人类应该自缚手脚、禁止进行任何创造性、探索性人工智能的研究

    那么,这里必须指出,禁止强ai研究的后果会是什么

    当今时代的基础科学,老生常谈,几十年来恍若一潭死水,倘若我们瞻前顾后、束手束脚,在现今唯一有希望突破的领域强人工智能方面无所作为,那么,人类文明或将在未来很长一段时间内,”

    说到这里,方然忽然心头发紧,但“替身”没有面部表情,对方也无从得知,

    “都无法有任何进步,不仅如此,彼时放眼未来,甚至会连一丝改变现状的希望都没有。

    面对这种前途,倘若能接受停滞不前的状态,甘于苟活在这样一个死气沉沉的世界,似乎也还可以忍受;

    但我却想要提醒您、和您的同僚,以宇宙之浩瀚无垠,其他行星上的高等文明想必不在少数,即便面对强ai的诱惑,绝大多数文明的选择都会是画地为牢,然而,一旦有极少数文明,出于种种考虑而选择了研发强ai,局面又会怎样

    宇宙中其他文明,一旦研发并创造出强人工智能,是否能凭借这种力量,获得飞跃性的发展,甚至突破文明与文明之间的遥远时空,本人无从知晓。

    唯一能确定的事实,则是选择自缚手脚、裹足不前的文明,必定不会有未来。”

    一边叙述,一边有点情绪激动,方然的手势被“替身”精确再现,而坐在旁边的莱斯利兰伯特,则嘴巴微张、面露惊讶。

    的确,倘若一切如阿达民所言,那么现在的局面

    今天的人类文明,即便拒绝研发强ai、拒绝尝试创造出有自主行为的人工智能,也没办法以眼下的状态长久维持下去,用不着谁提醒,ne大区的每一位资深研究者,都清楚这样的事实。

    当今时代的科研,事关岗位、生计,然而没了基础研发的支持,这一切忙碌的表象又能维持多久;

    终有一天,当所有的技术领域,都开掘殆尽,人类的科技研发穷途末路。

    那时会笼罩着文明的,便将会是黑暗,没有尽头。



第四九二章 认知
    到那时,脱离了这一躯壳的人,还能算是传统的“人类”、甚至于“人”么。

    想法有点脱离实际,现在,只能借助“替身机器”去远程操控生化仿真人,其实这一过程也和完全的机械化差不多,区别只在于,人的意识栖居之所,神经系统,仍然依赖着传统的肉身才能存活。

    倘若有这样的办法,让身体永存,每一天都借助“替身机器”在这世界上活动,甚至更进一步,用vr徜徉于虚拟世界,是不是就更接近于永生。

    在一边看兰伯特吃饭,诸多想法一晃而过,方然借助虚拟显示查看资料,整理思路。

    而看上去有一点心事重重的莱斯利兰伯特,则有点食不知味,踌躇片刻后,还是有点沙哑的开口。

    “阿达民先生,说真的,对您刚才所说的一切,我们的确未曾严肃认真的考虑过。

    但,这方面的辩论且不谈,即便ai的自我意识,会和遍布历史痕迹的人类之自我意识不一样,本质上就大有区别,但,失控的风险仍会存在

    一个ai,终日沉浸于科学研究,以探寻未知、探索奥秘为至高目标,作为创造者,人类或许能将ai塑造成这般模样。

    但,说到这里,您想必也能明白,有能力从事创造性、探索性科学研究的ai,其基础架构与运行机制,必定与现有的一切ai大有区别,本质上讲,其必定会有强大的自我重构、自我完善能力,甚至还可以自我演化、自我推进。

    这样的ai,其核心的自我意识部分,假使有的话,很快就会完全脱离人类的控制,即便对其施加影响也十分困难

    总而言之,一旦启动该系统,接下来我们能做的就很有限,差不多就是听天由命。

    随着机器小时的积累,对人而言,ai的当前运行状态,及其自身所处的状态,会越来越模糊,越来越不可知;

    这,难道不是一种潜在的、极其危险的情形吗。”

    ai的失控风险,乍一听来,似乎是科幻作品的滥情节,方然却很专注,他知道兰伯特先生想表达的并非那种意思。

    “人工智能觉醒,继而与人开战”,从终结者到黑客帝国的火爆场景观赏性十足,却经不起推敲除非以毁灭人类为目标,专门开发这样的ai,否则人工智能并不会变成一个失控的精神病,这才是学术界公认的观点。

    但是,即便以纯粹的研发、探索等目标,设计并制造出这样的ai,假以时日,会不会性情大变,甚至认为其环境的一部分人类,是其实现目标的障碍;

    在进行相关研究时,这,是一个必须考虑的原则性问题。

    站在莱斯利兰伯特的立场,阿达民,既然专门找自己谈话,吩咐研发任务,想必一定全面的权衡过利弊、分析过风险。

    然而听到阿达民的话,他却有一点意外

    “是的,兰伯特先生,这的确是一种莫大的风险。”

    “那我们”

    什么意思,您到底要不要吩咐我们,进行这些研究;

    或者,这只是一次闲极无聊的纯粹理论研讨、空对空的畅想,兰伯特有点迷惑。

    而这时的方然,虽然有点饿,还是挺少见的决定讲完这一席话再退出连线,毕竟,他认为接下来的话,对兰伯特和他的同僚很重要

    “风险,自始至终,必定是会有的。

    如果考虑到ai的自我演化,是从事科学技术研究的一种必备要素,一旦创造出这种ai,接下来,人类就只能在旁观望、听天由命,这说法也没有什么原则性的错误。

    但接下来,意识到这种莫大的风险,人类又当何去何从

    为了规避风险,而禁止一切与强ai相关的研究,正如我之前所做的那样,是吗。”

    “不,这不一样,出发点和动机并不一样。”

    “动机并不一样,这我承认;

    但是讨论这种问题时,动机,根本就不重要。

    回到这一根本性的问题,兰伯特先生,听完这些话,您是否仍坚持,人类应该自缚手脚、禁止进行任何创造性、探索性人工智能的研究

    那么,这里必须指出,禁止强ai研究的后果会是什么

    当今时代的基础科学,老生常谈,几十年来恍若一潭死水,倘若我们瞻前顾后、束手束脚,在现今唯一有希望突破的领域强人工智能方面无所作为,那么,人类文明或将在未来很长一段时间内,”

    说到这里,方然忽然心头发紧,但“替身”没有面部表情,对方也无从得知,

    “都无法有任何进步,不仅如此,彼时放眼未来,甚至会连一丝改变现状的希望都没有。

    面对这种前途,倘若能接受停滞不前的状态,甘于苟活在这样一个死气沉沉的世界,似乎也还可以忍受;

    但我却想要提醒您、和您的同僚,以宇宙之浩瀚无垠,其他行星上的高等文明想必不在少数,即便面对强ai的诱惑,绝大多数文明的选择都会是画地为牢,然而,一旦有极少数文明,出于种种考虑而选择了研发强ai,局面又会怎样

    宇宙中其他文明,一旦研发并创造出强人工智能,是否能凭借这种力量,获得飞跃性的发展,甚至突破文明与文明之间的遥远时空,本人无从知晓。

    唯一能确定的事实,则是选择自缚手脚、裹足不前的文明,必定不会有未来。”

    一边叙述,一边有点情绪激动,方然的手势被“替身”精确再现,而坐在旁边的莱斯利兰伯特,则嘴巴微张、面露惊讶。

1...136137138139140...212
猜你喜欢