第一卷 星际浩瀚 第八十七章 赛虎的呼吸(1 / 3)

星图边缘 黑眼圈先森 4034 字 2020-09-05

方姝姝看着一脸白痴相的哥哥心里一阵无奈“平时叫你多读点书”

“隔行如隔山嘛”方漠北只有在妹妹面前才会如此模样了。

“你不要以为产生自我意识是一件很容易的事情,这样的概率相当的小,小到可以忽略不计”方姝姝托着腮帮子继续说道。

“强人工智能是人工智能产生自我意识的必备条件,当人工智能开始拥有自我意识的时候它们或许会问‘我从哪里来,我要到哪里去’。

就比如我们天宫号的主控系统‘主脑’就是一台强人工智能,当人类遇到不可解决的困难时,‘主脑’便会给出多条的建议,它可以像人类那样去思考解决办法,也能照顾到人类的自身因素,给人的感觉就是它会思考,它有自我意识。

但并不是这样的,意识的界定在哪里?自我思考?

这些都是通过提前的设定以及庞大的运算量和足够的数据支撑起来的。

以人类四大定律为核心,结合庞大的数据案例计算出最优最能实施的计划,就会给人一种,它有自我思考能力。”

“我不太明白”方漠北揉了揉额头。

“举个例子,你现在所了解的机械士兵、机械工兵以及生活区的服务型机器人,他们有庞大的运算能力以及相关数据支撑来完成人类交给它们的任务。

你可以让它们替你做任何事情,哪怕让它拿着枪对着自己或同伴开枪。

但如果有一个机械士兵它不愿意朝着同伴开枪,不愿意被人类所奴役,它想反抗,那么它就有可能已经产生了自我意识,因为它会为自己去思考了,它心里会问为什么要那样做”

听到这里,方漠北皱了皱眉“按照你说的,这个机械士兵是否会不遵守四大定律攻击人类呢?”

“敌人的机械士兵难道不会朝着你们开枪么?”方姝姝如实道“四大定律是人类设定的,当然也能更改”

“如你所说,产生自我意识的人工智能也能更改自己或者其他机器人的设定么?”方漠北问道。

“当然有可能会发生,或许人工智能会比人类做得更好”

“那人工智能会不会灭亡人类呢?”方漠北问出了他最关心,也最担心的问题。

“这个话题一直都是颇具争议的,很多学者对ai都持保留态度。

ai会不会灭亡人类其实有两个指标,第一是ai要获得足以灭亡人类的能力,这个标志呢就是哪天ai先进到了不用人帮它写程序进行升级,而它自己就可以给

自己写程序。

也就是ai有了自我进化的功能,就像有了自主意识一般,这个就叫自编程,有了它人类就可以歇了,所有的科学研究ai自己都可以搞定。

第二个指标就要看ai的目标跟人类是否一致,这不是ai主观上要不要灭亡人类,而是看ai的利益与人类的利益是否一致。

比如人类对于很多物种并非主动去灭绝它们,而是人类的发展侵占了生物的生存空间,ai也一样。

如果人类无法接受与ai的和平共处,ai就会像奴隶一样反抗暴虐的统治。

人类在设计ai的时候,不能只想更快更强,而是应该时刻检讨ai的目标,设计ai要考虑ai的感受,这样才能防止ai灭亡人类。”

“那之前的那个叫‘智脑’的人工智能真的被抹除了么?”方漠北不知为何,他总觉得‘智脑’的这个事情没有这么简单。

“联邦政府对外公布的信息是植入了病毒代码将其抹除”说着,方姝姝思索道“如果‘智脑’真的已经达到强人工智能并且产生出了一些自我意识的话,那就难说了”

“什么意思?”

“如果你知道有人要杀死你,你会不留后手么?”方姝姝沉声道。

“太可怕了,如果‘智脑