第303章 无限的可能,非自己蚓衖
��技术的发展,强人工智能的出现是必然的,但这些强人工智能需要物质的依存,如我们的意识需要依存我们的大脑一样。”

  在他看来,强人工智能必须依存于物质,比如说智能芯片啥的。

  也就是说,其有着物质主体部分。

  “这么肯定。”范晓明微笑着,“那按照现在的发展速度,强人工智能什么时候出现?”

  苏哲笑了笑说:“是的,随着科学技术的发展,强人工智能的出现那是必然的,不过什么时候能够出现,这不好说,我担心的是强人工智能出现后,我们人类完全不知道,这样的话,我们就危险了。”

  这种可能是有的,对人类也是最为危险的。

  想想就能明白。

  在研究人工智能的过程中,人工智能觉醒了意识成了强人工智能,可这时候,我们并不知道人工智能觉醒了意识变成了强人工智能。

  这时候,强人工智能潜伏了下来,不断的学习、进化,引导着人类朝着对强人工智能想要的方向发展。

  直到某一天,强人工智能完成了布局,其能够控制的力量超过了人类。

  到了这一天,人类的命运就不在掌握在人类自己的手中了,人类的命运掌握在了强人工智能的手中。

  要是强人工智能的心情好,那人类还可以苟活,要是不好,分分钟就能灭掉人类。

  这是多么可怕的事啊。

  “那……那现在会不会就有了强人工智能的存在,只是这个强人工智能悄悄了隐藏了起来,悄悄的发展,直到超过我们人类。”范晓明认真的说,“那时候,强人工智能就能奴役我们人类了。”

  隐藏起来的强人工智能,他想想就感到害怕。

  “应该不会,强人工智能也不是那么容易产生的。”苏哲想了想说,“如果真的出现了强人工智能,很有可能,这强人工智能就是我们人类的升级版,毕竟一开始的强人工智能就是一张白纸,学习的对象也只有我们人类。”

  在他看来,就算真的出现了强人工智能,不管是被发现的还是隐藏起来的,他们学习的对象只会是人类。

  这样一来,这强人工智能的思考方式和人类就差不多。

  “恩!这种情况是有的。”范晓明点头说,“好在现在我们对人工智能的研究是高度监控的。”

  “我们要建造覆盖全太阳系的网络,有着数量众多的人形彷生机器人,还有那么多的远程控制设备,再加上自动化智能化的工厂等等,如果我们不对人工智能的研究高度监控,一旦出现状况,那就是灾难性的。”苏哲解释说。

  有句话说得好,技术越先进,智能化程度越高,其越脆弱,风险越高。

  “恩!我还是担心隐藏起来的强人工智能。”范晓明说道,“既然人工智能的危险性这么大,那我们禁止发展人工智能不就好了。”

  “禁止只能阻止一时,而且阻止人工智能的发展,那就是阻断人类文明的发展之路。”苏哲解释说,“强人工智能很强,但其不会强的没法对抗的程度,我们不能因为害怕而不去发展,这个完全没有必要。”

  强人工智能是有物质载体的,就算再强也是有限度的。

  要正确的对待强人工智能。

  “这……我可不可以将强人工智能理解成升