数据要素产业
超级AI可能控制整个世界,霍金马斯克“押中”?
近日,根据相关媒体报道,人工智能一直取得更大的进步,一些科学家和哲学家对不可控制的超级智能AI的危险发出了警告。
说起AI威胁论,不由想到霍金和马斯克。
此前,霍金曾表示,人工智能的崛起可能是人类文明的终结,霍金还呼吁人们必须建立有效机制尽早识别威胁所在,防止人工智能对人类带来的威胁进一步上升。
除此之外,霍金还将人工智能的威胁分为两种,分别是短期和长期两种。短期威胁包括自动驾驶、智能性自主武器,以及隐私问题;长期担忧主要是人工智能系统失控带来的风险,如人工智能系统可能不听人类指挥。
值得一提的是,现如今霍金所提到了短期威胁基本已经“实现”,但是并不普及。
而关于马斯克,他曾表示,AI曾会在未来取代人类,这也是为什么他致力专注于脑机接口方面,其中,他认为利用某些连接到人类大脑的高带宽接口,有助于实现人类和机器智能的共生系统,并可以解决控制问题和实用问题。
而在外媒的报道中,国外研究团队曾用计算证明,控制超级智能AI很可能难以实现,不仅如此,甚至表示现如今一些机器能够完成某些重要的任务,但是程序员并不完全了解它们是怎么做到的。
在研究的过程中,研究团队还曾构思了一种论遏制算法,其主要的目的是为了模拟AI的行为被认为是有害的情况下,人们能够进行阻止,以保证伤害到人类。
但是结果并不理想,分析中显示,在目前的计算范式中,这种算法是无法建立的。
现如今社会的发展十分的迅速,AI的到来有利有弊,而无论是利大于弊或者是弊大于利,我们都要怀着正确的眼光去看待,而不能一昧的只是看到AI的某一点。
但是不可否认的是,当一项技术过于的成熟再者加上了主观意识,确实会按照什么样的事态发展是人们很难预料得到的。
最后,关于这件事情,你还有什么看法?
欢迎点赞留言关注,第一时间不迷路知道新鲜科技资讯。
(本文图片均来源于互联网,如有侵权请联系删除)