数据要素产业
监管阻碍科学进步,人工智能还远未成熟
你可以用刀来切蔬菜,可以用它来抹黄油,但你也可以用它来做 harakiri 或谋杀其他人。但如果刀的第一个发明者被告知“我们需要规范这一点,因为人们可以用它来杀死自己或杀死他人”,那么人类将蒙受巨大损失。
人工智能是什么?
人工智能(Artificial Intelligence,AI)是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。它是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能与人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。
人工智能能做什么
人工智能就像核科学、基因科学,或者像刀一样不起眼的东西,对人类的好处可能大于危害它将有助于药物的发现,它将为生产设施中的缺陷检测带来更高的效率,它将使金融市场更有效率,它将为人类腾出大量时间,然后我们可以将这些时间投入到更多依赖人类智慧的更高和更大的事业上,而不是将时间花在重复的平凡任务上。
人工智能的3个阶段:
狭义人工智能 (Artificial Narrow Intelligence,ANI)(我们目前取得的成果,像 AlphaGo 这样的单一用途人工智能、自动驾驶汽车,甚至像推荐系统、深度学习翻译等机器学习模型)
通用人工智能 (Artificial General Intelligence,AGI)(尚未实现,在各种任务中与人类水平的能力相匹配的人工智能)
超级人工智能(Artificial Super Intelligence,ASI)(尚未实现,在各种任务中超越人类水平的能力)
人工智能的危害不仅仅是AV换脸
今天的人工智能会危险吗?是的!即使不诉诸超级智能,也确实存在一些恶意使用人工智能的方法。例如AV在线换脸,自动驾驶汽车的对抗性,针对特定人群缺乏公平的决策等。
AI 研究人员对于 AI 可能存在的风险、该风险何时会出现以及 AI 是否可能构成生存风险存在分歧,但很少有研究人员认为 AI 不构成风险。即使在今天,我们也看到狭隘的 AI 加剧歧视和失业问题的迹象,如果我们不采取适当的预防措施,我们可以预期问题会恶化,随着 AI 变得更加智能和复杂,影响更多人。
人工智能监管源于恐惧
关于人工智能监管的大部分讨论起初都源于对“有感知力的人工智能”或“邪恶的杀手机器人”的非理性恐惧,而不是对其能做什么和不能做什么的更深入的了解。
特斯拉公司CEO马斯克担心 ASI,一旦我们实现 AGI,ASI 就会很快发生,因为它的核心学习能力和思想的复杂性将呈指数级增长。强化学习技术进一步促进了这种增长,我们允许 AI 自我训练。
潜在的恐惧在于人工智能可以自我复制和自我改进。如果这是真的,那么最终人工智能机器将变得优于人类。如果发生这种情况,人工智能机器可以判断人类具有破坏性,并导致灭绝事件将我们消灭。
想象一下,如果我们让阿尔伯特爱因斯坦教他年轻时的自己。等到年轻的阿尔伯特长大后,他可能会比他原来的版本更聪明。然后我们让那个阿尔伯特教下一代并重复这个循环数十亿次。我们在它结束时得到的将是“知识的爆炸式增长”。
理论上,我们可能会在没有能力控制这种力量的情况下“召唤 ASI 的恶魔”
现在的问题是……我们离 AGI 非常非常远。我们甚至还没有接近建造一个人造的阿尔伯特爱因斯坦,让他与另一个自己的虚拟克隆人辩论相对论。事实上,我们最好的人工智能能力远低于蠕虫级别的智力水平。我们的由大数据基础设施驱动的具有数千个神经元的深度学习模型目前仍然难以区分狗和面包圈。
而蠕虫,则具有单个神经元执行视觉、磁感应等功能。 这与神经元的数量无关(有了足够的硬件,我们可以构建巨大的神经网络),事实上,人工智能存在一个大问题:即使是它的创造者也无法解释它是如何工作的;我们在生成对抗网络方面取得了一些进展,我们让 AI 相互交流,但我们真的只是处于发现阶段,可能需要数十年的研究才能达到需要监管的接近 AGI 的水平。
阿西莫夫的人工智能定律
机器人不得伤害人类,或因不作为而导致人类受到伤害。
机器人必须服从人类发出的命令,除非这些命令与第一定律相冲突。
机器人必须保护自己的存在,只要这种保护不与第一定律或第二定律相冲突。
人工智能是现代”太空竞赛“
AI 发展是这一代人的太空竞赛。任何以过度监管这项技术作为回应的国家都将在创新方面落后并失败。当您必须适应监管时时,您无法非常有效地开发开创性的系统,即使一个国家积极选择人工智能开发,法规也会从本质上限制进展。但缺乏监管会带来一系列问题。它可以让 AI 开发变得不那么谨慎,而且由于这是人类有史以来开发的最具变革性的技术,它应该尽可能地谨慎。
当爱因斯坦将质能方程推向这个世界时,他的脑海中当然没有广岛或长崎。他的发现一直是核能的支柱,核能已被证明是许多国家的重要能源。
同样,大量的生物研究人员当然不会为了某一天允许流氓社会分子将基因工程流感病毒作为武器释放到世界上而进行研究。
任何伟大的科学想法都会带来意想不到的副作用。核能会造成很多伤害,就像 2011 年日本地震的情况一样。但也许有一天,冷聚变将使人类掌握太阳的力量。
人工智能作为一项基础技术不应该受到监管,阻止您在笔记本电脑上实施神经网络似乎也不切实际。然而,人工智能的一些应用,例如自动驾驶,需要监管。人工智能还对反垄断(垄断监管)产生了新的影响,监管机构尚未考虑但应该考虑。由于今天的人工智能还不成熟且发展迅速,任何国家的严厉监管都会阻碍该国的人工智能进步。
一项技术越有可能对大量人产生适度影响,甚至对少数人产生强烈影响,它就越需要“监管”。这显然并不意味着停止进步。与不存在监管中断的情况相比,监管最终可以实现更安全、更快地进展。技术进步不会自动对社会和个人产生积极影响。我们已经在大多数技术和非技术领域制定了法规。一些明显的例子包括:您在道路的哪一边行驶,驾驶时限速,哪些药物是处方药,哪些是非处方药,谁可以称自己为博士(那些接受过足够培训的人)。我们有关于药物开发和销售的规定。在 IT 方面,我们对您可以传输的 EM 频率有严格的规定,以免干扰可能在相同频率上接收或传输的医疗、工业或军事设备。我们甚至对加密技术和算法有出口管制和规定。当然,我们对核材料的使用和分配有严格的规定。
一些人工智能用例需要监管以保护个人并加速其采用。汽车行业已经受到严格监管以确保安全。根据自动驾驶等新的人工智能功能,思考这些监管法规应该如何采用将有助于整个行业的健康发展,其他领域也是如此,包括制药、军备控制、金融市场等。但是监管应该是针对特定行业的,并且基于对用例的深思熟虑以及我们希望/不想在特定行业看到的结果,而不是基于基本技术。
但我们可能无法制定涵盖“该监管的人工智能”的简单规定,监控或控制流程的困难并不意味着我们不应该这样做。与控制和安全使用核材料相比,人工智能有可能对世界产生更广泛、更强大的影响。
当谈到即将出现的高级人工智能时,我认为我们现在太像蚂蚁一样抬头看着一个人来解决它。
人工智能乐观or悲观?
人工智能会产生意想不到的后果,但任何接近这些后果的尝试都可能受到对自动化机器的高度恐惧和悲观情绪的驱动。
我认为目前最应该受到监管的是自主武器。就像核武器和生物武器一样,自主武器显然具有邪恶的意图,应该由某些机构彻底禁止或监管。但是也存在一个灰色地带,如果我们认为人类的生命不值得在战争中丧生,是否值得允许自主武器?或者,自主机器人士兵可以取代联合国维和人员。这些是哲学辩论,应该在世界对人工智能做出情绪化的决定并阻碍人类进步之前进行辩论。
作为一个文明,我们面临的挑战只会越来越大恶劣的天气模式、气候变化、向受灾地区运送食物和援助而智能机器可能会成为我们在这场战斗中最好的朋友和盟友。