数据要素产业
自律自治共担责任,AI企业有担当
人工智能产业化进程已经从点到面,渗透到更多行业特定场景。如何更好地推动人工智能技术创新和产业稳健发展,形成更好的创新体系和产业生态,需要全行业共同努力。日前,由北京智源人工智能研究院和瑞莱智慧共同发起,百度、华为、蚂蚁集团、寒武纪、爱笔科技、第四范式、出门问问等在内数十家研究机构与创新企业联合参与的首个《人工智能(AI)产业担当宣言》(以下简称《宣言》)正式发布,《宣言》强调中国科技企业在推动人工智能自律自治稳健发展中应积极承担的责任。
AI企业要自律自治
“让人工智能更好地服务于人类,是产业共同的目标,作为人工智能技术发展的中坚力量,人工智能企业理应成为安全治理的践行者。但科技企业到底应该如何去做,业内还没有一个共识。”瑞莱智慧CEO、北京智源人工智能研究院安全创新中心执行主任田天告诉《中国电子报》记者,业界需要从产业层面让更多的从业者参与进来,这样才能真正实现治理目标,所以研究院决定联合业内的标杆AI企业,一起来发布这样一份宣言。
田天指出,围绕每一项倡议,研究院都将开展实际的践行工作。自2018年智源研究院创办以来,一直致力于人工智能产业治理层面的相关工作推进。比如技术方面打造可靠可信赖的系统,开展隐私保护计算等。在推动行业共治方面,智源研究院与人工智能产业链各环节相关监管部门、科研机构积极协作,推动技术规范与标准的制定,比如与相关机构联合制定了我国人脸模型算法自身安全相关的第一个标准《信息安全技术人脸比对模型安全技术规范 》。
AI要确保安全可控可信
正如百度创始人李彦宏所说:AI的最高原则是安全可控。
《宣言》中指出,要高度关注人工智能系统的安全,提高人工智能鲁棒性及抗干扰性,提高系统抗攻击和自我修复能力,确保人工智能系统安全可靠可控地工作。努力增强人工智能算法的透明性和可解释性,并保持与人工智能各个利益相关方的紧密沟通,最大限度地确保人工智能系统可信。
中国科学院院士、清华大学人工智能研究院名誉院长、瑞莱智慧首席科学家张钹在《宣言》发布现场演讲时指出,人工智能与信息系统在安全性上有着显著区别。信息系统安全性问题主要是软件设计中的漏洞,容易被解决。第二代人工智能的安全性问题主要来自于深度学习算法。张钹认为,人工智能治理,防止误用、滥用,一方面要从法律法规、伦理规范、行业共识等不同层面去“治标”,还应从技术创新层面发力去“治本”。
张钹提出发展第三代人工智能技术,即融合了第一代的知识驱动和第二代的数据驱动的人工智能,利用知识、数据、算法和算力四个要素,建立新的可解释和鲁棒的AI理论与方法,发展安全、可信、可靠和可扩展的AI技术。
政企学联合发力加强AI治理
一个蒸蒸日上,体量不断扩大的产业,很难单凭一己之力完成有效治理。AI产业需要企业、政府以及学术界的共同努力,在政府顶层设计和规划的指导下,推动企业自律,科研和产业界的共识至关重要。
《宣言》强调,人工智能相关从业者应具有高度的社会责任感和自律意识,将人工智能伦理与治理原则、实践贯穿于产品和服务的全生命周期。倡议企业成立人工智能治理委员会或工作组、设立伦理研究员岗位或通过外部技术支持等方式来有效践行自律自治,同时促进企业与政府、社会深度协同治理,积极参与人工智能相关法律法规以及标准的制定和落实。
中国科学院自动化研究所研究员、国家新一代人工智能治理专委会委员、联合国教科文组织人工智能伦理特设专家组专家曾毅提出,要在人工智能产品设计、研究、开发、部署、使用全生命周期嵌入伦理与治理的要义,并形成政府、学术界、企业、公民社会、媒体、用户、服务提供商等多方主动共治的良性生态,使稳健发展的人工智能赋能全球可持续发展目标的实现。
“我们希望这份宣言能够为科技企业提供了治理参考与初步的实操建议,以及推动政产学研各界加快形成多方共治体系,加速构建‘可持续、负责任、有价值’的人工智能生态。”田天表示。