【文/观察者网 陈思佳】ChatGPT在全球掀起了人工智能热潮,让生成式人工智能的概念进入公众视野。但AI技术的高速发展也让人们产生了新的担忧,AI会不会被用来作恶?AI会不会对社会运行产生负面影响,甚至威胁人类的安全?
7月7日,在第六届世界人工智能大会(WAIC)的“人工智能风险与安全”论坛上,多名海外专家通过视频方式,讨论了对AI技术应用前景和潜在安全风险的看法。他们普遍认为,当前的AI技术还存在很多信息安全方面的漏洞,未来应用前景也具有不确定性,研究人员和监管机构应当引起重视,尽早制定安全措施。
美国非营利研究机构“人工智能安全中心”董事丹·亨德里克斯(Dan Hendrycks)认为,与人类相比,AI系统具有更强的适应性,强大的能力可能导致AI系统在很多领域取代人类的工作,甚至直接参与到决策过程中来。
他警告说,企业AI竞争可能导致安全措施遭到削减,导致公司在安全方面“走捷径”,“一个无限制的市场可能导致AI接管所有决策”。另一个令人担忧的问题则是,人类可能过度依赖AI系统的决策,“我们可能失去控制的机会,越来越无法看到甚至理解AI的行为……这可能带来更大的风险。”
亨德里克斯认为,AI开发者需要保持谨慎和安全意识,不能尝试淡化规模化的社会风险,为应对意外事件做好准备。有关机构和组织应该要考虑如何开展更加安全的AI系统研发,安全人员需要明确制定使AI系统更加安全的措施。
美国加州大学伯克利分校计算机科学教授斯图尔特·罗素(Stuart Russell)谈到了如何防止AI“反客为主”的问题。在他看来,AI需要构建成以人类利益为核心动机结构的形式,“事实上,我们感兴趣的不是具有智能的机器,而是对我们有益的机器。”
他注意到,AI的“黑箱”模型并不透明,人们并不理解其内部运作方式。他举例说,在今年早些时候曾出现过“令人毛骨悚然的微软Bing聊天机器人敦促科技专栏作家离婚”的新闻,“至少表明上来看,AI可能主动追求某种目标。”
因此罗素认为,人们应该利用“可以理解的组件”构建AI系统,并确保不会部署和运行不安全的AI系统。“人工智能对社会的潜力是巨大的,为进一步发展创造了不可阻挡的动力。但如果我们继续按照我们过去的方向发展,我认为我们可能会失去控制……AI要像航空和核能一样,拥有严格且不可绕过的安全标准,并且需要通过国际合作确保安全标准得到遵守。”
加州大学伯克利分校计算机科学教授宋晓东(Dawn Song)则重点讨论了信息安全问题,她指出,高速发展的AI技术加剧了敏感信息泄露和恶意内容传播的风险。
宋晓东表示,在与谷歌研究人员的早期研究中,他们发现攻击者可以通过简单查询的方式,从GPT-2等模型中提取训练数据中的个人身份信息。尽管GPT-3.5、GPT-4等模型加强了对个人身份等信息的保护,但攻击者依然能通过特定的提示“欺骗”AI,从而获取敏感信息。
另一个潜在风险是,攻击者可能滥用AI技术以生成恶意内容,“而且,通过人工智能辅助生成的内容数量可能超过人类生成内容的数量,我们将很难区分AI生成内容和人类生成的内容,尤其是生成式AI技术还在不断改进。”
她强调,人们迫切需要建立防御机制应对恶意操纵生成的内容,并构建大语言模型可信度的评估体系。
针对高速发展的AI技术,包括中国、美国和欧洲在内的诸多国家已开始推动AI立法工作,探寻有助于AI技术发展和监管的路径。
欧洲议会在6月14日以499票赞成、28票反对和93票弃权的结果,通过《人工智能法案》草案,正式进入最终谈判阶段。草案将AI风险划分为不可接受的风险、高风险、有限风险和低风险四个级别,对风险较高的应用程序实施严格的监管。
草案还为AI使用场景划定禁区,严格禁止“对人类安全造成不可接受风险的AI系统”,包括有目的地操纵技术、利用人性弱点或根据行为、社会地位和个人特征等进行评价的系统等。实时远程生物识别技术在最新投票中还被调整为“不可接受的风险”,禁止AI在该领域的应用。
美国消费者新闻与商业频道(CNBC)称,尽管草案正式成为法律还需要时间,但欧洲议会已经为立法扫清“主要障碍”,欧盟这项法案或将成为全球首批正式的AI法规之一。
美国政府则从今年4月起开始研究是否需要对ChatGPT等AI工具进行审查。作为潜在监管手段的第一步,美国商务部在4月11日就相关问责措施公开征求意见,包括新AI模型在发布前是否应该通过认证程序等问题。
美国国会参议院民主党领袖查克·舒默在6月提出“人工智能安全创新”框架,主张在鼓励创新的同时推进安全、问责制、基础和可解释性。他呼吁美国国会在该框架下加快对AI立法的进展,希望能在“几个月内”制定联邦层面的AI法案。
中国的AI立法相关工作也已经提上日程。今年4月,中国国家互联网信息办公室发布了《生成式人工智能服务管理办法(征求意见稿)》,这是国内生成式人工智能(AI)领域的首份监管文件。
据澎湃新闻报道,7月6日,在世界人工智能大会科学前沿全体会议上,科技部战略规划司司长梁颖达表示,人工智能法草案已被列入国务院2023年立法工作计划,提请全国人大常委会审议。展望未来,梁颖达表示,我国将鼓励人工智能前沿研究和原始创新,鼓励人工智能技术开源发展,坚持科技向善的理念,发展负责任的人工智能。