发布时间:2024-11-26 07:11:38 来源: sp20241126
编者按 人工智能无疑是2023年的科技热词。作为战略性新兴技术,人工智能日益成为科技创新、产业升级和生产力提升的重要驱动力量。如何看待人工智能热潮?如何处理发展与治理的关系?怎样推动相关产业落地应用、有序发展?为此,本版推出特别策划,以飨读者。
◎本报记者 崔 爽
人工智能无疑是2023年最热门的数字科技关键词。一方面,各国纷纷加速布局人工智能产业。近日,俄罗斯公布了一项新的人工智能发展国家战略计划,新加坡发布了全国人工智能策略2.0。另一方面,针对人工智能的治理体系也愈发完善。美国推出《关于安全、可靠和可信的AI行政命令》,欧盟就《人工智能法案》达成协议。在2023年底举办的首届全球人工智能安全峰会上,包括中国、美国、英国在内的28个国家及欧盟共同签署了旨在推动人工智能全球治理的《布莱奇利宣言》。
由此可见,在数字经济时代,布局人工智能已经成为各国政府的共识。但如何布局、如何发展,仍然需要政府、科研院所、业界等各方贡献智慧。2024年,人工智能技术将有哪些动向?如何在技术快速发展的情况下更好地监管人工智能?
落地产业应用的关键一年
“在传统信贷经营模式下,银行向一些小农场放贷以后,工作人员需要隔三岔五去做贷后检查、监测,费时又费力。在西部一些地区,进行一次检查甚至可能需要两三天时间。”中国农业银行研发中心大模型研发负责人耿博在近日召开的首届人工智能应用大会上说。
高企的运营成本在人工智能技术规模应用之后大大降低了。“我们在小农场装了一些摄像头,通过这些摄像头采集数据,然后用人工智能做计数。”耿博介绍道,“不光是计数,人工智能还能做辨别。比如这头牛到底是老王的还是老李的。”耿博介绍,人工智能的应用提高了贷后管理效率,降低了贷后管理成本,使一些偏远地区也能享受智慧金融服务。
这只是人工智能技术落地应用的冰山一角。“2024年将是人工智能技术落地产业应用的关键一年。”北京工商大学副校长左敏判断。在他看来,随着大模型在过去一年的快速进步,人工智能技术的应用潜能已经被广泛认可。与此同时,大家意识到,在人工智能领域,构建越来越大的模型并不一定是最终目标。将人工智能技术转化为具体的、可行的解决方案和产品,对于推动人工智能行业发展和实现商业价值亦至关重要。
人工智能,尤其是大模型未来一段时期内值得关注的方向是什么?中国移动通信联合会执行副会长杜正平给出了自己的答案:智能涌现的工程机制、新的技术商业模型、新的智能组织和技术架构。
智能涌现,指人工智能出现的与初始训练目标无关的新行为和功能。业界普遍认为,智能涌现是人工智能迈向更高阶段的表现。但对于智能涌现发生的机制和工程路径,科学家目前尚不清楚。杜正平提到,互联网公司Meta日前表示,拟斥资数十亿美元购买英伟达公司的计算机芯片,用于人工智能研究和相关项目。Meta首席执行官马克·扎克伯格亦透露,根据公司的人工智能未来路线图要求,公司将建立一个大规模的计算基础设施。到2024年底,这一基础设施将包括35万张英伟达H100显卡。在杜正平看来,类似Meta这样“暴力”的方式是否一定会推动人工智能产生智能涌现,以及智能涌现发生的机制和工程路径,还需继续探索。
同时,杜正平认为,尽管大模型发展如火如荼,但它究竟会在哪些方面发展出新的技术商业模式,还需全行业共同探索。“在模型智能时代,如何搭建新的智能组织、技术架构,同样是我们关注的重点。”杜正平说。
“我国经济已经由高速增长阶段转向高质量发展阶段,处在转变发展方式、优化经济结构、转化增强动力的攻关时期,迫切需要新一代人工智能重大创新助力。”中国电子商务商协会联盟主席聂林海认为,“我们要深入把握新一代人工智能的发展特点,加快推动人工智能和相关产业融合发展,为高质量发展提供新动能。”
推动治理规则与实践走深向实
以大模型为代表的生成式人工智能技术发展迅猛,已初步显露对行业的颠覆式影响。与此同时,人工智能安全治理问题也引发了前所未有的关注。各国政府、国际组织、学术科研机构、产业组织、科技公司纷纷投身其中。“全球人工智能安全治理的规则与实践探索将进一步走深向实。”谈及全球人工智能安全治理发展趋势,中国信息通信研究院人工智能研究中心高级业务主管呼娜英说。
根据中国人工智能产业发展联盟安全治理委员会发布的研究结果,随着人工智能加速赋能千行百业,人工智能安全治理议题正从隐私保护、数据安全、算法黑箱、模型漏洞等传统技术安全议题向应用于生物、化学、核能、关键基础设施等领域的底层安全问题扩展。
在人工智能安全治理方案方面,呼娜英介绍,全球持续加强人工智能安全治理。2023年10月,联合国组建高级别人工智能咨询机构。机构旨在监管人工智能,应对人工智能可能带来的风险。在强化人工智能安全治理过程中,风险导向成为各国对人工智能的普遍治理路径。比如,我国的《生成式人工智能服务管理暂行办法》积极应对生成式人工智能在训练数据、算法模型、生成内容、个人信息权益等方面产生的风险。欧盟《人工智能法案》对人工智能进行分级监管和风险规制。联合国人工智能咨询机构也在临时报告中说,制定人工智能风险管理框架将是下一步工作的重心。
具体措施方面,在技术快速发展的情况下,以人工智能治理人工智能成为行业探索的重点。其中,可扩展监督、可解释性研究、模型评估等价值对齐方式是行业的主要探索方向。比如2023年5月,人工智能初创公司Anthropic宣布,将通过一个名为“宪法 AI”的大模型评估和训练该公司大模型的价值观。人工智能研究公司OpenAI紧随其后,宣布成立超级对齐团队,投入20%计算资源,以4年时间打造解决对齐问题的人工智能。(科技日报) 【编辑:田博群】