在12月27日召开的AI发展与治理创新研讨会上,阿里巴巴集团与中国电子技术标准化研究院联合发布《AIGC治理与实践白皮书》(下称《AIGC白皮书》)。
《AIGC白皮书》介绍了全球AIGC技术与应用的最新进展,梳理了各界对AIGC技术的疑虑和担忧,剖析了全球治理AIGC的不同模式。这是一部系统分析大模型和AIGC主要风险,并从应用角度提出针对性治理建议和可操作性实践方案的研究成果。
阿里巴巴科技伦理治理委员会委员、阿里巴巴安全部研究员薛晖表示,AIGC带来风险挑战,AI的发展和治理,必须“多元协同、开放共治”。阿里巴巴正在一边筑牢防火墙,一边突破天花板,与社会各界一道,用AI破解更多社会难题,推动AI惠及更多人。
会上,来自中国科学院、中国社会科学院大学、复旦大学、浙江大学以及有关研究机构的专家学者,从技术趋势、科技伦理和协同治理等角度,共同探讨AI的发展之道。
浙江大学教授潘恩荣认为,面对生成式AI对人类经济社会发展带来的观念冲击,“宜疏不宜堵”。一方面,要克服各种恐惧和臆想,克制“堵”的冲动;另一方面,要在实践中小步快跑地迭代出各种“疏”的方式。
“只要我们负责任地对待AI,就能构建‘爱人类’的AI。”复旦大学教授张谧认为,科技行业应该负责任地发展AI,兼顾AI发展和风险管控。各方应该立足长远,携手营造有序竞争,把风险控制在防护能力的边界内,保障AI发展处于安全区域。
如何保障生成式AI高质量发展,中国科学院信息工程研究所技术副总师韩冀中建议,构建大规模、高质量、高安全中文数据集,构建权威、全面的大安全测评体系,研究可持续、高泛化安全防护技术,发展自动化安全评估、常态化风险监测手段。
据了解,阿里巴巴于2022年成立科技伦理治理委员会,并发布首部《AI治理与可持续发展实践白皮书》。2023年,AIGC技术取得重大突破,成为全球AI发展的主赛道,阿里巴巴聚焦最新趋势,联合发布本次《AIGC白皮书》研究成果。(记者 凌纪伟)