国资委确保人工智能技术符合国家安全要求的路径案例分析
国资委作为央企的 -大家长-,在央企AI发展这事儿上可操碎了心,走的是 -技术自主、安全治理、协同创新- 这么几条路,既要保国家安全,又得促进技术创新呢。
咱先瞅瞅全球AI安全治理这大环境。
国际上,AI安全形势可紧张啦。
2024年MIT《技术评论》报告说,2023年全球AI安全事件比上一年多了67%呢,关键基础设施被攻击的事儿占到30%,像美国科罗拉多电网就被AI算法攻击,停电了12小时。
而且大国之间博弈也厉害,美国出台《2024年AI国家安全法案》,要全面管制对华AI技术出口,欧盟也搞了 -AI主权云- 计划限制非欧盟企业。
咱中国呢,《新一代人工智能发展规划(2023 - 2030)》明确把 -安全可信- 当基本原则,要求2025年前50%以上关键AI技术得自主化。
央企更是挑大梁,到2024年,98家央企里有73家都设了AI专项部门,全国80%以上关键领域AI系统建设都是它们在搞,像高铁调度、核电控制这些。
在技术自主可控上,国资委让央企使劲搞AI底层技术研发,像南方电网的 -电力AI创新平台-,用国产芯片和操作系统,算力自主可控超200P,电力调度啥的误报率降了好多;煤炭行业的 -矿山中控- 系统,核心代码自有率超90%,生产调度场景开发效率大大提升。
央企还建设原创技术策源地,像国家电网联合高校研发的 -电力大模型-,在2024年国际AI竞赛里打败谷歌DeepMind算法呢。
安全治理体系这块,数据安全和隐私保护得做好。
金融领域得给客户信息脱敏,中国移动在 -一带一路- 项目里把数据本地化存储。
算法安全也重要,医疗AI得通过认证,招聘AI得有伦理审查。
风险评估和动态监管也不含糊,央企把AI应用分了四类风险等级,像国家电网的智能巡检机器人、中石化炼化AI控制系统,都通过各种手段提升了风险应对能力。
产业协同与生态共建也有动作。
国资委推动组建 -中央企业AI创新联合体-,中国电科和航天科技联合开发的 -九天- 大模型省了不少研发成本。
央企还参与制定国际标准,华为在AI伦理标准上提的原则被纳入国际电信联盟白皮书。
不过也有挑战,高端AI芯片还得进口,2024年国产化率才30%,复合型AI安全人才缺口有50万人。
对策也有,设立专项基金,构建 -产学研用- 生态链。
国资委的治理路径能归纳成 -三层防御- 模型,从技术、制度、生态层发力。
成效也挺明显,2024年央企AI专利里底层技术占比提高,国产深度学习框架市场占有率提升,风险事件也减少了。
未来还有新方向,技术上搞量子AI安全、生物启发安全,治理上弄 -AI安全数字孪生- 平台。
像国家电网构建数字孪生系统,拦截攻击的能力大大增强;中石油改进AI伦理审查机制,员工多样性都提升了。
国资委的实践给发展中国家提供了范式,-防御性创新- 能降低地缘政治风险,-敏捷监管- 能平衡创新和安全。
不知道未来在全球AI竞争大舞台上,咱还能走出啥新花样呢?您怎么看?
Powered by kok中欧体育app @2013-2022 RSS地图 HTML地图
Copyright Powered by365建站 © 2013-2024