中新社北京7月21日电 (记者 刘育英)在本周北京举行的2023中国互联网大会上,以ChatGPT为代表的人工智能(AI)带来怎样的风险,以及如何管控这些风险,成为与会者热议的话题。
对于AI的发展前景,北京智源人工智能研究院院长、北京大学计算机学院教授黄铁军表示,今天ChatGPT有强大的智能,影响深远,未来3年,除语言外,大模型正在迅速扩展视觉、听觉、具身、行动等通用智能,影响将更大。
黄铁军预测,未来10年,智力革命已经打响,就像工业革命解放体力,就像电力革命解决能源流通,全新生态将构建,开源开放生态终将胜利。ChatGPT是数据驱动的静态智能,未来20年是时空环境驱动的具身智能,智能载体将是类脑的脉冲神经网络,有望像生物大脑一样涌现出更强的智能。
由于大语言模型的智能“涌现”,科学家尚不可解释其机理,黄铁军认为,“只要AI超过人类,人类想进行管控是不可能的”,因此不少业界专家反对训练GPT-5。
北京市通信管理局副局长王晖认为,人工智能在赋能产业过程中,带来的风险挑战有数据安全问题、算法安全问题、应用安全问题和行业安全问题。
中国电信集团网络和信息安全管理部总经理谷红勋表示,随着AI尤其大模型的广泛应用,网络攻击、数据泄露等风险日益凸显,过度采集、歧视性算法,滥用深度伪造等问题可能会带来影响社会经济运行的严重问题。
AI风险问题已经引起国际社会的关注。据媒体报道,当地时间7月21日,美国七家领先的人工智能公司,包括亚马逊、Anthropic、谷歌、Inflection、Meta、微软和OpenAI承诺接受白宫要求,帮助实现人工智能技术安全、可靠和透明的发展。
近日,联合国安理会首次就人工智能问题举行会议,来自15个成员国的外交官和人工智能领域的专家参与了这次会议,中方提出了五项原则。
大模型在中国得到快速发展。根据5月份发布的《中国人工智能大模型地图研究报告》,中国10亿参数规模以上的大模型已经发布79个,研发的大模型数量排名全球第二,仅次于美国。
中国互联网协会常务副秘书长陈家春表示,中国大模型发展活跃且快速,具体表现为计算能力不断提高、数据量不断增加、应用场景不断拓展以及研究方向不断深入。
中国从监管层到产业界,都高度关注防范AI风险方面并做出探索。7月13日,中国出台了首份生成式人工智能监管发展文件《生成式人工智能服务管理暂行办法》,提出坚持发展和安全并重、促进创新和依法治理相结合的原则。
奇安信集团副总裁张卓接受采访时表示,从《办法》可以看出,数据安全和隐私保护贯穿于生成式人工智能数据的标注、模型预训练、模型训练、提供服务等各个环节,避免了监管盲区导致的安全风险。
中国国内启明星辰、天融信、深信服等公司尝试把大语言模型用于网络安全。有些公司专门训练网络安全领域垂直的大模型,有些公司把大语言模型用于产品形态中。
如何管控大模型带来的风险现在还没有答案。“人工智能面临失控风险,但不用它是不可能的,如何控制AI的使用,确实是一个问题。”国家计算机网络入侵防范中心主任张玉清表示。
黄铁军表示,AI越来越强,风险与日俱增。如何构建安全的AI,现在还没有完整准确的答案。面对AI越来越强的智能程度,人类面临全新的挑战。(完)