点击右上角微信好友
朋友圈
请使用浏览器分享功能进行分享
【网络强国·百人谈】
“近年来,以ChatGPT、Sora等为代表的人工智能大模型突破性成果,意味着人工智能开始走向大规模应用,但在应用之中也存在风险。”2024年全国两会期间,全国人大代表、南昌大学元宇宙研究院院长闵卫东表示,人工智能大模型产生的内容几乎可以以假乱真,且可能由于训练数据的偏差而带来错误倾向。对于新技术带来的风险,我们不用太害怕,但需要采取必要的应对措施。
“只有基于安全可信的人工智能技术,才能保障其高质量发展。” 闵卫东代表建议,要在研发及商业应用等阶段,均加强技术手段来防范和鉴别人工智能技术应用带来的内容风险;应由法律法规进行底线性保障,并完善相关监管机构;此外,需加强在人工智能方面的国际合作,通过相关国际标准和认证体系,对开发及应用作出统一规范。
监制:张宁 策划:李政葳 采访:刘昊 制作:曾震宇、孔繁鑫 设计:刘昊
光明网、《信息安全研究》联合出品
“网络强国·百人谈”更多内容
欢迎扫码关注专栏