Video Player is loading.
Current Time 0:00
Duration -:-
Remaining Time --:-
This is a modal window.
The media could not be loaded, either because the server or network failed or because the format is not supported.
Beginning of dialog window. Escape will cancel and close the window.
End of dialog window.
https://flv1.gmw.cn/gma/20240308/20240308152201807_5653.mp4
【网络强国·百人谈】
“近年来,以ChatGPT、Sora等为代表的人工智能大模型突破性成果,意味着人工智能开始走向大规模应用,但在应用之中也存在风险。”2024年全国两会期间,全国人大代表、南昌大学元宇宙研究院院长闵卫东表示,人工智能大模型产生的内容几乎可以以假乱真,且可能由于训练数据的偏差而带来错误倾向。对于新技术带来的风险,我们不用太害怕,但需要采取必要的应对措施。
“只有基于安全可信的人工智能技术,才能保障其高质量发展。” 闵卫东代表建议,要在研发及商业应用等阶段,均加强技术手段来防范和鉴别人工智能技术应用带来的内容风险;应由法律法规进行底线性保障,并完善相关监管机构;此外,需加强在人工智能方面的国际合作,通过相关国际标准和认证体系,对开发及应用作出统一规范。
监制:张宁 策划:李政葳 采访:刘昊 制作:曾震宇、孔繁鑫 设计:刘昊
光明网、《信息安全研究》联合出品
“网络强国·百人谈”更多内容
欢迎扫码关注专栏
[
责编:王一涵 ]
阅读剩余全文()