“现实不存在了”?据新京报贝壳财经报道,北京时间2月16日凌晨,OpenAI发布了第一个文生视频大模型Sora,随即引发热议。
Sora可以根据用户输入的提示词,生成长达一分钟的高清视频。虽然还没有公开使用,但在OpenAI官方分享的演示视频中,Sora可以直接输出有多个角色、多种场景和运镜的画面。
Sora的强大冲击,主要来自于两个方面。一是,Sora视频太逼真,“现实,不存在了”;二是,Sora视频水平很高,搞影视的要失业,短视频“彻底端掉行业饭碗”。
据OpenAI发布信息,Sora主要功能包括:根据文字提示生成视频;静态图片生成视频;对视频进行填充和扩充等。
显然,上述功能均并非Sora首创,很多其他工具可以不同程度实现。不过,其生成效果并不能令人满意,并且很容易出现错误。而此次,Sora则将生成视频的质量提升了一大步。
Sora可以生成长达1分钟的视频,大大超越此前类似工具。不仅如此,Sora视频还可以一镜到底,多角度镜头切换,并且对象始终不变。Sora视频,更可以运用景物、表情和色彩等镜头语言,表达出如孤独、繁华、呆萌等情感色彩。
总之,Sora的AI视频效果,几乎和人工拍摄不相上下。也因此,虽不是从0到1的原始创新,却已足够令人震惊。
比如,当前的短视频时代,Sora既然可与人工媲美,制造短视频的专门团队可能就面临下岗危险。要知道,短视频的摄影、导演、剪辑等任务,Sora“一个人”费点电就全包了,想不刷屏都不行。
未来,各种不同用途的Sora短视频,或许会很快充斥各种视频社交平台,其对现实的影响与改变,不可不谓之巨大。
OpenAI也在其发布中宣称,Sora将成为实现通用人工智能(AGI)的重要里程碑。
但是,不管Sora是否“理解”世界,也不管Sora视频多么逼真,始终仍是数字模拟,而不是真实拍摄的现实。
常言道,眼见为实,耳听为虚。但在AI短视频建构的世界中,显然不能将眼睛看到的东西作为判断依据了。
Sora的应用,无疑将进一步加剧当代社会的后真相状况,真实与虚拟的边界进一步模糊,甚至完全被消解。这需要我们高度警惕。
什么是后真相呢?简单地说,各种信息与通信技术和人工智能工具的使用,使得人们身处真假难辨的环境之中,久而久之越来越忽视所谓客观事实,思考问题、处理问题、评价问题越来越诉诸个人的情绪、情感、信仰和成见。
在网络上,后真相状况表现得尤其明显。雇佣来的网络水军在网络肆虐,各种谣言、阴谋论层出不穷。更多的是无根据的、随口一说的灌水,到处是情绪化的站队、开怼、开骂,完全没有耐心也不想搞清楚真相是什么,“干就完了”。于是,网络消息不断反转,且剧情离谱。Sora的出现,可能进一步加剧这一状况。
当然,指出Sora可能导致的社会风险,并不是要一棒子将之打死。对于新科技的发展,社会要有足够的包容性。但是,在大规模将之推向社会之前,应当充分预估其风险和挑战,提前做好应对的准备。
就后真相问题而言,首先每个人都要意识到身处虚实交织的时代。对接收到的所有信息,养成质疑、反思和批判的本能,切不可听风就是雨。并且,如果有需要,要对信息源进行仔细查证、比对和分析,提高甄别信息真假的能力。
对于相关企业和行业而言,必须不断提倡行业自律自查自纠,尽到内容提供者的审查义务。而政府应该根据相关管理要求,细化规制办法,如显著标识为AIGC(生成式人工智能)内容,或将之一律归为娱乐或广告,不得与事实和新闻相混淆。
至于Sora的出现,可能导致大量的影视等相关行业从业者失业,更是不可忽视的重大社会风险。
其实,关于AI大规模应用可能引发的失业问题,已经有汗牛充栋的深入研究,也提出了很多应对方案,包括延缓AI技术的应用速度,帮助再就业,征收AI税等。现在,Sora一夜刷屏提醒我们,要将这些措施稳步细化实施,而不能再仅仅停留在“刷屏”上了。
撰稿 / 刘永谋(中国人民大学吴玉章讲席教授、国家发展与战略研究院研究员)