目前的大模型,更像一个快速生长壮大的数字生命,脑力水平在根据积累的信息和大量用户反馈的信息不断提升,形成自我增强的闭环,类似人脑的发育。这个自完善的“闭环”也成为这轮AI热潮的新突破。大模型运行过程中的问题解决,不仅需要技术攻关,还需要商业模式的打通落地,国家引导政策、监管政策的跟进,形成良性闭环的生态环境。问题的存在,初期的无序,不会影响其快速的发展,切不要因为一时的未解难题而忽视其快速发展带来的潜在机遇。
(图片由AI生成)一是增强数据安全意识。大模型进行训练时会采用大量训练数据,且训练环节和训练数据集大都由科技巨头掌握,且大都不公开。同时,面向公众的聊天机器人也会收集用户输入的数据进行关联分析和模型训练。以ChatGPT为例,其可以对输入的历史问题进行关联记忆,形成具有记忆性的逻辑分析。同时将用户输入的数据也进行收集并用于模型的训练。用户输入数据前,要求用户通过手机号注册登录,这样就建立了用户账户与输入数据的关联。因此在使用类似AI系统输入数据时,需要提高数据安全的意识,注意尽量避免输入过多隐私数据,更不能输入涉密数据。二是推进与AI生态的融合共生。在以大模型为代表的新一轮AI技术发展浪潮中,AI逐渐形成自主创作的能力,未来广泛应用于各领域后,生态将会从量变到质变,构建起AI参与的新生态。到那时,媒体深度融合发展将迎来新的阶段,即媒体与全新的AI生态深度融合发展,打造新型的智能服务型媒体。首先需要融入AI生产形成诸如智能语音、智能生成等新型的内容生产方式。其次要适应AI生态形成的诸如智能机器人、智能家居、智能交通等新型内容传播方式。第三要适应AI生态下用户的新型信息消费习惯,将信息植入更多时空关联的消费场景,实现与用户更实时的交互,提供更实时的在线服务。三是健全内容责任制体系。未来,AI生成内容会越来越多,对互联网内容信息真实性、准确性的监管将面临新的挑战。监管部门需要根据AI生成内容的新特点、新情况、新现象,在内容生产、审核、传播的全流程中完善规章制度,形成完善的责任体系和监管体系。补充完善现有的《互联网信息服务管理办法》《互联网跟帖评论服务管理规定》等制度,理清、明确各主体责任,形成全覆盖的内容治理体系。模型设计开发者承担虚假、错误信息的规避、处置责任,研究虚假信息的规避算法和技术手段,对公众反应的模型生成的虚假信息功能及时处置,避免对公众造成不良影响。信息平台和内容发布者承担内容审核责任和虚假、错误信息处置责任。对AI生成的内容承担审核、核实职责,避免虚假信息的网络传播。公众承担虚假信息发现、举报职责,对发现的虚假信息、错误信息向内容发布者、信息平台、监管机构等反馈、举报,及时消除不良影响。(节选自《人工智能大规模语言模型的运行逻辑与传媒应对》,刊于《中国传媒科技》2023年第2期,略有修改,本文标题为新加)(大众新闻客户端 汤代禄 AI配图 李姝蒙)
免责声明:本文来自网络收录或投稿,观点仅代表作者本人,不代表芒果财经赞同其观点或证实其描述,版权归原作者所有。转载请注明出处:https://www.mgcj.net/1086337.html
温馨提示:投资有风险,入市须谨慎。本资讯不作为投资理财建议。