本文为论文精要,原文刊发于《广播与电视技术》2023年11期,请登录广电视听科技信息服务平台阅读和下载全文。
本文作者:
郝洺,施玉海 国家广播电视总局广播电视科学研究院
第一作者简介:
郝洺(1991—),男,国家广播电视总局广播电视科学研究院工程师,博士。主要从事人工智能、自然语言处理方 面的研究,曾参与过《海量语言常识知识库建设与构建 关键技术与系统》(国家 863)《基于广电体系的融合应急 通信关建技术研究与应用示范》(国家重点研发)等重大项目。
NO.0
引言
ChatGPT自推出以来,凭借其优质的互动体验和丰富的应用场景,在学术界和产业界受到广泛关注。本文深入剖析了ChatGPT技术原理与演进过程,分析其在广电行业中的应用场景,探讨其对广电行业带来的机遇和挑战,以及在使用过程中可能涉及的风险,同时提出一些未来发展的建议。
NO.1
ChatGPT的技术演进
ChatGPT是生成式预训练语言模型GPT在对话任务上的应用。GPT的技术演进路线如图1所示,GPT以Transformer的解码器为基础架构,通过使用生成式语言模型作为预训练任务,不断增加模型体量与训练数据,最终获得强大的语义理解与文本生成的能力。
图1 ChatGPT技术演进路线
2022年12月,OpenAI发布基于人类反馈的强化学习模型InstructGPT,其目的是解决训练好的大模型会生成不真实、有毒或者简单但没帮助答案的问题。该方法分为三步 :
1. 先由用户写出各式各样的问题,再由人类写出答案,然后用这个标注数据微调语言模型,该微调的模型称之为SFT。
2. 训练一个生成式语言模型,用该模型对某一个问题生成若干答案,再请人类对这些答案进行打分,根据分数选择 出最优、次优的回答。
3. 继续微调 SFT,将 SFT 生成的答案放进 RM 里边打分,使得生成的答案分数更高。
监督数据的加入极大地提升了模型的训练效率和性能,InstructGPT的模型大小只有13亿参数,且性能优于1750亿参数的GPT3。InstructGPT用于智能对话系统,即为ChatGPT。
NO. 2
ChatGPT在广电行业的应用
ChatGPT的核心技术可应用于广电行业多个领域,其中包括智能电视助手、个性化搜索、高效内容生产等应用场景。
2.1 智能电视助手
ChatGPT与意图识别技术结合,进一步提高人机交互的多元性和友好性。它可以作为“智能电视助手”预装到智能电视中,帮助老年用户等群体更加便捷地使用电视。它可以 多轮对话方式了解老年用户意图,通过聊天问询、语音操控等方式交互,为用户提供更加人性化、便捷的使用体验。
2.2 个性化搜索
ChatGPT可以与搜索技术结合,进一步提高用户对内容精准获取的可靠性和有效性。用户可以通过简单的语音指令,告诉 ChatGPT想要观看哪个频道或者播放哪个视频内容,当用户对自己需求描述不清楚时,ChatGPT可以通过多轮对话的形式帮助用户挖掘其检索需求。
2.3 高效内容生产
ChatGPT与多模态技术相结合,进一步提高视听内容生产的高效性和创新性。它可以通过给定主题帮助视听节目制作团队生成剧本,或根据剧本自动生成视频。ChatGPT 和多模态技术的结合为网络视听产业带来了更加广泛的想象空间。
NO.3
ChatGPT应用风险及建议
3.1 内容智能监管与审核
3.1.1 内容安全风险
ChatGPT模型可以基于输入的训练数据,形成对提问 者问题的回答,但是回答的有效性是不可靠的。这是因为 ChatGPT回复的是满足概率阈值的随机答复,模型本身并不 理解自己所说内容的真实含义。此外,在利用ChatGPT进行创作时,可能输出一些似是而非的内容,如不严加审核,会对视听节目产生负面影响。
由于OpenAI数据工程团队以美国为主,ChatGPT会以美国意识形态标准来回答敏感问题。在广电领域应用ChatGPT 需要把好意识形态关,切实防范意识形态风险。
ChatGPT采用已有数据来进行统计分析,输出的内容不具有自己的思想和创新,可能高度“参考”训练数据,会引发知识产权、个人隐私等法律问题。同时,ChatGPT存在偏 见的问题,它的回答有时会引起如性别歧视、种族歧视、宗教歧视等问题。此外,ChatGPT在伦理道德和价值观取向上也有偏见,这会对未成年人或不具备判断能力的人产生重大影响。
3.1.2 技术应用风险
ChatGPT是一个基于深度学习的自然语言处理模型,可以生成高质量的自然语言文本。然而,随着其广泛应用,一些负面影响也由此产生,主要为舆论生产和假新闻生成问题。
首先,ChatGPT可以被“带节奏的人”利用,生成大量违背事实舆论用于攻击个人和团体。这样的行为对于公众和社会的影响非常负面,容易导致不良情绪和社会冲突。其次,ChatGPT可以生成大量真假难辨的谣言和假新闻,这些谣言和假新闻不仅会误导公众,而且容易引发公众恐慌,影响官方的公信力。管理部门应当意识到ChatGPT在内容安全和技术应用时所产生后果的严重性,并采取措施减少它们对社会 的负面影响。
3.2 对策建议
为了在广播电视和网络视听行业中合理应用自然语言处理技术,需要研发自主可控的ChatGPT工具。本文建议建立人工智能技术协同攻关平台,协调创新资源,对GPT等语言模型进行国产化研发。在广电行业中使用ChatGPT时,需要结合行业垂直领域知识和相关数据进行微调,以满足行业要求。在训练过程中,行业主管部门应对训练数据集进行审核,以避免其产生负面影响。
同时考虑到ChatGPT在意识形态、有效性、法律等方面的风险,应明确其应用范围。如禁止在数字虚拟人互动直播领域使用,在内容生产领域将ChatGPT作为辅助工具,并加强对输出内容的审核。在诸如“电视助手”等产品中,应对ChatGPT功能进行限制,防止不法分子利用产品的安全漏洞实施犯罪。此外,通过制定人工智能伦理规则体系,构建集政府监管、社会监督、行业自律为一体的人工智能伦理治理机制。
在应用监管方面,应当鼓励研发内容鉴别技术,利用人工智能技术手段鉴定发布的内容是否为 ChatGPT等工具生成,是否严重偏离事实,为ChatGPT的应用提供有效的监管工具。同时强化使用单位的主体责任。使用单位应该加强对 此类应用输出的自监测,及时屏蔽负面的结果。发布任何由ChatGPT生成的内容需要对内容进行标注,注明该内容由AI生成。对利用 ChatGPT制造、传播虚假内容并造成公众危害的,加大处罚力度。
综上所述,ChatGPT作为生产力工具,对行业发展具有积极作用,应支持使用。同时,需要研发自主可控的ChatGPT 技术,并加强对ChatGPT 的应用监管,才能更好地服务于广播电视和网络视听行业,避免产生舆论误导和其他负面影响。
NO.4
总结
本文介绍了人工智能对话聊天机器人ChatGPT的技术演进,探讨了其在广电行业的应用、风险以及建议。ChatGPT是基于生成式预训练语言模型 GPT在对话任务上的应用,其模型架构为Transformer,利用生成式语言模型进行预训练,利用基于人类反馈强化学习方法微调。在广电行业中,ChatGPT可为智能电视助手、个性化搜索、高效内容生产和内容智能监管与审核等方面提供自动化解决方案,但也存在内容安全风险和技术应用风险。因此,建议从技术研发、内容管理和应用监管三个方面着手,加强相关技术研究、规范制定和监督管理,以便在享受智能技术所带来便利的同时,保障广大民众的安全和权益。
本文受广播电视科学研究院基本科研项目《适用于智能机顶盒的语音交互系统适老化关键技术研究》(JBKY20230180)资助。
end
参考文献
[1]VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all You Need [C]; Proceedings of the Advances in Neural Information Processing Systems (NIPS), La Jolla, California, USA: NEURAL INFORMATION
PROCESSING SYSTEMS, 2017.
[2] RADFORD A, NARASIMHAN K, SALIMANS T, et al. Improving language understanding by generative pre-training [J]. 2018.
[3] RADFORD A, WU J, CHILD R, et al. Language models are unsupervised multitask learners [J]. OpenAI blog, 2019, 1(8).
[4] BROWN T, MANN B, RYDER N, et al. Language models are few- shot learners [J]. Advances in neural information processing systems,2020, 33: 1877-901.
[5] OUYANG L, WU J, JIANG X, et al. Training language models to follow instructions with human feedback [J]. arXiv preprint
arXiv:220302155, 2022.
[6]贾骥业, 王林. ChatGPT爆火伦理安全拷问现行治理体系 [N]. 2023-02-21.
[7] 杨婕. 推动完善我国新一代人工智能伦理治理体系 [J]. 信息安全与 通信保密, 2020, (1).
《广播与电视技术》、“广电猎酷”广告经营与商务合作代理:
北京中广信通文化传媒有限公司
联系人:李聪
联系电话:18518221868
好文共赏请转发 有话要说请留言