ChatGPT的热度那么高,很大部分原因在于,大家受够了天花乱坠的画饼与现实中一个能打的都没有之间存在巨大反差,终于看到一个不智障的人工智能了。
ChatGPT,是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型(也就是AI语言模型),它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动。
根据凤凰网《前行者》采访,清华大学计算机科学与技术系教授黄民烈表示,ChatGPT已经超出了80%甚至90%人的对话能力。其他的像GPT-3,对话能力已经超出人类平均水准。
我对这个结论很感兴趣。
我并不担心ChatGPT会让PR失去工作,真正的PR工作包含大量极其精准而又无法陈列的部分,站在你面前给你讲三遍都不一定能听懂10%的那种。与ChatGPT擅长的归纳性的文字类工作有天壤之别。
我在意的是:公关是做关系的。对话能力是公关的核心技能之一。再有策略、再有想法,传达不出去,也等于放P,而且还是往自己脑子里放P。
这几天,各个行业的自媒体,都在狂发与ChatGPT的对话截图。大部分账号应该是对答案做过筛选。但从被当作素材放出来的问答来看,ChatGPT的对话能力已经高于大部分人类了。甚至,还能跑赢不少我的同行。
ChatGPT是AI语言模型,因此一定遵循逻辑和规律。通过拆解ChatGPT的回答方式,聊聊对话能力和表达技巧。
01 结构干净,大幅增加清晰度
除了一两句话就完事儿的,ChatGPT的回答基本上都有明确结构。结构一共两种:并列和递进。
真的,这个知识点所有人在九年制义务教育阶段就学过了。结果,实际上能在被提问后决定有什么结构进行回答的,少之又少。大部分的回答,说成香的就是一锅粥,说成臭的就是一坨屎,都糊在一块儿。
并列,应该是最常用的没门槛的结构。
有能力的,可以用递进。
拉结构,是最简单的提升答案清晰度的技巧,是一本万利的方便对方理解的操作。
写答案的时候拉不出结构,通常就是脑子里真的撒都没有。
02 先做概要,大幅降低理解偏差
要在最最开始的地方,用很少的几个字,做出概述。
最好4个字,4个字不行那就6个字,6个字不行那也不能超过8个字。
ChatGPT是这样做的。
强调一下,浓缩会降低表达的完整性,需要配合后面的展开一起使用。
但是,无法把后面要说的浓缩起来,通常就是对于自己到底在说什么也不是很明白。
03 用词到位,让行文变得舒服
看看上面说的概述,用词都是没毛病的。而且,也会尽量统一使用主谓、动宾、偏正这些结构。
我没有见过比央视、人民、新华用排比句用得更好的媒体。整齐排列会增加信息接受的流畅性,会觉得顺。
用词准确、排列整,倒是真的比较考验表达能力,不容易学会。
04 配上例子,有对应性
越是虚的称述,越是要配上实的例子。
要让没听过这话的人快速知道你在说什么,没有比配上一个他能看明白的例子,更好用的方法了。
多说一句,你不是人工智能,例子要平时累积,用的时候才会顺手。等到要用再去现找,找到的一般都不怎么样。不过,利用ChatGPT帮我们去找适合的例子,倒是可以期待一下。
05 多角度,增加完整性
这个世界已经有太多的“绝对”和“站队”了。
看看人家人工智能,好吧。
正面、反面都说,不等于和稀泥和中庸。用不同维度进行思考,并且形成整合答案,是高阶表达的基础。
只会盯着一个点,嚷嚷“就是这样”,根本不是本事,也不需要表达能力。
06 根据对方反应,调整答案
ChatGPT能记住早些时候的对话,并且根据用户的提示更正回答方向。
对话能力,一定包括根据对方的反应,做出调整。否则,还叫什么对话?但是,做出反应,也不一定要非得顺着对方说。
跟我接触过的小伙伴应该有感受的,我是“临场型”表达者,经常快速在对话中调整对话内容、程度、方向的类型,达到更有效的信息沟通。但是,我的反应基本都是“反驳”,哈哈哈哈哈哈哈哈哈。
07 可以认错,不要嘴硬
ChatGPT会承认自己有错,被认为是与其他AI的巨大差异之一,被媒体反复提及。
打死不认,在互联网时代的可行性很小了。在尽量不犯错的前提下,在保持对话的目的下,有的错还是要认。
08 大路货的回答,也可以了
如果这是准备面对大部分人的回答,那么,就不要搞得过于复杂。
坦白来说,目前大家晒的ChatGPT的回答,基本都是属于乍一看挺好、仔细看全废的类型。
再说的准确一点,你看不是自己专业的回答,会觉得还蛮好的。一看自己专业范畴的回答,全是BUG。
然而,大部分公众,也就只能接受这种大路货的回答。过于复杂的回答,只能向特定人群传递。
总有人问,给媒体回答不是应该更有深度吗?请问对接什么媒体,媒体拿回去是发给谁看的?
对话与表达,是公关永远需要磨练的技巧。
一切有用的,都可以学。包括跟ChatGPT学。