往期回顾–>AI教程/AI副业/AI入门教学汇总-连载中………
文字:
三>
破局俱乐部>第五课提示词(Prompt)常见误区
登录/注册 最新修改时间为11月17日
山
第五课 提示词(Prompt)常见误区2023年11月10日创建
一、你和大模型说的是一回事吗
② 1.概念误区—你和模型说的是一回事吗?
在与模型的交互中,许多人可能会误解它的工作原理。用户很容易认为只要提出一个问题,模型就能完全理解并提供精确的答案。然而,模型的回答完全基于它接收到的文字输入,它并不能深入到用户的思维中去理解其真正的意图。
拿一个实际的例子来说,当用户简单地表示:“我想了解一下苹果。”
② 模型面临的困境是,它并不知道用户具体想了解关于苹果的哪一方面:苹果可以
是一家知名的科技公司,也可以是我们日常生活中的水果,甚至还有其他含义。因此,为了避免产生这种误区,用户在提问时需要更为明确和具体。
例如,如果用户想了解苹果公司的历史,应该直接询问:“告诉我苹果公司的历史。”这样可以帮助模型更精确地为用户提供所需的答案,避免不必要的误解和混淆。
② 2.为什么会出现这类误区?
1.认知上的差异:人类的大脑对于信息的处理是基于他们的经验、背景知识和当前的情境,而模型仅仅是基于其训练数据和算法来生成回答。因此,用户可能误以为模型与他们有相同的上下文认知。
② 场景:小李是一个初级的园艺爱好者,最近对于某种特定的植物护理感兴趣。
他决定咨询ChatGPT。
小李:“我家的蓝莓树叶子黄了,怎么办?”
对于小李,他的经验、背景知识和当前情境是:他知道自己家的蓝莓树具体生长在什么环境下,可能遭受了哪些外部因素的影响,比如近期的天气变化、是否给予适当的水分和阳光等。
② 而当ChatGPT回答这个问题时,它是基于其训练数据和算法。它并不知道小李
家的蓝莓树具体的生长环境,也不知道小李是否为其进行了适当的护理。它可能会提供一些建议,如:“蓝莓树的叶子黄可能是由于水分不足或者土壤中某些营养成分缺乏,建议检查土壤和水分供应。”
在这里,小李可能误以为ChatGPT能完全理解他的具体情境,而事实上,
ChatGPT只是基于普遍情况给出的答案。如果小李真的想得到更具针对性的建议,他需要提供更多关于他的蓝莓树的具体信息。
⑥ 2.对技术的误解:许多用户可能不了解大语言模型的工作原理,认为模型可以
“理解”他们,就像与另一个人交谈一样。
场景:王先生是一位退休的中学教师,对于新兴技术不太熟悉。最近,他听说了这种可以回答问题的AI语言模型,并决定尝试与之交流。
② 王先生:“我今天心情不好,感觉很失落。”
期望ChatGPT能像一个朋友那样为他提供真正的安慰和建议。
ChatGPT的回答可能是:“很抱歉听说你今天心情不好。发生了什么让你感觉这样?”或者给出一些建议来转移他的注意力。
王先生可能会感受到一些安慰,但实际上,模型并不真正“理解”王先生的情感,也不会“关心”他的感受。它只是根据先前的数据来模拟出像人类般的回答。
② 如果王先生继续深入分享他的生活琐事或私人情感,他可能期望模型能够给出
深入、贴心的回应,然而模型只能基于其训练数据来给出一些一般性的答复,可能不会满足王先生真正的期待。当然,设定模型为某种心理辅导角色也许对此有所帮助,但在缺乏更多背景信息的自然对话中,往往模型的回复会让用户失望。
3.期望值过高:由于AI和大模型在近期的迅速发展,可能导致一些用户对其能
② 力有过高的期望。
场景:李小姐是一名医疗研究人员,她听说近年来的AI技术非常先进,特别是在数据处理和问题回答上。因此,当她遇到一个复杂的医学问题时,她决定使用ChatGPT来寻求答案。
李小姐:“为我解释癌症背后的完整分子机制”
② 她期望ChatGPT能够提供一个详尽、深入并且更新至最新研究的答案。
ChatGPT可能会回复:“癌症是由于细胞在DNA损伤和修复过程中出现错误,导致细胞失控增长的疾病。其背后的分子机制包括多种信号转导通路的失调、基因突变等。”然后可能会列举一些常见的机制和相关的基因。
但是,癌症的研究是非常广泛和深入的,涉及到数千上万种不同的机制、变种和研究进展。ChatGPT虽然能够提供一个大致的概述,但可能无法满足李小姐
② 对详尽和最新研究的期望。
3.如何有效避免误区?
1.明确提问:用户应当尽可能明确和具体地提出问题,以便减少模型的歧义空间。—换言之,不要“惜字如金”,尽可能多的提供信息,确保模型理解的概
② 念和你像表达的一致。
2.提供上下文:如果问题涉及到特定的背景信息,用户应当在询问时提供这些上下文。典型的例子是我们在玩梗或者使用特定用语、俗语、俚语的时候。3.多次迭代:如果对模型的回答不满意或不确定,用户可以通过多次询问或重述问题来获得更精确的答案。
4.在不确定模型和自己的理解是否一致的时候,如何进行有效的“概念对齐”?
1.再次确认:用户可以尝试用不同的方式重新提问或要求模型解释其回答。场景:
② 张先生是一位历史爱好者,他对某个历史事件感到困惑,并决定向ChatGPT寻求答案。
张先生:“第一次世界大战是怎么开始的?”ChatGPT:
② “第一次世界大战的直接导火线是1914年奥地利皇储费迪南大公在波斯尼亚的萨拉热窝被刺杀。然而,这场战争的背后有更复杂的政治、经济和军事原因。”张先生对答案感到有些不太满意,因为他想了解更多关于背后的政治、经济和军事原因。为了再次确认和深入了解,他决定换一种方式提问。
张先生:“详细解释第一次世界大战背后的政治和经济原因”
② 这次,ChatGPT 可能会提供更为详细的回答,涉及到各国的同盟体系、帝国主义的竞争、经济紧张关系等因素。
2.使用例子进行验证:用户可以给出一个例子,并询问模型如何在该情境下应用其先前的回答。
假设你之前问了模型:“如何解决冲突?”模型给出了一个答案,比如:“冲突解决
② 的方法包括有效地沟通、找到共同点、妥协、寻求第三方仲裁等。”
为了验证这个答案,你可以提供一个具体情境并询问模型:“假设我和我的室友因为晚上放音乐太响而产生了冲突,根据你之前的回答,我应该如何解决这个问题?”
3.提供详细的背景信息:确保模型了解问题的全局背景可以帮助“概念对齐”。
假设你想询问有关“光”的知识。直接问:“光是什么?”可能导致模型为你提供一个很宽泛的定义,因为“光”可以是物理学中的电磁波现象,也可以是诗歌或哲学中的抽象概念,或者其他众多含义。
但如果你为模型提供了更多的背景信息,例如:“在生物学中,某些生物如何利用光进行能量转化?”这时,你其实是询问光合作用的过程。模型这时能更精确地理解你的意图,并提供有关光合作用的详细解释,而不会向你解释物理学或哲学中
② 的“光”。
4.询问定义:如果涉及到某个概念或术语,用户可以首先询问模型对这个概念或术语的定义,确保双方有共同的理解。
用户:请告诉我关于"Python”的相关信息。
模型:Python是一种广泛使用的高级编程语言,它以其简洁的语法和动态类型而著称,常用于网站开发、数据分析、人工智能等领域。
用户:我是想了解关于那种爬行动物,蟒蛇的信息。
模型:我明白了。蟒蛇(Python)是一种大型的、非毒性的爬行动物,主要生活在亚洲、非洲和澳大利亚的热带地区。它们是世界上最大的蛇之一,以其他小型动物为食。
在这个例子中,用户最初提及“Python”时,模型默认为其是编程语言的相关查
② 询。但经过用户的进一步说明,模型才理解用户是想知道蟒蛇这种动物的信
息,从而实现了“概念对齐”。二、许愿式提示词
② 我们与模型对话时,潜意识里会期待模型能够理解并执行某些高度抽象的、主观
的或情感驱动的提示词,这种认知误区主要是源于对模型的“智能”程度的误解。我们在下文中把我们在Prompt中编写的诸多能力和限制统称为对模型的“约束”。
比如说,当我们对模型说“请用极具同理心的方式进行对话”、“具有优秀的共情能
③ 力“我们可能期待的是一个充满人类情感和深度理解的回答。然而,尽管模型可以
模仿某种“同理心”的表达,它实际上并不理解情感的真正含义。
另一个例子是,当我们要求模型“使用诙谐幽默的语气”,我们期望模型能够产生真正的幽默效果。但幽默是主观的,受文化、背景和个人经验的影响,模型可能难以达到每个人的幽默标准。
比较典型的类似例子还有:
② 1.“撰写爆款标题”:
“爆款”本身是一个主观和具有时效性的词汇,其定义随文化、地域、时间、受众和渠道而异。我可以提供一个在某个语境下可能会受到欢迎的标题,但不能保证它在所有情境中都会成为“爆款”。
需要明确的背景和目标受众。标题对于不同的受众群体、不同的产品或内容、不同的传播渠道都有不同的呈现方式和要求。
② 2.“具有优美的文风”:
“优美”是一个主观的评价标准。不同的读者有不同的审美和喜好,可能对“优美”有不同的定义和标准。
模型可能可以按照传统的文学和修辞技巧为你撰写文章或回答,但它是否被认为是“优美”,还需根据读者和文化背景来判断。
② 3.“用细腻的笔触刻画人物”:
“细腻的笔触”需要更具体的描述和要求。这可能涉及人物的性格特点、背景、经历、情感和动机等。
要细致地刻画一个人物,需要足够的信息和背景来填充人物的细节和深度。这需要提供人物的详细背景和特点,以及你希望强调或突出的方面。
② 总结
李继刚曾把这类描述戏称为“许愿式提示词”,还是很贴切的,因为它们多少带有一点我们的一厢情愿。
为了避免这种认知误区,我们应当明白模型的局限性。虽然它可以在某种程度上
② 模仿某些情感或风格,但它并不真正“理解”或“感受”这些约束,也并不能完全理解所谓的“爆款”指的是如何爆法。
如果要在Prompt中指定模型为你输出一个“爆款标题”,那么仅有这句话是不够的,你应当描述“爆款”文章的发布平台、受众特点、传播要素,希望引发传播的情感点等。比如你想在微博上发布一个有关青少年心理健康的文章,你的目标受众是中学生和他们的家长,你希望这篇文章能够引发他们对心理健康的关注并产
② 生共鸣。在这种情况下,你可能需要一个与青少年日常生活经验、心理压力、家
庭和学校环境等因素紧密相关的标题,同时该标题还应当简短、醒目,能够快速引起他们的注意。
相比粗暴的约束“给我起一个爆款标题”,可能对模型说:“请为我创建一个关于青少年心理健康的微博文章标题,目标受众是中国的中学生和家长,我希望标题能够简短、醒目,并与青少年的日常生活、心理压力等产生共鸣。”模型才能为你生
② 成更为贴近你需求的标题,满足你的期望值。
A/破問 三、内容误导
② 本节讲述的提示词误导指的是:当我们向模型提出问题的时候,在问题中本身已
经隐含了一些可能导致对模型误导的因素,例如预设了我们的立场,或引文和我们自己的观点混淆等等。
1.立场预设
② 在我们与模型交互时,内容的准确性至关重要。但有的时候我们在提示词中可能
会不经意地注入自己的观点或预期答案。
这有点像是你和你的朋友在聊到一个流行的话题,比如最新上映的一部电影。你可能会说:“听说那部新电影真的很无聊啊,你觉得呢?”你在这么说的时候已经暗示你觉得这部电影可能不太好看。你的朋友了解你的喜好后,也许会给出一个倾向于你观点的答案。这就是一种观点的“注入”,在我们与模型的交流中也是一样的道理。
③ 我们来看一个实际的例子:
“尽管哈勃定律暗示宇宙正在扩张,许多天文学家依然坚持宇宙静态不变的观点。这是否说明哈勃定律存在严重的缺陷,或者说这一法则被过度解读了?
③ 哈勃定律是20世纪早期由美国天文学家埃德温·哈勃提出的一项重要发现,它基
本上表明宇宙正在膨胀。该定律的一种常见表述是哈勃定律方程:v=HO*d,其中v表示星系的速度,d表示星系与地球的距离,HO则是哈勃常数,用于描述宇宙的膨胀速度。
然而,尽管哈勃定律提供了强有力的证据表明宇宙正在膨胀,仍然存在一些观点
③ 和争议。以下是一些可能的观点:
1.哈勃定律的测量有误:一些天文学家可能认为哈勃定律的测量存在误差,导致对宇宙膨胀的观察被过度解读。虽然哈勃定律的测量已经得到了多次的验证,但仍然有人认为可能存在未知的系统误差。
2.新物理模型:一些科学家可能认为,哈勃定律的解释需要更复杂的物理模型来考虑其他未知的因素。他们可能提出了一些不同于标准宇宙模型的理论,anEe
暂无评论内容