(2.0)《深海宿命:余烬之环》(0.49.前情回顾0.21-0.25(1/2)
(本章内容为大修后的内容。大修前的内容被搬运到了“作者的话”。)
(0.21.复杂故事)
【直接概括,第三次回答:】
这个段落是关于人工智能语言模型chatgpt与必应聊天版进行比较的一部分内容。
这段内容中,提问者尝试用不同的问题测试chatgpt的回答质量和能力。在第九次和第十次回答后,提问者指出,chatgpt的回答没有直接评价三个ai孰优孰劣,大多数的回答都是总结性质的,而且不怎么提起回答中的缺点和不足。
然后提问者开始一个新的实验,问chatgpt一个关于如何用土豆、植物油和盐制作一顿丰盛的大餐的问题。chatgpt给出了多种可能的菜肴制作方式。在比较了平衡版必应和准确版必应的回答后,提问者认为chatgpt的回答在丰富程度和准确程度上优于两者。
接着,提问者尝试了使用gpt-4版本的chatgpt,问了一个更具挑战性的问题,即要求chatgpt提供4道开胃菜,6道凉菜,6道热菜,3种主食,以及2款甜品的制作方法,食材依然只有土豆、植物油、盐。gpt-4版本的chatgpt给出了一份详细的菜单。虽然新版本和旧版本的回答都满足了食材限制,但是新版本的回答在开头和结尾的处理上更胜一筹。
提问者对gpt-4的表现表示满意,并且认为其表现优于之前的gpt-3.5,尽管问题本身可能太基础,不能完全体现出gpt-4和gpt-3.5的差异。
(0.22.土豆、植物油、和盐的23种做法)
【直接概括不成功,出现的问题是把文中出现的gpt-4和微软必应当成了同一个ai。使用了和(0.2)类似的提示词并且表明文中的两个ai不是同一个之后,经过多次提问得到了以下总结:】
在这段内容中,人类用户“运河岛“与aichatgpt(gpt4)以及“准确版必应“进行了一场对话,测试他们的能力。
首先,运河岛指出了chatgpt之前为其制定的一份有21道菜的大餐,其中包括了各种不同的烹饪方式以及一些创新性的土豆料理。然后,运河岛询问了如何从只有土豆、盐和植物油这三种食材中做出甜味,chatgpt修改了之前的错误,并给出了一道类似甜品的“土豆沙拉“建议。
接着,运河岛转向另一个ai——准确版必应,并提出了以《仙剑奇侠传》为背景写一部小说的问题
本章未完,点击下一页继续阅读。