OpenAI Canvas深度评测:迈向人机协作未来的小小一步

全文2220字,阅读约需7分钟,帮我划重点

划重点

01OpenAI推出了新功能Canvas,旨在让人机协作更加便捷,但仍有待改进。

02Canvas在AI生成内容基础上提供编辑功能,用户可以直接在原文上修改,方便实用。

03然而,通用修改功能不适合个性化需求,建议用户使用askChatGPT发出个性化的修改请求。

04此外,Canvas的emoji添加功能表现不佳,需要更个性化的调整。

05未来人机协作愿景需实现动态生成按钮,根据用户偏好和需求进行调整。

以上内容由腾讯混元大模型生成,仅供参考

一早醒来,毫无征兆地,看到 openai 推出了一个新功能:canvas。

左右分栏的布局让人想到 Claude,但它和 Claude 的 artifacts 又截然不同。少了 preview 功能,多了更符合人机协作需要的局部修改。

整体使用下来,我的感受是:canvas 在人机协作方向迈出了值得好评的一步,但也只是小小的一步。

让我通过一个示例来说明。
(例子中的文字并非本人审美,只是简单例子没有认知负担、大家更容易聚焦在 canvas 功能的理解上。

   

在 AI 生成的内容基础上编辑——非常有用

我拍了几张照片,让 AI 帮我写朋友圈。

图片

它帮我生成了下面的文字,准确捕捉了照片的精髓,提及书籍和椅子下面的猫

图片

三个段落从概要到细节到观点,还是挺清晰的。但,这样的文字风格对朋友圈太不友好了。我尝试让它直接改,效果一般。退回,自己在原文上修改第一段,然后要求它帮我改剩下两段。

敲黑板:直接在原文上修改,很方便!

图片

它说它改好了。我一看,怎么还是大坨的文字?

图片

责问它,它显得很无辜。

图片

然后我才意识到,其实它有做独句成段,但是 canvas 显示存在 bug,有些换行没被识别。于是我手工换行,顺手删了三个啰嗦的词。我们来和最初版对比一下,改进的效果很是明显。

图片

so far so good。可以在 AI 生成的内容上编辑让我感觉非常好。

敲黑板:示例很重要。绝大部分的改进,是 AI 在我第一段的示例下作出的。此外,别和 AI 较劲,代码有 bug 时它也挺无奈。

   

通用的修改功能不适合个性化的需求——无力吐槽

接下来试试 suggest edits 功能。一试我就崩溃了。
洋洋洒洒它给出了一大堆英文建议。喂,一篇中文文章你用英语给我提建议是几个意思?

图片

我立刻知道自己不能对 suggest edits 有啥期待——连中英文的个性化都做不到,我对文字有什么偏好、我希望文字背后能体现出怎样的价值观或生活哲学,这些更无从谈起。
我无脑点击 apply 接受所有的建议,果然得到一个悲催的结果。

图片

我向它表达了我的不满。它迭代了一版。

图片

我再进一步给建议,告诉它有些句子“太装了”,它又改进了一丢丢。但,这么多努力之后,也还是陈词滥调。

图片

其实得到这么糟糕的结果一点不意外。因为 suggests edit 按钮点击后只是用 user 的角色发一条通用的且质量差到令人发指的 prompt:

图片

在我的想象里,这个功能至少要根据前面的整个对话记录,来确定修改的方向。如果记忆开启,它还应该生成更个性化的改进建议。
而像现在这样的通用改进,得到的建议只可能是垃圾。

敲黑板:想要改进文章?选中文字并通过 askChatGPT 发出个性化的修改请求。千万别指望它产品自带的 suggest 功能。

   

添加 emoji ——这么简单的功能其实也没做好

无奈,回退到之前的版本(顺便夸一句,canvas 右上角的 undo/redo 功能很好用)。

不使用 suggests edit 了,尝试个简单的功能:让 AI 帮助给文字添加 emoji。(毕竟,连奥特曼都在让大家投票了呀。)

图片

但事实上这个功能并不太好:生成的内容像是对照着词汇表进行了一次替换,感觉非常生硬。

图片

用开发者工具检查了一下,难怪……它其实只是以 user 的角色发出了这么简单的一句提示词:

图片

还得我自己耐心调教:

图片

得到的结果好了很多。🤯🧘‍♀️⏰✨🧡🛋️ 等 emoji 的使用挺贴切,也是我自己不太能想到的。

图片

让它改成几个 emoji 连用,也更有趣味了一些。

图片

图片

这样一个小例子,其实充分说明了个性化的需要——大语言模型作为人类智慧的加权平均,如果不加任何调教,它给出的符合平均值偏好的结果,通常也就是平庸的结果。需要人机互动,使用者展示自己的审美,要求 AI 捕捉并应用,才能得到更符合使用者期望的结果。

   

离人机协作终极愿景的距离还很远

本来还想评测一下编码功能。但瞄了一眼右下角的功能键,只有添加注解、添加日志等玩具级别的功能(且实现功能的还是草台班子的提示词),立刻失去了兴趣。AI 编程群里问 canvas 和 cursor 对比的朋友们,老老实实用 cursor 吧。什么时候看到大模型不再用贪吃蛇或俄罗斯方块做示例了,再来关注也不迟。

Canvas 能支持用户在 AI 生成内容的基础上进行修改,这很好。但目前右下角的按钮显然还太表面了——它至少应该先根据对话历史甚至记忆中的用户背景,生成个性化的 prompt,而不是使用草台班子写死的粗糙指令。

甚至,我希望整个 canvas 能根据当前的状态,动态生成不同按钮,而不是始终都有添加 emoji、调整长度和语言难度等等玩具级别的按钮占据着空间。

动态生成按钮的功能我已经期盼了一年多了。去年在任鑫的播客中我们就畅想过未来的 PS:

我说:头发感觉不太对,要调整一下
头发旁就立刻出现一堆控件:改颜色、改发量、改飘逸程度……
我点击“改飘逸程度”的滑动块,直到头发扬起的角度让我觉得无比舒坦
修改结束。
这将是 LUI 和 GUI 的完美结合。

指望 PS 言出法随、我说头发感觉不太对后,它立刻把头发扬起的角度改到我期望的样子是不切实际的——一千个哈姆雷特里,作为平均值的大模型不知道我想要的是哪一个。

Canvas 主创的推中似乎也在谈论这样的未来——一张空白画布,随着人类偏好而演变。

图片

但,这真的还非常遥远。

甚至,我不确定 openai 是否会考虑“让用户多一些提供信息的机会”。

因为即便是 o1 ,目前也并没能和人交互。它带着迷之自信、只想靠自举来完成任务

我常常看着 o1 这个愣头青左思右想蹭蹭蹭吐出一堆莫名其妙的话语,就想喊话——你瞎琢磨什么呢?你倒是停下来问问我啊?

我和朋友们之前写过的不少 GPTs,都会在生成答案前先梳理问题、主动向使用者提问,收集够信息后再开始工作,效果会比瞎猜然后抽盲盒要好太多。

我不知道 o1 不这么做,有什么特殊的原因。是因为想让 ai 去做人类无法指导它的事情吗?

有确切方法和答案、且能自行验证获得反馈的问题如数学题,可能确实不需要人类做啥(多数人包括我在内也真没能力对高等数学发表啥意见)。但是,如果把它设计成如果需要收集信息,就停下来先问问用户,偏人文的任务是否也能执行地好得多呢?

毕竟,这个世界,要比大模型丰富精彩得多。