日前,OpenAI旗下AI聊天机器人ChatGPT在模型选择器中新增“Auto”模式。据悉,该模式已在ChatGPT的多端上线。
据OpenAI方面透露,ChatGPT的自动模式可根据用户输入提示词的复杂程度,来自动选择最合适的AI模型。在该模式下,ChatGPT在面对复杂的提示词时将会优先选用最先进的模型,而对于较简单的提示词,则将换用速度更快的模型、以减少响应时间。
据了解,目前ChatGPT可提供GPT-3.5、GPT-4、GPT-4o,以及o1-preview(预览版)和o1-mini等模型。其中o1-preview和o1-mini属于最新推出的o1(以下简称为o1)系列大模型。据悉,o1在响应之前会像人类一样花更多时间进行思考,并能够通过训练来学会完善思维过程、尝试不同的策略,甚至认识到自己的错误。
但需要注意的是,上述两款o1系列模型目前仅限ChatGPT Plus、ChatGPT Team,以及ChatGPT Enterprise和ChatGPT Edu用户访问。此外OpenAI方面曾透露,未来将逐步提高o1-mini模型的API访问级别和速率限制,并在限制放宽后提供批量定价优惠。而在价格方面,o1系列模型的价格预计将遵循每1至2年降价的趋势。
除了新增更多模型选项外,此前在2024年年初,OpenAI还为ChatGPT新增了多语言功能。该功能允许用户将ChatGPT的界面转换为简体中文等语言,从而为非英语用户提供更便捷的体验。同年5月,该公司宣布面向所有ChatGPT用户开放GPT-4o模型,以及更多高级功能,其中包括互联网搜索、数据分析、图表创建、视觉、文件上传、访问GPT应用商店等。
随后在7月底,OpenAI已向部分ChatGPT Plus订阅用户开放了基于GPT-4o的高级语音模式(Advanced Voice Mode)测试,并宣布将在今年秋季逐步扩展至所有ChatGPT Plus用户。据悉,这一模式除了可以提供更自然的实时对话、允许用户随时打断之外,还能够感知或响应用户的情绪语调,包括悲伤、兴奋等。
近日OpenAI还对ChatGPT的系统快捷指令进行了扩充,新增“/picture”和“/search”两项指令,从而进一步改善其交互体验。具体而言,用户在与ChatGPT对话时只需输入“/”,就会弹出包含“/picture”和“/search”在内的快捷指令窗口。其中“/picture”指令能够直接调动OpenAI的文生图模型DALL-E,即便没有具体的提示词也能够生成图像。
在输入“/search”指令后,用户则可以进入一个新的搜索模式。在这一模式中,ChatGPT将对用户输入的任何信息进行查询搜索。即便没有输入任何内容,ChatGPT也会记忆上次讨论的内容、并提取相关信息。
【本文图片来自网络】