OpenAI 为 ChatGPT 增加了持久化个性选项
OpenAI正在推出一项新功能,允许ChatGPT用户为聊天机器人设置一个持久的人格和指令集。该功能将适用于所有聊天窗口,可用于确保聊天机器人始终以某种一致的方式回应。该公司表示,该功能将首先以测试版的形式提供给美国的Plus订阅用户,未来几个月内将逐步扩大范围。OpenAI表示,在使用这些指令训练模型之前,会移除其中的个人身份信息(照片由Camilo Concha/Shutterstock提供)。自定义AI人格的功能已经在支持ChatGPT的GPT-4 API中实现。第三方开发者在构建自己的应用程序和界面时可以使用这一功能。例如,企业开发者可以用该API构建本地文档的搜索界面,并设定其始终以正式语气表达,同时设置某些限制词汇和语言避免使用。该公司表示,添加此功能是对近期全球巡回活动中用户反馈的回应。公司举出的一个例子是,一名教师使用ChatGPT来帮助设计课程计划,但每次开启新的对话时,都需要重复输入“我是一名三年级科学老师”。其他例子还包括提供工作场所信息、职位描述,甚至用户家庭成员的数量。OpenAI表示,新设置也可以用来分享特定领域的专业知识,避免每次开启新对话时都要重复解释。小说家也可以用它来分享角色设定,或提供过往写作样例,以帮助聊天机器人每次都使用用户的写作风格。“ChatGPT将在之后的所有对话中考虑你的自定义指令,”一位发言人解释道。“模型每次回应时都会参考这些指令,因此你无需在每次对话中都重复你的偏好或信息。”这是ChatGPT最新推出的一系列新功能之一。今年3月,OpenAI推出了ChatGPT的插件功能,允许用户连接外部数据源。其中一些数据源包括航班信息、研究论文和Wolfram Alpha。OpenAI还增加了更多的处理能力,如生成图表和整理数据集。在插件功能取得成功后,OpenAI还推出了基于Bing的浏览功能,但后来由于未说明的原因已撤回。ChatGPT的安全与隐私 OpenAI表示,已更新了安全措施,以考虑用户可能提供的各种新指令,包括确保这些指令不会违反使用政策。模型也被授权在某些情况下拒绝或忽略指令,以避免产生违反政策的回应。提供给ChatGPT的指令将用于提升模型性能,包括将其反馈到未来的训练中。这是一项默认功能,但可通过数据控制选项关闭,就像对话本身一样。“我们采取措施在将自定义指令用于提升模型性能之前移除其中的个人身份信息,”一位发言人表示。网络应用Fishbowl在2月进行的一项调查显示,70%的员工在工作中使用ChatGPT处理公司信息,且并未告知雇主。另一项更近的由全球网络安全公司Kaspersky进行的调查显示,58%的员工正在积极使用ChatGPT来节省日常任务的时间。网络安全情报公司Oxylabs警告称,这可能使雇主面临一系列法律和合规风险。来自我们的合作伙伴 内容:技术团队如何推动公共领域的可持续发展 在混合云中寻找价值 通过数据中心运营优化业务价值 “尽管语言模型工具如ChatGPT具有明显优势,但我们也必须记住它们仍不够完美,因为它们容易产生未经证实的声明并伪造信息来源,”Kaspersky数据科学负责人Vladislav Tushkanov警告道。 查看所有通讯 在这里注册我们的通讯 由The Tech Monitor团队带来 信息、洞察和分析直达您手中 点击此处注册 “隐私也是一个重要问题,因为许多人工智能服务可以重新使用用户输入内容来改进其系统,这可能导致数据泄露,”他补充道。“如果黑客窃取了用户凭证(或在暗网中购买),他们也能访问保存在聊天记录中的潜在敏感信息。” 阅读更多:AI将在五年内为英国文官系统节省1亿英镑? 本文主题:人工智能、OpenAI
查看全文
作者最近更新
评论0条评论