微软将把必应聊天回复限制在 5 条以内,以防人工智能越界
2 月 18 日消息,微软表示,在必应聊天机器人多次失控几天后,公司将对其人工智能聊天机器人实施一些对话限制。
在发现必应存在侮辱用户、欺骗用户,甚至操纵用户情感等行为之后,微软决定将其其聊天回复限制在每天 50 个问题、每个问题 5 条回复以内。
“我们的数据表明,绝大多数人都能在 5 次回复内找到他们想要的答案,只有大约 1% 的聊天对话会产生 50 条以上的消息” 。
据介绍,如果用户触发五条回答的限制,Bing 将提示他们开始一个新主题以避免长时间的聊天。
本周早些时候,微软警告说,这些包含 15 个或更多问题的长时间聊天会话可能会使必应“变得重复或被提示 / 激怒给出不一定有帮助或不符合我们设计的响应。” 微软认为在五个回合后结束对话意味着“模型不会混淆”。
微软目前仍在努力改善必应的设计,但目前还不清楚这些限制将持续多久。微软只表示:“随着我们不断获得反馈,我们将探索扩大聊天会话的上限。”
IT之家各位或多或少听过,科技圈上周掀起了一次关于聊天机器人的小高潮,微软和谷歌都试图通过展示早起版本的 AI 搜索来先发制人。微软更是宣布,该公司的 AI 搜索仅用 48 小时就吸引 100 多万人注册。
这种技术可以针对用户的问题直接给出答案,看起来就像是真人创作的一样。微软 CEO 萨提亚・纳德拉(Satya Nadella)表示,该技术“或许会掀起知识工作的工业革命”。但对于担心准确性的人来说,人工智能还有许多不足之处。
在微软进行演示时,这项嵌入在必应搜索中的类 ChatGPT 技术分析了 Gap 和 Lululemon 的财报。但业内人士将其给出的答案与财报原文对比后却发现,这款聊天机器人遗漏了一些数据,甚至会杜撰一些内容。
“必应 AI 在演示过程中给出了一些完全错误的答案,但却没人注意到。”独立搜索引擎研究员德米特里・布里尔顿(Dmitri Brereton)写道,“相反,大家都对必应的宣传欢欣鼓舞。”
布里尔顿发现,除了财务数据上的错误外,微软在演示中针对吸尘器规格和墨西哥旅行计划的回答可能存在事实性错误。布里尔顿最初并不是为了给微软“挑刺”,他只是在细致对比微软和谷歌的答案时意外发现了这些问题。
人工智能专家称这一现象为“幻觉”,也就是说,基于大语言模型生成的工具有杜撰内容的倾向。上周,谷歌推出了一款与之竞争的人工智能工具,演示过程中同样存在事实性错误 —— 但当时的错误很快就被人发现。
相关文章
- SpaceX 因未能及时向 FAA 报告发射数据而被提议罚款 17.5 万美元
- 江苏省首个高速公路数字人民币应用场景在南京落地
- 马斯克旗下Twitter关闭印度两大办公室,要求在家办公
- 《2022中国大模型发展白皮书》:百度文心一言大模型位列第一梯队
- 高通即将发布骁龙X75和第三代固定无线接入平台,5G时代新连接体验来了
- 容纳多元观点,OpenAI公司开发的ChatGPT将允许用户自定义设置
- 联想集团第三财季营收创历史新高 第三财季运营利润率达7.3%
- 沈抖:文心一言将通过百度智能云对外提供服务,云市场游戏规则将被改变
- 微软宣布将于 3 月为 Microsoft 365 客户提供昵称选项
- 麦当劳将在德国推出无鸡麦乐鸡 人造肉在德国市场首先试水
- Meta推出类似Telegram的广播频道,扎克伯格亲自下场
- 微软:与 AI 增强版必应长时间聊天会导致“翻车”
- 新一代搜索引擎 "New Bing" 出现主观意识引发用户担忧
- 博鳌亚洲论坛 2023 年会将于 3 月 28 至 31 日在海南举行
- 曝三星电子等晶圆代工厂开工率在下滑,甚至部分 8 英寸厂商已逼近 50%
- 毫末智行推出全球首个自动驾驶认知大模型 DriveGPT,4 月公布最新进展