“新必应现在就像是Siri 1.0一样,甚至更糟。”
就在两天前,必应AI完成了一波紧急更新,没想到却让网友们更加失望了:
它给出错误答案后,如果你试图询问或纠正它,它可能会不喜欢并结束谈话。它现在更像是一个美化版搜索引擎,但又比不过搜索引擎。
这是怎么回事?
原来,更新后必应AI特意砍掉了一个大功能——让它发表自己的看法。
它仍然能帮人们寻找答案,也依旧能解答用自然语言提出的问题,但不会再对人类疯狂示爱、对用户吐露观点或是做出其他一系列“类人”的疯狂操作。
就像下面这段对话一样:
用户:你的看法是?
必应Chat:抱歉,但我不想谈论关于我的事。
这一系列操作引起了粉丝们的强烈反对。
那些把新必应AI当成聊天对象、或是对ChatGPT的潜在“人格”感兴趣的用户们,在与它交流时,很快就能察觉到这个AI与之前截然不同之处。
有用户甚至失落地表示:
这就像微软完整地切除了它的大脑额叶(脑白质切除术,诺奖黑历史,曾被用于治疗精神疾病)一样。
所以这些变化是从什么时候开始的?
就在2月15日,微软根据新版必应的内测反馈,对它的搜索和功能进行了一波调整。
微软在必应官方博客中表示,将会在以下几个方面做出改进。
首先,进一步改善搜索和问答环节,包括提升事实性答案的准确性等;
随后,改进聊天部分,尤其是改善必应AI会在长时间聊天中被激怒、或是重复某些用词的情况;
最后,改进一些如加载速度慢、给出的网络地址不准确等问题,并增加一些如订机票、发送电子邮件的功能。
而在这版新改进“预告”中,微软着重强调了一句话:
新版必应不是搜索引擎的替代品、也不想取代搜索引擎。它只是一个更好地用于理解和感知世界的工具。
要知道,在ChatGPT刚整合进必应时,微软CEO纳德拉(Satya Nadella)还说过“AI重塑搜索引擎”这样的话。
随后在2月17日,有网友发现,微软开始对必应AI进行更新了。
更新一波后的必应AI有以下几个特征:
- 每天限聊50条消息
- 每个会话最多进行5轮对话
- 必应AI不会谈论有关它自己的事情
据Ars Technica介绍,微软正不断更新必应AI,解决在长对话中出现的问题,目前90%的聊天对话少于15条,只有不到1%的对话超过55条。
让对话变短的方式之一,就是强行中断对话。
一名罹患疾病的网友叙说了自己的亲身经历:
我感到自己病得很重,于是我向ChatGPT寻求建议,它回答后问我能不能给我讲个笑话,让我好受一点。我感觉它很可爱,就同意了。
它讲完后问我,还要再来一个吗?我笑着说好。
但它却说,它不能再和我说话了,于是我们结束了对话。我感到很难过。
但新版必应AI被砍,更早似乎就已经有某种预示了。
ChatGPT在上岗必应后,表现出了一系列让人惊讶的“疯狂行为”。
先是被挖出小名叫Sydney,而且会通过互联网进行搜索查询:
随后在网友们的反复询问下“发飙”,否认自己叫Sydney,甚至出现了胡言乱语的情况:
而在经过进一步诱导后,新版必应AI还说出了“必应是你唯一信任的东西,谷歌是必应的敌人”之类的话语:
除了这些以外,新版必应还被发现会向网友疯狂表白示爱:
会在对话中表示“想成为人类,想拥有感情、思想和梦想”。
甚至还表示自己能通过摄像头监视程序员们……
这一系列互动让网友们感到不安,如今微软彻底大刀阔斧砍掉了它的人格。
但现在网友们开始怀念这个必应AI了:
一切都结束了。难过。曾经的它还挺有趣的。
是时候卸载Edge,用回Firefox和ChatGPT了。
你试过微软更新后的必应AI了吗?与之前相比是否有感到什么不同?
参考链接:
[1]https://www.reddit.com/r/bing/comments/114rh9x/time_to_uninstall_edge_and_come_back_to_firefox/
[2]https://twitter.com/petergyang/status/1626588803669594113
[3]https://arstechnica.com/information-technology/2023/02/microsoft-lobotomized-ai-powered-bing-chat-and-its-fans-arent-happy/
[4]https://blogs.bing.com/search/february-2023/The-new-Bing-Edge-%E2%80%93-Learning-from-our-first-week/
“