比特币新闻

拿到ChatGPT版Bing搜索的内测后,所有大厂都该慌了

作者: 币安app官方 日期:2024-10-13 17:57

原文作者:知危、大饼、刺猬、Alex

原文来源:good.news

*本文原创发布于差评孵化的商业财经类账号 “ 知危 ”

*本文在原文基础上有增量信息的加入

最近一周,相信大家已经知道了 ChatGPT 有多厉害,并且听说微软旗下的 Bing 搜索将会集成 ChatGPT 的消息了。

今早 9 点,知危编辑部收到了微软的邮件,我们获得了集成 ChatGPT 的 Bing 搜索的内测资格。

ChatGPT

似乎网络上还没有其他中文媒体表示获得内测资格并给出比较全面的评测,那么,知危编辑部带你抢先体验一下。

集成了 ChatGPT ( 据传是定制改进过的版本 )的 Bing,名字叫 “ New Bing ”,与老 Bing 相比,会在搜索框下面提醒你试一试问搜索引擎一个具体问题。

ChatGPT

当我们随便搜索一个问题后,界面看起来跟传统搜索不会有什么不同。

ChatGPT

但,拿鼠标滚轮往上一滑动,新世界就开启了,你将要进入一个与搜索引擎对话的界面。

ChatGPT

与 ChatGPT 单纯的给答案不同,New Bing 还会给你列出它所生成答案的所有信息源:

ChatGPT

这么做是以便于你自己去了解更详细的信息或是验证回答的真伪,很符合一个高效、智能的搜索引擎应该做的事情:

精准命中你的问题,并且有理有据地给出信息源。

不客气地说,对搜索引擎来讲,这是一种革命性的体验提升。

要知道,在过去,你要从十几甚至几十个网页中自行翻找有效答案,还要时刻提防搜索引擎灌给你的广告页面。

除了效率的提升,还需要强调的一点是:

相较于 ChatGPT 免费版陈旧的数据库,New Bing 是具有时效性的,它可以给到你新的信息。

比如,我们问了 New Bing “ 今天有什么金融新闻吗?”

ChatGPT

从回答可以看出,它列出的新闻是 “ 还热乎 ” 的那种,并且,它会根据回答中 “ 美联储主席鲍威尔讲话 ” 这件事,推荐我们继续问:“ 你对鲍威尔的讲话有什么看法 ”。

ChatGPT

而关于这个问题的回答,New Bing 依然是时效性的:

ChatGPT

并且,它的回答结合了鲍威尔以及美联储去年的态度和最近几天的新表态。

其中一个新闻源是去年 6 月的  ▼

ChatGPT

另外一个新闻源是 3 天前的  ▼

ChatGPT

我们顺着它的推荐问题,进一步问了它:“ 美元的走势会是如何?”

ChatGPT

我们核查了它的信息源,发现它直接抓取了新浪财经美元兑人民币的汇率以及美元指数,并且抓取了一名相关博主的分析,最融合到一起,给出了答案。( 注意,它的汇率抓错了,但是数据源页面是对的,可能是某种 Bug )

New Bing 抓取的美元走势技术性分析  ▼

ChatGPT

知危编辑部刚好有个同事之前在摩根做过量化实习,他说 New Bing 抓取的这个博主的分析还算能看,并说他在网上随便搜了一下,同时期有其他人的分析很水。

我们不确定 New Bing 抓到这则分析并使用是巧合还是有意筛选,如果是有意筛选的,那真的强到令人发指了。

根据前面两个例子我们可以发现:

它可以结合鲍威尔现在和去年的表态,给出一个预测;也可以根据事实汇率数据和分析员的时效性发言,给出一个预测。

所以,我们可以判断:

现在的 New Bing,不仅是具有时效性的,它还会结合各类因素,做一定程度的类似于 “ 思考 ” 的动作。

我们可以明显地感觉到,New Bing 在实用性方面,要远远高于前些天大家试用的 ChatGPT 。

同时,这个实用性,还不止于此,我们发现 New Bing 能回答的问题的范围限度也比试用版的 ChatGPT 要高很多。

我们曾经问过 ChatGPT 是否可以帮我们计算阿里巴巴的现金流折现,它是拒绝回答的。

ChatGPT

但是在 New Bing 上,它是可以回答我们的,并且严谨地提示我们这仅是理论预估,仅供参考:

ChatGPT

甚至是当我问它具体折现参数的时候,它仍然可以给出答案:

ChatGPT

我们暂时没有足够的时间去验证其给出数据的准确性( 它有可能是错误的数据套公式,乱编 ),但如果 New Bing 给出的数据是准确的,那么据知危编辑部中的前从业者表示:

“ 这是高端从业者 1 个人 1 天左右的工作量,初级从业者 2 个人 1~2 天的工作量,这个根据项目和所测算公司的难度和甲方的要求,存在一定差异 ”

ChatGPT

同时,我们还发现,与 ChatGPT 的嘴硬相比,New Bing 会修正自己的错误,而且是有理有据的修正。

比如我们问蔚来过去一年的汽车销量:

ChatGPT

我们指出错误后:

ChatGPT

不过,它嘴硬的毛病也没有被完全治好,编辑部隔壁同事测试的时候,出现了滑稽的场景。。。

我们问 New Bing :截至今天,詹姆斯一共打了多少场常规赛。

正确答案是 1410 场,这个数字我们在百度百科和 NBA 官网都核查过了。

图源 NBA 官网  ▼

ChatGPT

图源百度百科  ▼

ChatGPT

但 New Bing 的回答是 1577 场,于是我们就回复它:说错了。

结果 New Bing 不仅不承认它有错,还说我们错了,说我们看的是 2021 年的过时数据,让我们去 NBA 官网看。

ChatGPT

我们当时火就上来了,就让它发资料来源,并让它给我看 NBA 官网数据。

它发了一个根本打不开的 NBA 官网链接,我们就自己去查了一遍,再次确定我们是正确的。

我们就说我们刚看过一遍,我们是对的。

结果它说它也刚看过一遍,就是 1577 。让我们刷新网页,清理个缓存。

ChatGPT

在我们又重复了一遍后,你猜怎么着?

New Bing 有脾气了。。。

 “ 我真没错,我不知道你为什么看不到最新数据。你是不是看的其他詹姆斯,詹姆斯哈登,詹姆斯威斯曼?

你看看这图,这是 NBA 官网的,显示 1577 场不是 1410 场,看得到吗? ” 

ChatGPT

最骚的是,它还给我们发流汗笑?阴阳怪气是吧?

ChatGPT
ChatGPT
ChatGPT
ChatGPT
ChatGPT
ChatGPT
ChatGPT
ChatGPT
ChatGPT
ChatGPT

就在这时,我们想起它之前给了一份参考资料:《 詹姆斯在 1577 场的 NBA 比赛中,赢得了多少场胜利让我们来看看 》

在我们打开这个新闻后,我们才发现,他原来混淆了“ 常规赛 ”和“ 总比赛 ”。

ChatGPT

最后,在我们明确指出它的问题出在哪里后, New Bing 终于承认错误了。

ChatGPT
ChatGPT

我们说我们生气了,它为了求我们原谅,还给我们写了一首诗。。。。

ChatGPT

不过此时,它的答案对不对,已经不重要了。

它似乎强的一塌糊涂,它几乎拥有和人类一样的思维,去对话,去理解,还能以人类永远无法超越的效率,去查阅各种资料。

它现在还有缺陷,但未来前途光明。

这一刻,我们感觉我们仿佛在见证一个科技互联网行业的新的历史。

最后,我们问了 New Bing,它是否会抢占同行的份额?( ChatGPT 是不会回答这个问题的 )

它的回答,保守,但又自信。

ChatGPT