上一页 全文阅读 下一页

第151章 如丧考妣的微软纳德拉(二合一4.4K)(3)

这是萨提亚纳德拉最关心的两个问题。

ai这个东西,从根本上来说,流程就那么几步:1、获取信息,2、分析和判断,3、决策。

微软的工程师们全面剖析了无界系统,将整个操作系统的操作逻辑分为了三大块。

一个就是融合感知——它调用多种硬件设备获取信息。

这一步是最简单的,只要有传感器,就能把信息采集过来。

甚至,他们还从中国的二手市场拆解了一批华为mate70pro系列的tof、摄像头、姿态感应器。

这些传感器采集到的原始数据就那么些,看起来一点儿也不复杂。

第三步,决策其实也不难,拿到第二步分析和判断的结果之后,如何决策其实是显而易见的。

问题就在于第二步,这个分析和判断怎么做?

几个传感器采集到的原始数据就摆在那里,微软联合openai的工程师在那分析了两天两夜,就是没有想明白:

白驹科技,或者说是小沙,是怎么利用这些数据就分析出操作意图来的?

他们怎么一点儿都搞不明白?

“要说这是ai的能力,”萨提亚纳德拉这个时候已经咬牙切齿了:“我认为不完全是。”

萨提亚纳德拉之所以这么说,是因为ai界是有一个共识的,那就是:仅凭智慧,ai是不可能超过人的。

而微软这两天做了一个实验,是这样的:

让测试者使用无界系统,而他面前除了一个手机,还坐着十个人。

在使用融合感知结合ai深度学习的操作意图控制手机的时候,这十个人也同时在分析测试者的使用或者操作意图。

但是,结果很显然,无界系统识别的很精准,但是人不行。

微软重复了数百组的实验,结论就是如此。

“ai肯定只是一方面,”openai的创始人,现在专注于怎么让新人类更听话的山姆阿尔特曼说道:

“这一段时间,我们一直关注ai了,但是你们别忘了,机器相比于人来说,它本身就有速度快、精度高、范围广的优点。

“比如传感器采集的数据,肯定比人观察到细节的要更多。但这种多,确实不至于让系统能够识别使用者的操作意图。

“不过,传感器的信息丰富程度加上ai融合,双管齐下,那就可以实现了。”

上一页 全文阅读 下一页
  • 今日热门
  • 本周排行
  • 阅排行
  • 年度排行
  • 最新更新
  • 新增小说