未来 Copilot AI 将可在电脑上直接运行,但算力达标的处理器至少得等到年中

现阶段已经提出了 AI PC 概念的 Intel 居然抢先微软宣告,要将 Copilot AI 实装在 PC 上的最低系统需求。 并且提到 Copilot 套件很快将可直接安装在电脑本地端进行运用。

未来 Copilot AI 将可在电脑上直接运行,但算力达标的处理器至少得等到年中

看到在生成式 AI 发展初期,有点算是被微软揶揄的 谷歌 积极在手机乃至于其他系统实装本地化的大型语言模型的布局。 很多人都在期待微软针对自家的 Bing / Copilot 提出类似的发展方向,甚至还有机会带动包括 Windows 以及 PC 产业的全新发展方向。

有意思的是,已经提出了 AI PC 概念的 Intel 居然抢先微软宣告,要将 Copilot AI 实装在 PC 上的最低系统需求。 并且提到 Copilot 套件很快将可直接安装在电脑本地端进行运用。

未来 Copilot AI 将可在电脑上直接运行,但算力达标的处理器至少得等到年中 -

虽然有些人会觉得 AI PC 这个概念在初期阶段,好像就是个可以通过精美 Copilot 按键唤出 AI 来使用的感觉而已。 不过如果接下来能够直接在本地端实装 Copilot AI 的话,显然就能让工作任务的执行少了很多服务器端的延迟,显著提升与 AI 一同工作的效率。

根据 Tom’s Hardware 的报导,Intel 透漏微软认为要在 PC 上实装 Copilot AI 将需要至少 40 TOPS 的 NPU 算力。 然而有点尴尬的是,就目前看来似乎仅有瞄准在 2024 年中正式推出 Snapdragon X Elite 平台号称拥有这样的实力(规格是 45 TOPS)。

Chrome 浏览器终于原生支持 Windows on Snapdragon

不过既然会在Intel AI Summit提到实装Copilot AI在PC上的议题,显然他们肯定是准备好了对应这样需求的次世代产品 -「We have our next-gen product that’s coming that will be in that category.(我们有款定位在此类别的次世代产品即将问世)」,而他们实际上也真的这样宣告了。

是说关于本地端 Copilot AI 的细节其实还很少。 但就笔者猜测,也许会采取像是谷歌 Gemini AI模型那样分成不同等级的概念?

毕竟以Intel提到的可以在本地「执行更多东西(run more things)」的讲法来说,目前普遍猜测即便是在 40 TOPS NPU 算力的加持下,本地端能执行的项目依然不太可能非常完整 – 但也可理解,毕竟本地端锁定的应该是需要更快反应的任务,太复杂的东西不仅会对于用户的硬件有太高的要求,通常也都会预期将有一定的延迟。

至于实际上微软将会如何规划 Copilot AI 接下来对应本地端运行的软硬件配套策略,则可能要等到微软正式公布细节才能知道了。

(0)
打赏 微信扫一扫 微信扫一扫

相关推荐

发表评论

登录后才能评论