微软宣布,Windows 11将接入ChatGPT。这一次,微软要打造大模型时代新的交互入口,并表示出了全面拥抱人工智能的决心。“All in AI”,科技巨头们的“诸神之战”也日趋白热化。
当地时间5月23日,微软Build 2023年度开发者大会上,微软CEO纳德拉就表示,大会将一口气宣布超过50项和人工智能相关的更新,其中他重点提到了5个,涉及到了Windows、Office 365、Copilot、Bing、Azure云等微软的重头产品和服务。
在其中,最引人注目的一项是,微软表示将在Windows系统中全面接入AI助手Windows Copilot。这也意味着,Windows Copilot将成为全新的PC助手——或许,它的潜力会比Siri更为强大。
ChatGPT在年初爆火,作为OpenAI的大股东之一,微软表示旗下产品要全线嵌入ChatGPT之后,在大模型落地上,成为了业界风向标企业之一。它的动向,也愈加被各大科技领军公司所关注。
从争相推出大模型,到接入垂直产业应用,“All in AI”已经成为科技头部公司的“诸神之战”。纳德拉的这场演讲也表明,微软全面拥抱AI和大模型的决心,并不只是说说而已。一场人工智能时代的产品迭代运动,逐渐走向白热化。
大约两年前,微软旗下的GitHub首次引入了Copilot(副驾驶)的概念,Copilot工具旨在为开发者们提供编程辅助服务。现在,在ChatGPT大模型的加持下,Copilot迎来全面升级。它可以帮助用户完成有需要的认知工作,包括生成图像、音视频,写编码,写邮件和稿件,再到制定工作计划和日程等。
在Build大会上,微软公布的Copilot“大礼包”中,最为引人瞩目的,就是它把Windows 11也“塞”了进去。微软首席产品官在介绍的博文中表示,“Windows是首个为客户提供集中式AI辅助功能的PC平台。”
在即将发布的Windows 11中,新的Windows Copilot将在任务栏中显示。用户可以向其输入问题并获得解答,在使用方式上,它类似于现在新Bing的AI对话功能。但Windows Copilot不仅能够进行AI对话或生成文本,它还能调用Windows系统里的各个组件,也更像是用户的PC版智能助手了。
Windows Copilot的使用场景更丰富了:它可以帮助用户处理文档,进行内容的解释、总结;它也可以帮助用户调整PC设置,比如让它把电脑调成夜间模式;用户可以用它生成图片,发给相关工作群组;此外它也可以直接帮助用户打开音乐App,推荐和播放相应的歌单等等。
当然,它也可以作为PC上直通Bing/ChatGPT体验的门户。用户可以向其提出一系列问题和需求,比如可以通过它查看时间、制定出行日程,查找航班和酒店等。
实际上,PC的AI助手大众在此前也并不陌生。包括苹果的Siri,以及微软自己的小冰、小娜,都是这一类型的工具。AI助手也广泛应用在了手机、音箱等智能硬件中。但在实际场景中,它们仍然是有反应延迟、理解不够准确、不够“聪明”的种种问题。
但现在,借助大模型的强大语言理解和推理能力,AI助手的这块短板或许能够在未来被补齐。而随着Windows系统接入微软的ChatGPT“全家桶”,PC交互或许也迎来一次颠覆性的改变。
这意味着,微软为Copilot打造了一个巨型的“全家桶”。包括Word、Excel、PowerPoint、Outlook等,这些每天有数百万人都在使用的程序中,用户都将与大模型能力支持的AI助手一起工作。
此外,微软表示,Copilot还将逐步登陆可视化数据分析工具Power BI、网站快速构建工具Power Pages等。
在大会上,微软还推出了名为Microsoft Fabric的全新分析平台。据纳德拉表示,这或将是自SQL Server以来,微软推出的最大规模的数据产品。作为一款“AI时代的数据分析工具”,Microsoft Fabric集合了用户所需的所有数据和分析工具,包括数据工程、数据集成、数据仓库、实时分析等。
为了扩展大模型的能力,插件是必要的一环。OpenAI在今年3月就推出了ChatGPT插件,为开发者提供便利。微软也在近期公布了Bing插件。在大会上,微软进一步宣布采用与OpenAI ChatGPT相同的开放插件标准。这意味着,开发者用任一平台开发的插件将同时适用于ChatGPT和微软的工具服务。
为帮助开发者训练模型、拥有AI能力,微软推出了Azure AI Studio,可以帮助开发者更便捷地将外部数据源整合到Azure OpenAI服务中,构建智能AI应用程序和Copilot。
另外一个重大变化是,微软还宣布,Bing将被引入ChatGPT,作为其默认搜索引擎,提供实时检索的答案。这项功能即时就可向ChatGPT Plus用户推出,并很快将覆盖所有免费的ChatGPT用户。
在今年3月,微软祭出Microsoft 365 Copilot,公布office全家桶接入GPT-4时,不仅引发了业界的震动,更让普通用户们的惊呼——一个简短的提示,Copilot就能给你写文章、改文字、做总结、生成PPT和Excel,10亿打工人,居然率先被技术给“革新”了。
当时的功能,还只是文本生成,AI通过GPT-4的能力来进行创作和总结内容等。现在,AI助手的应用场景变得更加多元,能力也提升了。比如在微软的演示中,还展示了一份法律文件,选用了相关的Copilot插件,要求AI对合同条款进行修改,并询问这项合同是否适用于所在地法律,并对文档调整和总结。
比尔盖茨之前曾表示,未来的人工智能个人助理将影响深远。现在看来,这也意味着,能在这一方面起到引领作用的公司,或许将成为下一个时代的主导者,改变商业游戏的部分规则。
微软把PC的AI助理、插件、云服务结合起来,正试图打造新的交互入口,带领大模型时代新的软件服务生态。
“All in AI”,All in大模型。大模型的研发热潮已席卷所有具有实力的科技公司,并已开始延伸到应用服务上。继微软宣布office接入ChatGPT能力后,在今年4月18日,办公软件钉钉就发了一条斜杠“/”,演示了在接入阿里通义千问大模型后,如何通过输入它在钉钉唤起10余项AI能力。
但事实上,对于大模型的商业化如何“拓荒”,各企业也都还在探索之中。入局的国内头部企业,基本采用的都是“模型+工具平台+生态” 模式,基于自身业务,形成竞争壁垒,同时向产业化应用延伸。
大厂之所以能狂飙进大模型,是由于它们身为大厂本身的长项:在大算力、算法研发方面的持续投入能力,在人工智能领域的长期积累,在数据和产业场景方面的天然优势。百度和阿里这样的巨头已经占据了先机、布局生态的情况下,后续入场的选手们面临的压力也可想而知。
因此,新的问题诞生了:当前国内已有几十个大模型存在,而市场中是否真的需要这么多大模型?尤其是,这是一场高投入的“持久战”,而最终企业的商业化目标是否能够实现,还是个未知数。
据估算,ChatGPT这类大模型的训练一次的成本接近千万美元,运营成本一个月要数百万美元。此外,是算力的瓶颈。英伟达曾透露,训练GPT-3大约使用了1000张A100 GPU芯片,该芯片官方价格约1万美元/枚。在国内市场上,受制于贸易限制,英伟达高性能芯片供给也严重不足。据相关报道,目前国内云厂商拥有的GPU主要是英伟达中低性能产品(如英伟达A10)。拥有超过1万枚GPU的企业不超过5家,其中拥有1万枚英伟达A100芯片的企业最多只有1家。
李彦宏曾在和媒体对话时表示,现在国内AI大模型创业公司想成为“下一个OpenAI”的机会很低,没有必要重复“造轮子”。
出门问问创始人李志飞在投入大模型创业后,上个月也在自己的朋友圈发文表示,两个月时间过去后,他已经是“大模型劝退派”。不是因为竞争的原因,而是聚焦落地的大模型,他认为国内将会有几十家,“卷出天际,大概率跟上一代AI公司一样商业化异常艰难”。
通用大模型或许终究还是巨头们的“诸神之战”。这场战争虽然还刚起步,但科技巨头们的整体生态和模式,都已经得到了改变。现在,微软又祭出了AI“全宇宙”的大招,对于其他科技巨头来说,要想“接招”,也需要进一步的深思熟虑。
风险提示:雪球里任何用户或者嘉宾的发言,都有其特定立场,投资决策需要建立在独立思考之上