Home云端城市微软如何布局2024 AI新战略

微软如何布局2024 AI新战略

Author

Date

Category

微软凭着与OpenAI的深度结盟,是目前三大公云在GAI(Generative AI,生成式AI)竞赛中的领先者。微软执行长Satya Nadella在Ignite开场演讲中强调:「我们相信,未来会有一款Copilot,可以让每一个人用来做任何事情。」他认为,Copilot是全新的介面,可以用来存取世界知识和企业知识的全新介面,也是可以对这些知识采取行动的代理人,因此,微软的GAI战略是要打造一个端到端的Copilot技术架构,提供完整且一致的Copilot体验,来实现这个愿景。

愿景是发展通用型Copilot,让人人能做任何事

微软在Ignite发表了这个Copilot技术架构,目标是能实现让使用者透过一款通用(或体验一致)的Copilot,就能做到任何事。这个技术架构,主要分为三大层,最上层是App应用层,包括微软提供的不同类型专用Copilot,以及企业自制Copilot,中间层是AI调度层,而下层还可细分为三小层,包括了以微软Cloud为底的AI基础架构,基础模型和AI工具链层,以及「你的资料」层。下面这三小层,透过Auzre AI各种服务的调度,可以与上层微软各种Copilot和GAI应用整合。整个Copilot技术架构,套用了同样的安全和资安控管框架中。

微软对於AI基础架构的发展策略是,把全球300座机房、60云端区域的Azure,视为一台世界电脑(World Computer),有能力通吃各种异质基础架构,而且从核心运算、网路、机柜到电力设计,都要能用来加速AI,「为了因应AI时代,资料中心全面要重新定义。」Satya Nadella强调。

Copilot技术架构分为三大层,最上层是App应用层,包括微软各种Copilot及企业自制Copilot,中间是AI调度层,下层可细分为三小层,包括了以微软Cloud为底的AI基础架构,基础模型和AI工具链层及资料层。(图片来源/微软)

微软也开始自行设计专用CPU

除了运用Nvidia、AMD的晶片产品来提供的算力实例,微软在AI基础架构布局上最大的改变是,开始设计自己的晶片。微软在Ignite发表了第一款自行设计的处理器Azure Cobalt 100,采用64位Arm架构、128核心的处理器,而且已经用於微软自家的服务Teams、Azure SQL服务等,预计2024年开始提供给顾客使用。另外,微软也发表了第一款自己设计的AI加速晶片Azure Maia,专用於LLM模型的训练和推论之用,采用5奈米制程,多达1,050亿个晶片。微软甚至打造了使用Azure Maia加速晶片的整柜式AI系统,整合了超高速频宽技术,甚至有冷却高速网路的机柜内冷却管设计,还透过演算法来优化这套系统的软硬体设计。这套Maia系统已经用来执行微软自家的AI服务上,像是GitHub Copilot就是用这套系统来执行推论。微软先用於所有自家产品服务的工作负载上,未来再考虑扩大提供给第三方的工作负载。

AI基础架构再往上一层则是基础模型和AI工具链。这些工具不只可以支援上千亿参数的LLM模型,也会支援数十亿参数特定任务的小语言模型SLM(Small Language Model)。在Ignite大会上,微软宣布Azure OpenAI服务的基础模型开始提供GPT-4 Turbo、GPT-4 Turbo with Vision、DALL-E 3的预览版。另外,也开始支援GPT-4的微调,企业用自己的资料来训练客制化的GPT-4。在OpenAI服务的Model型录上会提供多种微软精选的开源或商用模型,像是Stable Diffusion、Code Llama、Mistral 7B或是Nvidia的Nemotron-3 8B等。这些模型都可以整合到微软的模型安全护栏(Guardrail)机制,来控管输出的内容符合企业的政策。

微软也推出LLM模型即服务(Models as a Service,MaaS),提供第三方LLM模型的代管API服务,透过API呼叫就可以使用,开发者不用自己调度背後的维运,也支援微调的课模型客制化。例如微软和Meta合作开始提供Llama 2 as a service、Mistral as a Service或是阿拉伯语LLM的Jais as a Service服务等。不只大型语言模型,微软也发表了新的小语言模型,微软研究院开源释出自己开发的Phi 模型第二版,只有27亿参数,但是数学推理能力比前一版提高50%,也会提供这款小语言模型的MaaS服务。

在Ignite大会上,微软还发表了两款新的GAI开发工具,一款是用来涵盖了完整AI开发生命周期的开发工具Azure AI Studio,另一款则是Copilot Studio开发工具。

Azure AI Studio是通用型的AI开发平台,提供了从模型建造、训练、评估到部署的过程,也内建安全机制,开发者透过选单就可以快速设定不同安全控制项目的控制强度能,也支援安全和可解释性AI功能。这款工具可将GAI延伸到Windows环境,用来打造本机端的客制化SLM,整合到企业的桌面应用中,也可以用来微调Azure上的GPT-4模型。微软也将Nvidia的生成式AI基础架构AI Foundry Service搬到Azure上提供,包括他们的模型,开发框架,工具等,包括DGX Cloud。

而另一款GAI开发工具Copilot Studio,则可以用来打造、客制和管理企业自己的Copilot,内建了许多商用软体的外挂,例如SAP、Workday、Service Now,也可以快速将Copilot连结资料库或企业自家後端系统,这款开发工具最大用途是将Copilot整合到企业内部的日常应用和系统中。Satya Nadella补充,Power Platform是前一代App平台,而Copilot Studio是下一代的应用平台。

在微软GAI工具链的上一层是资料层,微软正式推出了资料平台Microsoft  Fabric,已有超过2万5千名企业顾客试用过。这个平台提供了完整的分析平台,资料湖架构以及BI分析工具。另外,正式版也增加了一个镜像功能,可以将企业现有资料仓储、资料库、其他公云的资料,都连结到Fabric上,方便作为模型训练的资料来源。至於AI技术架构中,资料层之上的AI调度,微软没有太多着墨,只简单带过提到所有技术架构中的服务,可以透过Azure来提供调度机制。

最上层的GAI应用层,包括了微软自家App、微软Copilot和企业自己的Copilot。微软在2023年先後在不同自家产品上推出了整合ChatGPT聊天机器人的产品,像是Bing Chat、Dynamic 365、Windows 11、Microsoft 365、SharePoint、Power平台,现在这些产品上的AI助手都改名为Copilot,来统一微软产品内建AI助理的品牌和体验。搜寻用Copilot,更变成了独立的服务,可以使用多种主流浏览器,另外还推出了企业版Copilot的搜寻服务,会结合商用资料保护机制,企业员工透过微软ID机制,不用付费就可以使用企业版Copilot的搜寻。

上图为微软第一款自行设计的处理器Azure Cobalt 100,具备64位Arm架构与128核心,已用於微软Teams、Azure SQL等服务。(图片来源/微软)

整合M365生态圈和GPTs生态圈

去年11月,微软正式推出了M365的Copilot,可以透过Microsoft Graph来支援各种Office应用,更要将3.2亿人使用的Teams,视为提供AI体验的关键通路。微软的Copilot可以支援M365的外挂程式,也可以支援OpenAI的GPTs,等於把M365生态圈和ChatGPT的GPTs生态圈整合起来。

除了程式开发辅助用的GitHub Copilot,微软还推出了多款不同用途的专用型Copilot,例如针对资安维运团队出了第一款资安Copilot,也有销售团队Copilot,可用来辅助处理交易,还新推了客服Copilot,可以将Copilot整合到企业CRM工具,来存取CRM资料,来提供客服中心的辅助。

下一步,微软开始尝试将AI整合到混合实境场景与量子运算场景,例如在2024年1月推出3D沉浸式体验应用服务Mesh,使用者透过Copilot,可以用自然语言提出请求,快速打造出数位虚拟空间中的各种元素,例如直接说要有一个办公室,有桌子,椅子等,都可以快速产生,完全不用写程式码。

 相关报导 

黑豹加速器安全吗

0 0 投票数
Article Rating
订阅评论
提醒
guest
0 Comments
内联反馈
查看所有评论

Linda Barbara

Lorem ipsum dolor sit amet, consectetur adipiscing elit. Vestibulum imperdiet massa at dignissim gravida. Vivamus vestibulum odio eget eros accumsan, ut dignissim sapien gravida. Vivamus eu sem vitae dui.

Recent posts

Recent comments

0
希望看到您的想法,请您发表评论x