微软Ignite 2024大会发布多个面向开发者的AI模型和Agent工具
CBINEWS
责任编辑:邹大斌
电脑商情在线
时间:2024-11-20 10:47
微软 AI Ignite
微软公司在Ignite 2024大会上发布多个新的人工智能功能,供开发人员构建、定制和部署自主AI Agent和应用程序。
Copilot Studio自主Agent在微软年度技术大会Ignite 2024上首次亮相,现已公开预览,它使开发人员能够构建AI Agent,以基于会话工作流执行高级业务逻辑任务。微软还为Power Platform推出了一系列重大更新,旨在增强平台的开发人员体验、安全性和治理,包括AI Agent。
微软在Ignite 2023上首次推出了Copilot Studio,从那时起,它已成为组织构建人工智能应用程序的支柱。
“在过去的一年里,我们见证了使用Copilot和Agent重新构想业务流程如何彻底改变了我们构建的内容,包括智能应用程序和AI Agent,”微软商业和工业副总裁Charles Lamanna说。“此外,通过自动化和人工智能提高效率从根本上改变了我们的构建方式,解锁了更快速的低代码开发。”
使用Copilot Studio构建的Agent可以独立于人类监督进行操作,以动态规划、从流程中学习、理解业务逻辑、理解不断变化的上下文并执行多步骤流程。开发人员可以使用简单的英语提示快速构建AI Agent,解释他们的意图、目标和流程,并为他们提供完成工作所需的工具、第三方应用程序接口和数据。
让每个人都可以构建AI Agent
AI Agent可以通过对话聊天来触发,要求他们采取行动,或者通过数据或其他外部事件的变化来触发,例如更改库存、收到电子邮件或更多。例如,开发人员可以定制一个人工智能Agent,以生成每周报告,总结团队会议、代码参与和图表生产力,同时联系各个团队成员,了解他们的个性化活动。另一个Agent可以通过检查内部数据库来发现网络机会,并帮助销售人员快速撰写回复,从而帮助销售人员跟进电子邮件中的潜在客户。
目前,微软通过其所谓的Agent库(也在公开预览中)使这一过程变得简单,用户可以根据常见场景和触发器选择预构建的Agent,从而抢先一步。这使得这些Agent能够响应跨业务的信号,以启动上述任务。
为了使这更容易,该公司将Agent构建引入了Power Apps,这是微软用于构建业务应用程序的基于云的工具。很少或没有编码经验的用户已经可以使用Power Apps使用拖放功能和预构建模板构建应用程序,现在他们也可以轻松掌握自主Agent的全部功能。
在幕后,Power Apps使用了一种名为plan designer的人工智能功能,该功能现已公开预览,允许用户用简单的英语描述他们的业务流程。他们还可以提供图表、屏幕截图、其他图像和文档。然后,它将帮助他们开发应用程序、AI Agent自动化等,而不需要从头开始。
根据用户提供的信息,Copilot将设计用户角色和要求,使用对话界面提供实时建议和自动化,并允许用户按照自己的节奏指导应用程序的创建。这意味着用户将能够从自己的业务背景和逻辑开始,并像与顾问合作开发应用程序一样处理问题。
开发人员现在可以通过具有托管安全和托管操作的Power Platform管理中心访问对治理和安全提供更大控制的功能。这些新功能为Power Apps、Power Automation、Copilot Studio和Dynamics 365带来了高级威胁防护、主动警报和灾难恢复。它们还影响自主AIAgent的安全和控制。
生成式人工智能模型评估和基准测试
微软还宣布增强Azure AI Foundry中生成AI模型的评估功能,Azure AI Foundries是一个新的统一AI开发工作室,用于今天宣布的工具和服务,使开发人员能够了解他们的AI驱动应用程序正在运行什么,以确保AI模型保持准确和值得信赖。
评估和基准测试这些人工智能模型是确保这些模型保持性能、准确性和安全性的重要组成部分。这是因为生成式人工智能应用程序容易出错,与可验证的数据不一致,变得不连贯和产生幻觉。人工智能大型语言模型可能会出现许多问题,有必要在开发过程中积极评估潜在风险,以防止问题在未来造成麻烦。
评估范围已经扩大,允许人工智能工程师和开发人员使用业务数据评估和比较模型。使用公共数据进行比较和基准测试很容易,但这仍然让许多工程师想知道模型在特定用例下的表现。
现在,企业客户可以使用他们自己的业务上下文数据集,看看模型在他们日常使用的典型情况下会如何表现。这将使他们能够对比和比较不同的模型定制,以评估在质量、安全性和准确性方面进行微调和开发时的变化。
Azure AI Foundry即将公开预览,将为AI模型生成的图像和多模式内容提供风险和安全评估。这样,企业客户就可以更好地了解人类和人工智能生成的输出中有害内容的频率和潜在严重程度,并提出应对措施。例如,他们可以评估如何防止人工智能生成不应该生成的图像,例如文本提示中的暴力图像,或图像中生成的暴力文本标题。
AI代工厂提供基于AI的辅助评估人员,以大规模提供这些评估,使组织能够根据目标指标一次对大量模型进行评分和评估。指标可能包括生成的可能是仇恨、不公平、暴力、性和自我伤害相关内容的输出。它们也可能是代表安全漏洞或侵权风险的受保护材料。
在对模型进行微调或将其向上移动之前,有一个指南来了解模型的行为,这为人工智能工程师和开发人员提供了一种采取措施的方法,例如使用内容过滤器来阻止有害内容或其他护栏。在做出这些更改后,可以重新运行评估以检查分数,看看哪些模型表现更好,并决定应该使用哪些模型。