易于操作和部署,且具有高性能和可扩展性
随着机器学习逐渐融入关键应用,企业将需要能够支持大规模预测 虽然这些可能是极端 服务的低延迟模型服务器。Facebook 和 Google 等公司都拥有可提供实时响应的机器学习服务 数十亿次每天。 ,但许多公司也部署了推荐和 个性化系统 每天都要与许多用户互动。随着开源软件的出现,公司现在 虽然这些可能是极端 可以使用可扩展到多台机器的低延迟模型服务器。
大多数模型服务器都使用微服务架构
可通过 REST 或 gRPC API 访问。这使得将机 WhatsApp 号码数据 器学习(“推荐器”)与其他服务(“购物车”)集成起来变得更加容易。根据您的设置,您可能需要一个模型服务器,让您可以在云端、本地或两者上部署模型。您的模型服务器必须参与自动扩展、资源管 欧洲议会议员 理和硬件配置等基础设施功能。
一些模型服务器添加了最新的创新
降低了复杂性,提高了性能,并提供了与其他服务集成的 得帮 邮寄线索 助并快 灵活选项。通过引入新的 Tensor 数据类型,RedisAI 支持 数据局部性 – 这一功能使用户能够从他们最喜欢的客户端获取和设置 Tensor,并“在数据所在的位置运行他们的 AI 模型”。Ray Serve 带来了模型评估逻辑 更贴近业务逻辑 通过为开发人员提供从 API 端点到模型评估再到 API 端点的端到端控制。此外,它操作简单,部署起来就像一个简单的 Web 服务器一样简单。