当前位置: 首页> 游戏> 评测 > unify llm 大模型路由

unify llm 大模型路由

时间:2025/7/29 19:08:18来源:https://blog.csdn.net/skywalk8163/article/details/139381931 浏览次数:0次

Unify介绍

Unify是llm大模型路由框架。

Unify Python 包提供了对 Unify REST API 的访问,允许您从任何 Python 3.7.1+ 应用程序中查询大型语言模型(LLMs)。它包括了同步和异步客户端,并支持流式响应。

就像 REST API 一样,您可以:

🔑 使用单个密钥访问任何端点:仅使用一个 Unify API 密钥,即可访问任何提供商的所有 LLMs。

🚀 路由到最佳端点:每个提示都会被发送到能产生最佳吞吐量、成本或延迟的端点。

基本使用方法

可以在几行代码中通过指定端点Id来调用Unify API。端点Id是模型Id和提供程序Id的组合,这两个Id都可以在端点基准测试页面中找到。
例如,llama-2-13b的基准显示,llama 2 13b的模型Id是llama-2-13-b-chat,并且Anyscale的提供商Id是Anyscale。然后我们可以调用:

from unify import Unify
unify = Unify("llama-2-13b-chat@anyscale")
response = unify.generate("Hello Llama! Who was Isaac Newton?")

异步代码

from unify import AsyncUnify
import asyncio
async_unify = AsyncUnify("llama-2-13b-chat@anyscale")async def main():responses = await async_unify.generate("Hello Llama! Who was Isaac Newton?")asyncio.run(main())

流模式代码

from unify import Unify
unify = Unify("llama-2-13b-chat@anyscale")
stream = unify.generate("Hello Llama! Who was Isaac Newton?", stream=True)
for chunk in stream:print(chunk, end="")

动态路由


由于API性能的波动,每个模型的最佳提供商因地理位置和时间而异。
通过动态路由,我们会在那一刻自动将您的请求引导到“性能最佳的提供商”。要启用此功能,只需将查询的提供程序替换为可用的路由模式之一。
例如,您可以查询llama-2-7b-chat端点以获得输入成本最低的提供者,如下所示:

from unify import Unify
unify = Unify("llama-2-13b-chat@lowest-input-cost")
response = unify.generate("Hello Llama! Who was Isaac Newton?")

聊天中继agent

from unify import ChatBot
agent = ChatBot("llama-2-13b-chat@lowest-input-cost")
agent.run()

关键字:unify llm 大模型路由

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

责任编辑: