当前位置: 首页> 科技> 名企 > 应聘ui设计师自我介绍_哪个平台可以免费做项目_长沙seo外包平台_南昌seo优化

应聘ui设计师自我介绍_哪个平台可以免费做项目_长沙seo外包平台_南昌seo优化

时间:2025/7/15 13:58:30来源:https://blog.csdn.net/weixin_42430947/article/details/146055560 浏览次数:0次
应聘ui设计师自我介绍_哪个平台可以免费做项目_长沙seo外包平台_南昌seo优化

ChatModelFactory、EmbeddingModelFactory

讲解代码:import os
from dotenv import load_dotenv, find_dotenv_ = load_dotenv(find_dotenv())from langchain_openai import ChatOpenAI, OpenAIEmbeddings, AzureChatOpenAI, AzureOpenAIEmbeddingsclass ChatModelFactory:model_params = {"temperature": 0,"seed": 42,}@classmethoddef get_model(cls, model_name: str, use_azure: bool = False):if "gpt" in model_name:if not use_azure:return ChatOpenAI(model=model_name, **cls.model_params)else:return AzureChatOpenAI(azure_deployment=model_name,api_version="2024-05-01-preview",**cls.model_params)elif model_name == "deepseek":# 换成开源模型试试# https://siliconflow.cn/# 一个 Model-as-a-Service 平台# 可以通过与 OpenAI API 兼容的方式调用各种开源语言模型。return ChatOpenAI(model="deepseek-ai/DeepSeek-V2-Chat",  # 模型名称openai_api_key=os.getenv("SILICONFLOW_API_KEY"),  # 在平台注册账号后获取openai_api_base="https://api.siliconflow.cn/v1",  # 平台 API 地址**cls.model_params,)@classmethoddef get_default_model(cls):return cls.get_model("gpt-3.5-turbo")class EmbeddingModelFactory:@classmethoddef get_model(cls, model_name: str, use_azure: bool = False):if model_name.startswith("text-embedding"):if not use_azure:return OpenAIEmbeddings(model=model_name)else:return AzureOpenAIEmbeddings(azure_deployment=model_name,openai_api_version="2024-05-01-preview",)else:raise NotImplementedError(f"Model {model_name} not implemented.")@classmethoddef get_default_model(cls):return cls.get_model("text-embedding-ada-002")

以下是这段代码的逐层解析,该代码实现了大语言模型(LLM)和嵌入模型的统一调用接口,支持多种云服务和开源模型:


一、环境初始化

import os
from dotenv import load_dotenv, find_dotenv# 加载.env文件中的环境变量
_ = load_dotenv(find_dotenv())
  • 关键技术
    • dotenv库自动寻找项目根目录下的.env文件(包括上级目录)
    • 将环境变量(如API Key)注入系统环境变量
  • 典型.env内容
    OPENAI_API_KEY = "sk-xxx"
    AZURE_OPENAI_KEY = "azure-xxx"
    SILICONFLOW_API_KEY = "sf-xxx"
    

二、聊天模型工厂(ChatModelFactory)

1. 基础配置
class ChatModelFactory:model_params = {"temperature": 0,  # 控制生成随机性(0=确定性最高)"seed": 42,        # 固定随机种子保证可复现性}
  • 核心参数
    • temperature: 影响生成多样性(0为最保守,1为最随机)
    • seed: 确保相同输入得到相同输出(对测试和调试至关重要)
2. 模型选择逻辑
@classmethod
def get_model(cls, model_name: str, use_azure: bool = False):# OpenAI官方服务if "gpt" in model_name:if not use_azure:return ChatOpenAI(model=model_name, **cls.model_params)else:return AzureChatOpenAI(azure_deployment=model_name,  # Azure部署名称api_version="2024-05-01-preview",  # 最新API版本**cls.model_params)# 第三方开源模型平台elif model_name == "deepseek":return ChatOpenAI(model="deepseek-ai/DeepSeek-V2-Chat",openai_api_key=os.getenv("SILICONFLOW_API_KEY"),openai_api_base="https://api.siliconflow.cn/v1",**cls.model_params,)
  • 多服务支持

    服务类型适用场景关键参数
    OpenAI官方直接使用OpenAI的APImodel="gpt-3.5-turbo"
    Azure OpenAI企业级Azure云服务azure_deployment
    SiliconFlow平台调用DeepSeek等国产开源模型自定义API Base URL
  • 设计亮点

    • 统一接口:不同服务使用相同调用方式(均继承自BaseChatModel
    • 无缝切换:通过use_azure布尔参数切换云服务商
    • 开箱即用:预置最新API版本(2024-05-01-preview
3. 默认模型配置
@classmethod
def get_default_model(cls):return cls.get_model("gpt-3.5-turbo")
  • 最佳实践:将gpt-3.5-turbo设为默认模型(性价比与性能平衡)

三、嵌入模型工厂(EmbeddingModelFactory)

1. 模型分发逻辑
class EmbeddingModelFactory:@classmethoddef get_model(cls, model_name: str, use_azure: bool = False):if model_name.startswith("text-embedding"):if not use_azure:return OpenAIEmbeddings(model=model_name)else:return AzureOpenAIEmbeddings(azure_deployment=model_name,openai_api_version="2024-05-01-preview",)else:raise NotImplementedError(f"Model {model_name} not implemented.")
  • 模型识别:通过text-embedding前缀判断为嵌入模型
  • 服务兼容性
    • OpenAI:直接指定模型名称(如text-embedding-ada-002
    • Azure:使用部署名称(需与Azure门户中的部署名一致)
2. 默认配置
@classmethod
def get_default_model(cls):return cls.get_model("text-embedding-ada-002")
  • 行业标准text-embedding-ada-002是OpenAI最常用的嵌入模型

四、关键技术点解析

1. 环境变量管理
  • 安全实践:通过.env文件隔离敏感信息
  • 多平台支持
    # SiliconFlow示例
    openai_api_key=os.getenv("SILICONFLOW_API_KEY")
    openai_api_base="https://api.siliconflow.cn/v1" 
    
    即使使用非OpenAI服务,也复用openai_前缀的参数名,保持接口统一
2. 工厂模式优势
优势具体体现
解耦合业务代码无需关心模型初始化细节
扩展性新增模型只需修改工厂类
配置集中化所有模型参数在单个类中管理
3. 多云服务兼容
# Azure的特殊参数
AzureChatOpenAI(azure_deployment="gpt-35-turbo",  # 部署名称(可能与模型名不同)api_version="2024-05-01-preview"   # 必须指定
)
  • 注意差异:Azure的部署名称可能与OpenAI模型名称不同(如gpt-35-turbo对应OpenAI的gpt-3.5-turbo

五、使用示例

1. 基础调用
# 获取默认聊天模型
chat_model = ChatModelFactory.get_default_model()# 获取Azure版嵌入模型
embed_model = EmbeddingModelFactory.get_model("text-embedding-ada-002", use_azure=True
)
2. 完整工作流
from langchain.schema import HumanMessage# 初始化模型
model = ChatModelFactory.get_model("gpt-4", use_azure=False)# 执行对话
messages = [HumanMessage(content="你好!")]
response = model.invoke(messages)
print(response.content)

六、扩展建议

1. 添加新模型支持
# 在ChatModelFactory中添加
elif model_name == "moonshot":return ChatOpenAI(model="moonshot-v1",openai_api_key=os.getenv("MOONSHOT_API_KEY"),openai_api_base="https://api.moonshot.cn/v1",**cls.model_params)
2. 动态参数配置
# 允许运行时修改参数
@classmethod
def get_model(cls, model_name: str, **kwargs):params = {**cls.model_params, **kwargs}return ChatOpenAI(model=model_name, **params)
3. 错误处理增强
try:return AzureChatOpenAI(...)
except AuthenticationError as e:print("Azure认证失败,请检查API Key和部署名称")

七、架构图示

User Code
ChatModelFactory
EmbeddingModelFactory
OpenAI
Azure
SiliconFlow
text-embedding-ada-002
Azure Embedding

该代码为构建多模型AI应用提供了标准化基础设施,开发者可以通过简单的参数切换实现:

  • 不同云服务商之间的迁移
  • 开源模型与商业模型的混合使用
  • 嵌入模型与对话模型的协同工作

@Classmethod

@classmethod 是 Python 中一个重要的装饰器,用于定义类方法。它的核心作用是为类提供一种不依赖实例却能操作类本身或类层级数据的途径。以下是逐层解析:


一、核心特性

1. 方法签名
class MyClass:@classmethoddef my_method(cls, arg1, arg2):  # 第一个参数必须是类本身(惯例命名为`cls`)pass
  • cls参数:自动接收当前类(而非实例)作为第一个参数
  • 调用方式:可通过类名.方法名()实例.方法名()调用
2. 与普通实例方法的对比
方法类型第一个参数可访问内容典型用途
实例方法self实例属性/方法操作实例级数据
类方法cls类属性/其他类方法工厂模式、类配置操作

二、核心应用场景

1. *工厂模式(核心代码中的用法)
class ChatModelFactory:@classmethoddef get_model(cls, model_name: str):  # 不创建实例即可获取模型if model_name == "gpt":return cls._create_openai_model()else:return cls._create_custom_model()# 直接通过类调用
model = ChatModelFactory.get_model("gpt")
  • 优势:无需实例化工厂类即可创建目标对象
  • 扩展性:子类可重写方法改变创建逻辑
2. 替代构造函数
class Date:def __init__(self, year, month, day):self.year = year@classmethoddef from_string(cls, date_str):  # 接受不同格式的输入year, month, day = map(int, date_str.split("-"))return cls(year, month, day)  # 调用主构造函数# 使用示例
date = Date.from_string("2023-08-01")
3. 类状态管理
class Counter:_count = 0@classmethoddef increment(cls):cls._count += 1  # 修改类属性@classmethoddef get_count(cls):return cls._count  # 读取类属性Counter.increment()
print(Counter.get_count())  # 输出: 1

三、继承场景下的行为

class Animal:@classmethoddef identify(cls):print(f"I am {cls.__name__}")class Dog(Animal):passAnimal.identify()  # 输出: I am Animal
Dog.identify()     # 输出: I am Dog  🐛 cls自动指向实际调用类
  • 多态性:子类调用父类方法时,cls指向子类
  • 应用价值:实现继承链中的工厂方法

四、与 @staticmethod 的对比

特性@classmethod@staticmethod
第一个参数自动传入类 (cls)无自动参数
访问类属性✅ 可直接通过cls访问❌ 需通过类名硬编码访问
调用其他类方法✅ 可通过cls.method()❌ 需硬编码类名
典型应用场景需要类引用的操作工具函数
代码示例对比
class Utilities:@classmethoddef class_util(cls):print(f"Called from {cls.__name__}")@staticmethoddef static_util():print("Generic utility")class SubUtilities(Utilities):passSubUtilities.class_util()  # 输出: Called from SubUtilities
SubUtilities.static_util() # 输出: Generic utility

五、在示例代码中的作用

class ChatModelFactory:model_params = {"temperature": 0}  # 类属性@classmethoddef get_model(cls, model_name: str):return ChatOpenAI(**cls.model_params)  # 通过cls访问类属性
  1. 统一配置管理:通过cls.model_params确保所有方法使用相同配置
  2. 无需实例化:直接ChatModelFactory.get_model()调用
  3. 扩展性:子类可重写model_params改变默认参数

六、最佳实践原则

  1. 优先用于工厂方法:当需要创建类实例但需封装复杂逻辑时
  2. 避免滥用:不需要访问类状态时使用@staticmethod
  3. 命名规范:始终将第一个参数命名为cls(非强制但强烈建议)
  4. 继承友好设计:通过cls实现多态,而非硬编码类名

掌握 @classmethod 的使用,能大幅提升面向对象代码的灵活性和可维护性,尤其在需要类层级操作而非实例层级操作的场景下表现出色。

关键字:应聘ui设计师自我介绍_哪个平台可以免费做项目_长沙seo外包平台_南昌seo优化

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

责任编辑: