当前位置: 首页> 娱乐> 八卦 > web前端要求会哪些_个人主页网站制作免费_9个广州seo推广神技_关键词优化哪个好

web前端要求会哪些_个人主页网站制作免费_9个广州seo推广神技_关键词优化哪个好

时间:2025/7/20 3:04:56来源:https://blog.csdn.net/xhhgffd/article/details/146965270 浏览次数:0次
web前端要求会哪些_个人主页网站制作免费_9个广州seo推广神技_关键词优化哪个好

对比损失

对比损失用来模型提供一个输出标签距离参照这一点其他损失函数没有差别对比损失独特之处在于不像其他损失函数模型提供正向参照即所谓教模型什么是对的同时模型学习什么错的

多模态对比损失

多模态模型训练数据集主要 [图像文本] 组成这些图像可以专门数据集获取也可以维基百科上面进行爬取文本通常爬取图像附带信息

多模态模型通常使用一个编码图像文本编码一个独特向量

图像 ----> 向量维度在config中设置)

文本 ----> 向量 维度在config中设置)

下图所示

在这里蓝色的高亮代表image需要对应text描述这里通过T向量I向量点积得到他们相似得分于是对比损失要求蓝色区域得分应该高分白色区域得分应该低分由此对比损失模型知道哪些对的模型知道哪些错的

传统做法

每一行或者每一列看成一个分布比如对于每一行给定一个image不同得分表示输出对应text概率所以希望蓝色区域概率白色区域概率蓝色标签概率1白色标签概率0由此通过KL散度或者交叉熵计算概率分布之间差异

问题所在

模型输出不确定将相似度得分转换概率分布需要满足一行所有相似度得分加起来等于1那么此时需要每一个相似度得分进行softmax归一化

softmax归一化,是一种在机器学习尤其是神经网络中广泛应用的数学方法。它将输入的向量转换为概率分布形式,使得每个元素的值都在0到1之间,且所有元素之和为1。这一特性让模型能清晰地输出各类别的预测概率,从而便于比较与决策,在分类任务里发挥着关键作用,助力模型更精准地做出判断。

softmax归一化的公式是:

其中 此处就是每一行中每一个text 与 image的相似度得分

现在有一个潜在问题

由于相似得分两个向量点积得到计算过程不确定如果相似度得分非常之高那么由于指数爆炸 非常之大计算保存数值数据位数固定所以这里计算结果产生影响

保证数值稳定

公式转换:

便可指数数值最大值1

引申问题

这样虽然数值稳定性保证但是训练速度下降因为c确定需要每一个相似度得分计算出来然后才能找到最大这就导致数据依赖问题从而无法并行计算不同相似度得分归一化之后

解决办法

传统概率分布建模转换分类建模每一个image-text的标签要么1(相似)要么0(不相似)那么由于不涉及概率分布不需要进行softmax归一化但是仍然需要相似度得分转换0-1之间标准化用于指示相似程度这里使用归一化方法sigmoid归一化

由于指数部分所以这里不存在数值稳定问题其次每个text-image归一化计算独立这样保证并行各个设备并行记录每一个样本相似度得分基于标签0或者1计算损失函数

蓝色部分标签1白色部分标签0.

这便是siglip对clip的优化

关键字:web前端要求会哪些_个人主页网站制作免费_9个广州seo推广神技_关键词优化哪个好

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

责任编辑: