当前位置: 首页> 汽车> 时评 > 大模型面试(三)

大模型面试(三)

时间:2025/7/11 11:00:41来源:https://blog.csdn.net/m0_49134108/article/details/140292602 浏览次数: 0次

这次是某家公司的一个电话面试,问的过程还比较简单直接。

问:我们在大模型开源项目的应用上遇到了什么困难?

这个。。有两个困难,一个是RAG的优化,一开始RAG是比较慢的,而且召回率不高;

后来使用了HyQE的方法,针对一段文本,提出一个问题和它对应,以补充的问题来建立文档索引。当用户提问的时候,直接在数据库里寻找相似问题,这样检索效率高而且召回率高。

第二个是语音识别识别错误的问题;把识别语音和转写文字的特征一起输入到神经网络里,这样可以提高识别准确度。(或者多几个候选词)

然后问到了我以前在一家人工智能公司的工作经验,问到了其中的内容审核项目。

这个项目的创新点在哪里?过拟合的情况?

主要是从网上爬取文本数据,然后给公开的审核接口先过一遍,然后训练过程中遇到的难样本,重新标注再训练。

正负样本不均匀的问题:实际场景,正样本远少于负样本,用了针对样本不平衡的loss比如dice loss,weighted ce等,然后多种loss采用加权和的方式进行融合(问题:有没有其他融合的方式呢?辅助loss?)。

过拟合?主要是看在测试集上的loss表现吧。

还提到了分词的问题;但是这个是不可避免的,这种词要衡量一个边界条件,要不要使用关键词检索规则还是经过bert模型判断。

对将来发展的规划?大模型应该怎么应用?

反问环节:

大模型的应用主要是面向to C还是to b的?都有,客服这种是to C的

训练的数据和算力准备的怎么样?数据以文本数据为主,算力似乎不太够,只有t级别的显卡?比较寒酸了,有a10显卡吗

什么指标比较看重?避免大模型幻觉。

关键字:大模型面试(三)

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

责任编辑: