2025年模型部署工程师(模型部署工程师面试)

模型部署工程师(模型部署工程师面试)大模型面试现场 Begin 面试官 你的研究生是转了计算机专业 具体是计算机哪个方向 应聘者 我的研究方向主要是机学习大语言模型这方面 面试官 我问你两个机器学习的问题 你解释一下模型的泛化能力是什么 应聘者 模型的泛化能力是指 当你在一个特定构成的数据集上去训练出一个模型以后 你希望能够让模型对一些他所没有见过的数据去也同样得到更好的预测 这是一个对于泛化性能的要求

大家好,我是讯享网,很高兴认识大家。



大模型面试现场

(Begin)

面试官:你的研究生是转了计算机专业,具体是计算机哪个方向?

应聘者:我的研究方向主要是机学习大语言模型这方面。

面试官我问你两个机器学习的问题。你解释一下模型的泛化能力是什么?

应聘者:模型的泛化能力是指,当你在一个特定构成的数据集上去训练出一个模型以后,你希望能够让模型对一些他所没有见过的数据去也同样得到更好的预测,这是一个对于泛化性能的要求。

面试官那一般怎么样去提升模型的泛化能力呢?

应聘者:首先是需要对训练过程中的数据集构成,要做到尽量的平均丰富,减少偏差。还要通过一些手段去尽量减轻模型过拟合的现象。

面试官你刚刚讲到过拟合,在这个方法的研究中,有一个叫OOD的out of distribution这块的东西你了不了解?

应聘者:这块我没有太了解过。

面试官NLP这块有之前有看过吗?

应聘者:有的。

面试官你讲一下word2vec里面的负采样,随便讲一种策略。

应聘者:有一种策略是通过一个batch里面,它一对正样本当中,你对其中的一个数据,它对其他,就是不是这一堆样本对齐当中的其他样本也进行采样,就是通过这样的方式来构成一批负样本。

面试官那这个里面采样是随机采吗?有没有一些比较优秀的策略?

应聘者:这个里面的话,更进一步的策略,我倒是没有太了解过,因为一般batch内部采样的话,可能会倾向于要么随机,要么就整个batch里面所有其他的数据都用上。

面试官那一般这里面的正样本和负样本的平衡性怎么去考虑呢?

应聘者:这部分其实我也没有太去了解过。

面试官没关系,然后我们再看一下你的简历,因为你这边做大模型相关的,其实跟我们这边很匹配。重点问一下这个项目,你先介绍下这个项目,然后讲一下你这个项目里面的一个亮点。

应聘者:这个项目首先提出的背景是需要去利用大模型来为用户做一个操作简单的酒店推荐功能。但这个功能面临的问题是大模型固有的一些幻觉,总是输出一些可能于是有偏差的输出,以及大模型的知识非实时性问题。主要是为了解决这些问题,我们想提出了去利用这个rag来对它做一个检索增项生成的功能。具体的做法是通过将现实当中真实的一批酒店数据整理成40多万条数据,通过embedding存储到一个销量数据库里面。针对于用户输入的一条查询,我们首先会把它送到大模型这里,然后通过大模型对它进行分析,判断是否需要去检索去这个数据库里面检索这些数据。如果需要的话,首先会对这L查询也经过一个imagine,把它嵌入到这个向量空间当中,与此同时还有并行的一个处理,是对这条查询它的自然语源的关键词进行提取。得到这两部分数据之后,我们会对得到的查询向量把它送到这个向量数据库当中去进行一个PK,召回一批最符和距离最近的数据,然后针对提取到的关键词这一部分,首先这一其中的地理位置信息,这是这个应用当中非常关键的一个信息的,他需要去判断你的酒店到底面有什么位置,然后针对这个信息,我们会去调用一个百度API的接口,去查询它的经纬度,然后一共后续的距离计算,然后针对其他的关键词信息。那我们同时设置了另外一个关键词检索的项目数据库,然后到其中去召回最符合的一批数据,然后再送回大模型去进行一个整体一个工作流程。

面试官我问两个具体的问题。首先第一个问题就是你这里面的准入模型是怎么做的,数据怎么做的?

应聘者:这一部分功能的话,其实是依赖于这个预训练的大模型的,也是这交的大模型来做,我们就是发现,通过训练通用大模型已经能够承担很好的承担力去,还是通的。

面试官第二个问题就是你这里面我看是查返回的是k条的一个数据,那你返回的k条数据,你这里面用准召来计算是怎 么算的呢?

应聘者:首先我们这个召回率的设计的话,首先是针对每个查询,我们会有一个ground truth相当于是也是K条,我们认为是回一的计算就是这K条真实值当中,被准确召回了的条目数,比如说是M条,你去计算这个M除以K,然后准确率的话,准确率的判断是针对于实际召回的这个K条数据当中,我们去统计符合用户查询需求的这M条数据,计算这个数据。

面试官所以你计算的是precision@k和Recall@k是不是?最后这个做出来以后,有96的一个水准,也是针对于这个,就是我刚才说的这个指标是不是。

应聘者第一个是指?


讯享网

面试官:是指就是96%,96%的一个水平,这个准确率是指的是?

应聘者:这个是指的精确度。

面试官那你有没有看过就是precision@1和Recall@1这个指标?

应聘者:@1的话,这个没有考虑,因为考虑到就是这个具体的应用当中,它推荐通常都是需要一些就是多个条目的,因为你很难去在相似的条件中很难去推荐一个最符合用户的条件,因为用户的条件大多时候并没有精确到这个地步

面试官一般这个如果去算S1的话,就是要看你最相关的是不是排在最前面哈,你这个K里面取的多大。

应聘者:k取过3,6,10这三个数字。

面试官OK,行,然后还有一个问题,就是你这里面那个查询是用的是embedding,是不是没有用SQL

应聘者一方面是用了embedding,一方面的话也是用了,就是发现这个关系型数据库。

面试官你这个里面怎么样把啊,怎么样把自然语言转换成这个SQL。

应聘者:是通过大模型对它做了一个关键词的提示。

面试官OK,相当于只有一个条件,是不是如果有多个条件呢?或者你的多个条件里面需要有与或非啊等等这样比较复杂的一些条件组合怎么办呢?

应聘者:这些是有多个条件的,就是比如说你要查询是我要一间这个天安门附近的五星级酒店有停车场,然后这几个条件他会综合一起来查询

面试官那你这边怎么样去把这个语言转换成这种查询的一种方式,是用直接用关键词去查询吗?

应聘者:对。

面试官有没有考虑过NL to SQL的一个方式啊,去train个模型。

应聘者:这个当时是确实没有考虑。

面试官然后这个里面你最后因为是K条的数据哈,有这个召回,有没有做排序?

应聘者:排序的话,我们采用的是一个比较朴素的距离的排序方式,就距离他查询的地点越近,都会被放在越前面。

面试官然后这里面酒店数据能说一下这里面的一个分配的一个策略吗?还是每一个酒店数据就是一个分片。

应聘者:这里面的话对每一条酒店数据就是做为一个条目存储的。

面试官然后这个问答系统有没有考虑多轮的一个情况。

应聘者:这个没有。确实他是没有考虑过多轮对话的情况。

面试官然后你刚才讲的这个幻觉问题哈,就是在这个些项目里面,你怎么样去做到一个回答的一个可控的一个问题。

应聘者:首先针对于需要返回酒店数据的这样一系列查询模型都会去到这个数据库当中进行匹配,然后在这种情况下,他的回答是严格根据返回的这些数据去针针对这个格式进行换算,就是说他不会自己去创造别的不存在的或者说错误的数据。

面试官相当于就是说你这边一些还是偏向一个检索出一个系统,检索出来以后再做二次润色是不是。

应聘者:是的

面试官然后还有一点时间,然后我这边再因为你是做大模型相关的,然后我再问一下大模型相关的一些问题啊,就是你这边有没有实际部署过一些语言模型啊,哪个model。

应聘者:啊,部署就啊一些像LLAMA这些模型。

面试官在那在部署过程中,这个私有化部署过程中,你这个模型有去考虑过batch的一些传输和这个流式传输吗?以及多用户访问的问题。

应聘者:由于我所做的部署其实是一些相对比较简单的,就是没有考虑到可能没有考虑到更多生产场景当中具体的一些问题。所以这些方面可能没有太深思过。

面试官嗯,好。那你讲一下这个吧,讲一下什么是旋转位置编码。

应聘者:旋转位置编码啊,那一部分我恰好在学习过程当中没有去仔细研究过。

面试官没关系啊,这个这个其实现在现在就是业内比较火的一些大模型,或者是比较前沿的大模型,基本上是采用这种方式啊,就是现在采用绝对位置编码的这种大语言模型都非常少了啊,基本上实际上都相对位置编码啊啊啊,有没有用过langchain呢?

应聘者用它做过一些别的比较简单的RAG啊

面试官你觉得当前有什么问题,有没有什么缺陷?

应聘者:缺陷可能也因为我用的这个整体的应用是相对比较朴素的,所以也很难感受出来吧。

面试官那你简历上写的那个RAG系统是自己手写的,是不是?没有依赖外这个框架?

应聘者没有这个系统的话,我当时是去基于百度文心一言那个plugin的接口去做的。

面试官嗯,那你在这个刚那个就是你的那个RAG项目里面,有没有考虑过对于模型去做一些微调啊,或者是embedding模型去做一些微调。

应聘者:但是其实考虑过这个问题,因为他的这个酒店领域,它的这个描述数据其实是相对比较特殊一点,embedding效果呃老实说是有点不如人意的,但是就是考虑到各方面人手啊,这些数据集制作这方面是存在一定的困难,因为不像公司里可能专门有一些员工去承担这部分工作,所以就没有去实施。

面试官嗯,啊,然后我问一个基础的啊,就是chatGPT啊,应该都听过吧,你们讲一下chatGPT背后的一个基本的原理是什么?

应聘者:说的这个原理是指模型结构的层面啊?

面试官换一个问法啊,就是它有四个阶段对吧?啊,预训练啊,然后这个指令微调啊,然后奖励模型的建立啊,最后是一个对齐啊,你们分别讲一下这四个步骤大概怎么去实现的啊?

应聘者预训练的话,那首先是针对于大量从各途径收集的语料的一个无监督学习,为他去设定了一个预测呃下一一图分的这样的一个预训练任务范式,然后通过大量的语料预训练去也形成了一个初步的通用模型,之后在指令微调的阶段会去特定的针对一些呃,比如说如果要将它应用到一个各项任务上的话,会针对特定的领域去收集一些有监督的数据,去为他做一些相对更加精细的微调,然后在第3个阶段的话,去建立奖励模型是需要考虑到在第4个阶段中。我需要让他与人类指令进进行对齐,那么这个时候去为他建立一个评判下一个输出是否更符合人类偏好的这样的一个奖励模型,来到第4个阶段当中的基于人类反馈的强化学习这样的一个阶段去为他相当于是为他监督生成的这样的一个模型当中,它的下一个生成的下一个token评分它是否是它的它的奖励呃嗯相当于是评评判他的这个与人类偏好对齐的这样一个奖励分数。

面试官嗯,啊,挺好的啊啊,那PPO这个算法一些背后的原理,就是PPO算法的本身啊,你有没有了解过他是怎么做的?

应聘者:这个算法了解一点,但不算深,这个PPO算法的话,它主要是通过。就是可能我实践这一部分会比较少,所以印象其实没有太深刻啊,所以……

面试官之前有没有看过,就是学习过强化学习啊。

应聘者学习过一些,但是就是也不算太深入。

面试官那讲一下,比如说像长方学习里面有个叫贝尔曼方程,对吧,就是贝尔曼自由方程,你讲一下它是是一个什么样的一个原理呢。

应聘者:这一部分也没够,了解到。

面试官那价值迭代和策略迭代啊,就是基于value based和policy based这两种,两大这个强化学习的算法啊,有什么区别。

应聘者:强化学习这一块我可能了解确实是不算多啊。

面试官:没关系哈,行。啊,那你还有什么其他的问题没?(The End)

小讯
上一篇 2025-05-16 15:39
下一篇 2025-06-06 16:22

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/157832.html