<p id="34M1L2S8"><strong>13本七月在线内部电子书在文末,自取~</strong><br/></p><p id="34M1L2SB"><strong>公众号福利</strong></p><p id="34M1L2SC">回复【<strong>100题</strong>】领取《名企AI面试100题》PDF</p><p id="34M1L2SD">回复【<strong>干货资料</strong>】领取NLP、CV、ML、大模型等方向干货资料</p><p id="34M1L2SG"><strong>问</strong><strong><strong>题1、过采样的一些方法</strong></strong></p><p id="34M1L2SH">过采样是指在不平衡数据集中增加少数类样本的数量,常用方法包括:</p><p><ul><li id="34M1L2UJ"></p><p id="34M1L2SI">随机过采样:随机复制少数类样本,直至达到平衡。</p><p></li><li id="34M1L2UK"></p><p id="34M1L2SJ">SMOTE(Synthetic Minority Over-sampling Technique):通过在少数类样本之间插值生成合成样本。</p><p></li><li id="34M1L2UL"></p><p id="34M1L2SK">ADASYN(Adaptive Synthetic Sampling):在样本稀疏区域生成更多合成样本,关注困难分类的样本。</p><p></li><li id="34M1L2UM"></p><p id="34M1L2SL">基于聚类的过采样:使用聚类算法找到少数类样本的聚类中心,然后生成新的样本。</p><p></li></ul></p><p id="34M1L2SM"><strong>问</strong><strong><strong>题</strong>2、图神经网络的过平滑现象</strong></p><p id="34M1L2SN">过平滑现象指的是在多层图神经网络中,节点的特征会随着层数的增加而趋于一致,导致节点之间的信息丢失。表现为节点的特征分布变得更加相似,使得模型的表达能力下降。通常通过引入跳跃连接或限制层数来缓解过平滑问题。</p><p id="34M1L2SO"><strong>问</strong><strong><strong>题</strong>3、三元组的损失的样本的选取原则</strong></p><p id="34M1L2SP">在三元组损失中,样本的选取原则主要包括:</p><p><ul><li id="34M1L2UN"></p><p id="34M1L2SQ">Anchor(锚点):选取一个正样本,作为基准。</p><p></li><li id="34M1L2UO"></p><p id="34M1L2SR">Positive(正样本):与锚点属于同一类别的样本,应该与锚点的距离更近。</p><p></li><li id="34M1L2UP"></p><p id="34M1L2SS">Negative(负样本):与锚点属于不同类别的样本,应该与锚点的距离更远。通常选择困难负样本,即那些在特征空间中与锚点相近的负样本,以增加训练的难度。</p><p></li></ul></p><p id="34M1L2ST"><strong>问</strong><strong><strong>题</strong>4、BN的作用是什么</strong></p><p id="34M1L2SU">批量归一化(Batch Normalization, BN)的作用主要包括:</p><p><ul><li id="34M1L2UQ"></p><p id="34M1L2SV">加速训练:通过归一化层输入,提高训练速度。</p><p></li><li id="34M1L2UR"></p><p id="34M1L2T0">稳定性:减少内部协变量偏移,使得训练过程更稳定。</p><p></li><li id="34M1L2US"></p><p id="34M1L2T1">正则化效果:对每个小批量的样本进行归一化,有助于减少过拟合。</p><p></li></ul></p><p id="34M1L2T2"><strong>问</strong><strong><strong><strong>题5、RNN和LSTM和Transformer的区别是什么</strong></strong></strong></p><p id="34M1L2T3">RNN(循环神经网络):用于处理序列数据,存在梯度消失或爆炸的问题,难以捕捉长期依赖关系。</p><p id="34M1L2T4">LSTM(长短时记忆网络):通过引入门控机制解决RNN的长期依赖问题,能更好地记忆和遗忘信息。</p><p id="34M1L2T5">Transformer:基于自注意力机制,无需序列顺序处理,能够并行计算,处理长序列时效率更高,同时捕捉全局上下文信息。</p><p id="34M1L2T6"><strong><strong>问题6、Relu和sigmoid的函数区别?</strong></strong></p><p id="34M1L2T7">ReLU(Rectified Linear Unit):输出为输入值的正部分,形式为 ,具有稀疏激活的优点,能缓解梯度消失问题,但可能导致"死神经元"现象。</p><p id="34M1L2T8">Sigmoid:输出值在0到1之间,形式为 ,适用于二分类问题,但容易造成梯度消失。</p><p id="34M1L2T9"><strong>问</strong><strong><strong><strong>题7、深度学习的过拟合有什么解决方法</strong></strong></strong></p><p id="34M1L2TA">解决过拟合的常用方法包括:</p><p><ul><li id="34M1L2UT"></p><p id="34M1L2TB">正则化:使用L1或L2正则化减少模型复杂度。</p><p></li><li id="34M1L2UU"></p><p id="34M1L2TC">Dropout:随机丢弃一部分神经元以减少相互依赖。</p><p></li><li id="34M1L2UV"></p><p id="34M1L2TD">数据增强:增加训练数据的多样性,减少模型对特定样本的依赖。</p><p></li><li id="34M1L2V0"></p><p id="34M1L2TE">早停法:监控验证集的损失,在其不再下降时停止训练。</p><p></li><li id="34M1L2V1"></p><p id="34M1L2TF">交叉验证:使用交叉验证评估模型的泛化能力。</p><p></li></ul></p><p id="34M1L2TG"><strong><strong>问题8、介绍一下逻辑回归</strong></strong></p><p id="34M1L2TH">逻辑回归是一种用于二分类问题的统计模型,通过逻辑函数(如Sigmoid)将线性组合的输入映射到0和1之间的概率值。其主要步骤包括:</p><p><ul><li id="34M1L2V2"></p><p id="34M1L2TI">线性组合特征:</p><p></li><li id="34M1L2V3"></p><p id="34M1L2TJ">应用Sigmoid函数:</p><p></li><li id="34M1L2V4"></p><p id="34M1L2TK">通过最大似然估计优化参数 w 和 b。逻辑回归易于实现,计算效率高,但不适合处理复杂的非线性关系。</p><p></li></ul></p><p id="34M1L2TL"><strong>问</strong><strong><strong><strong>题9、介绍一下决策树和XGBoost</strong></strong></strong></p><p id="34M1L2TM">决策树:一种树形结构的模型,通过对特征进行分裂(如基于Gini指数或信息增益)逐层构建,直到达到预设的停止条件。决策树易于理解和解释,但容易过拟合。</p><p id="34M1L2TN">XGBoost(Extreme Gradient Boosting):一种基于梯度提升树的高效实现,结合了决策树的优点,具有更好的性能和准确性。其特点包括:</p><p><ul><li id="34M1L2V5"></p><p id="34M1L2TO">正则化:通过L1和L2正则化减少过拟合。</p><p></li><li id="34M1L2V6"></p><p id="34M1L2TP">高效性:支持并行计算,加快训练速度。</p><p></li><li id="34M1L2V7"></p><p id="34M1L2TQ">灵活性:可以处理多种类型的目标函数,适用于回归和分类问题。</p><p></li><li style="list-style: none; display: inline"></p><p id="34M1L2U3"><strong>↓以下13本书电子版免费领,直接送↓</strong></p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1029%2Fc29081b2j00sm4b9t000kd200g40053g00hc005g.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1029%2Fdf5e7822j00sm4b9u003dd200p0018gg00hc00ut.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1029%2Fdbcf6ff4j00sm4b9u003dd200p0018gg00hc00ut.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="34M1L2UD"><strong>扫码回复【999】免费领13本电子书</strong></p><p id="34M1L2UF"><strong>(</strong><strong>或找七月在线其他老师领取</strong><strong>)</strong></p><p><br/></li></ul><br/></p>
讯享网

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/186489.html