大语言模型面试心路历程【入职版】
最佳答案 问答题库458位专家为你答疑解惑
记录自己大语言模型面试的经历,旨在可以帮助更多想要从事此方面的小伙伴。
北银金科
1.InstructGPT的训练过程
2.critic网络的作用
3.LSTM的原理,GRU与LSTM有什么不同
4.讲一下Bert的结构
5.讲一下自己的论文【KBQA相关】
6.GLM的结构和微调了哪些参数
7.LoRA和P-tuning的原理分别是什么
8.还了解哪些参数微调的方法
9.GLM和baichuan之间的比较
10.检索增强式大模型的理解
11.快速排序
12.计算单词的编辑距离
好未来
1.算法题977. 有序数组的平方
2.算法题 快速排序
3.算法题 按字典中value数组中第一个值进行排序
4.Transformer中self-attention的计算公式 为什么除以dk
5.为什么用多头注意力机制
6.大模型在多头注意力机制方面有哪些改进
7.微调过什么大模型
8.self-instruct如何根据种子数据集生成数据
9.P-tuning、Prefix tuning、LoRA的原理 隐式token向量是什么 怎么产生的
10.SGD的原理 一阶导数二阶导数
微奇点
1.微调ChatGLM的数据集,微调的效果,评价指标,训练了多长时间
2.baichuan与ChatGLM的比较
3.P-tuning、LoRA的原理
4.为什么大模型的输入文本会有限制
5.检索增强式大模型的了解
6.讲讲自己的论文
7.大语言模型结合向量数据库的了解
8.能来多长时间 每周几天 balabala~
鉴于已有offer,所以后续很多小厂的面试就没有去参加了。总结一下:目前看来大语言模型的面试机会还是非常多的,大厂面试非常注重基础能力和细节,小厂面试比较看重项目经验。
祝大家都能收获心怡的offer!
99%的人还看了
相似问题
- 最新AIGC创作系统ChatGPT系统源码,支持最新GPT-4-Turbo模型,支持DALL-E3文生图,图片对话理解功能
- 思维模型 等待效应
- FinGPT:金融垂类大模型架构
- 人工智能基础_机器学习044_使用逻辑回归模型计算逻辑回归概率_以及_逻辑回归代码实现与手动计算概率对比---人工智能工作笔记0084
- Pytorch完整的模型训练套路
- Doris数据模型的选择建议(十三)
- python自动化标注工具+自定义目标P图替换+深度学习大模型(代码+教程+告别手动标注)
- ChatGLM2 大模型微调过程中遇到的一些坑及解决方法(更新中)
- Python实现WOA智能鲸鱼优化算法优化随机森林分类模型(RandomForestClassifier算法)项目实战
- 扩散模型实战(十一):剖析Stable Diffusion Pipeline各个组件
猜你感兴趣
版权申明
本文"大语言模型面试心路历程【入职版】":http://eshow365.cn/6-22909-0.html 内容来自互联网,请自行判断内容的正确性。如有侵权请联系我们,立即删除!