已解决
【通意千问】大模型GitHub开源工程学习笔记(3)-- 通过Qwen预训练语言模型自动完成给定的文本
来自网友在路上 175875提问 提问时间:2023-09-30 16:30:29阅读次数: 75
最佳答案 问答题库758位专家为你答疑解惑
摘要:
本笔记分析了使用预训练的模型生成文本的示例代码。它的步骤如下:
- 使用已加载的分词器 tokenizer 对输入文本进行处理,转换为模型可以理解的格式。输入文本是国家和首都的信息,最后一句是未完成的,需要模型来生成。
- 将处理后的输入转移到模型所在的设备上(例如GPU或CPU)。
- 使用模型的 generate 方法对输入进行处理,生成预测的输出。
- 使用分词器的 decode 方法将生成的输出从模型理解的格式转换回文本,并打印出来。
实例分析
from transformers import AutoModelForCausalLM, AutoTokenizer from transformers.generation import GenerationConfig# 可选的模型包括: "Qwen/Qwen-7B", "Qwen/Qwen-14B" tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen-7B", trust_remote_code=True)# 打开bf16精度,A100、H100、RTX3060、RTX3070等显卡建议启用以节省显存 # model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen-7B", device_map="auto", trust_remote_code=True, bf16=True).eval() # 打开fp16精度,V100、P100、T4等显卡建议启用以节省显存 # model = AutoModelForCausalLM.from_pretrained("Qwen/Q
查看全文
99%的人还看了
相似问题
- 最新AIGC创作系统ChatGPT系统源码,支持最新GPT-4-Turbo模型,支持DALL-E3文生图,图片对话理解功能
- 思维模型 等待效应
- FinGPT:金融垂类大模型架构
- 人工智能基础_机器学习044_使用逻辑回归模型计算逻辑回归概率_以及_逻辑回归代码实现与手动计算概率对比---人工智能工作笔记0084
- Pytorch完整的模型训练套路
- Doris数据模型的选择建议(十三)
- python自动化标注工具+自定义目标P图替换+深度学习大模型(代码+教程+告别手动标注)
- ChatGLM2 大模型微调过程中遇到的一些坑及解决方法(更新中)
- Python实现WOA智能鲸鱼优化算法优化随机森林分类模型(RandomForestClassifier算法)项目实战
- 扩散模型实战(十一):剖析Stable Diffusion Pipeline各个组件
猜你感兴趣
版权申明
本文"【通意千问】大模型GitHub开源工程学习笔记(3)-- 通过Qwen预训练语言模型自动完成给定的文本":http://eshow365.cn/6-15536-0.html 内容来自互联网,请自行判断内容的正确性。如有侵权请联系我们,立即删除!