赞
踩
使用JupyterLab的前提是需要安装Anaconda3。可参考如下文档
“我的电脑”→【右键】→选择“属性”进入到设置页面→选择“关于”,在该页面选择“高级系统设置”→进入到“系统属性”页面→选择【高级】页签→选择【环境变量】→在“系统变量”中配置Anaconda3,如下图所示
注:在新版的Anaconda3安装时并不会自动添加环境变量
“开始菜单”→搜索“cmd” →选择【以管理员身份运行】→进入到命令窗口页面,在该页面输入如下命令并回车
jupyter lab
回车后当显示如下信息表示已经成功启动
启动完成后,会弹出如下页面
在该页面上可以选择不同的应用程序:
在jupyter notebook上运行代码,可以使用如下两行代码进行登录。
from huggingface_hub import notebook_login
notebook_login()
点击https://huggingface.co/settings/tokens 获取tokens地址获取tokens。将tonkens填写到文本框中点击【Login】完成登录
transformers库是基于pytorch或tensorflow深度学习库的(现在也支持JAX),因此需要安装这两个软件包之一。下面的命令同时安装sentencepiece分词器,如果没有安装pytroch,也会自动安装对应的pytorch版本。
pip install transformers sentencepiece
import torch
模型解释:
from transformers import AutoModelForCausalLM, AutoTokenizer, TextStreamer
model_path = "daryl149/llama-2-7b-chat-hf"
model = AutoModelForCausalLM.from_pretrained(model_path).cuda()
下载该模型需要一些时间,如下图所示
说明:如果在下载模型过程中无法正常完成下载,我们可以在HuggingFace上手动将相关内容下载下来,并且复制到本机执行过程中生成的默认的目录中
tokenizer = AutoTokenizer.from_pretrained(model_path, use_fast = False)
streamer = TextStreamer(tokenizer, skip_prompt = True, skip_special_tokens = True)
prompt = "How to make money on the internet?"
generated_ids = model.generate(tokenizer(prompty, return_tensors = 'pt').input_ids.cuda(), max_new_tokens = 1000, streamer = streamer)
提问后的回复如下
下一篇提前预告:LLMs-入门四:基于LLaMA-Efficient-Tuning对LLMs做微调
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。