赞
踩
本系列文章旨在全面系统的介绍Hugging Face,让小白也能熟练使用Hugging Face上的各种开源资源,并上手创建自己的第一个Space App,在本地加载Hugging Face管线训练自己的第一个模型,并使用模型生成采样数据,同时详细解决部署中出现的各种问题。后续文章会分别介绍采样器及其加速、显示分类器引导扩散模型、CLIP多模态图像引导生成、DDMI反转及控制类大模型ControlNet等,根据反馈情况可能再增加最底层的逻辑公式和从零开始训练LLM等,让您从原理到实践彻底搞懂扩散模型和大语言模型。欢迎点赞评论、收藏和关注,这些对本系列文章非常重要。
本系列文章如下:
本篇主要介绍Hugging Face。Hugging Face是一个人工智能的开源社区,是相关从业者协作和交流的平台。它的核心产品是Hugging Face Hub,这是一个基于Git进行版本管理的存储库,截至2024年5月,已托管了65万个模型、14.5万个数据集以及超过17万个Space应用。另外,Hugging Face还开源了一系列的机器学习库如Transformers、Datasets和Diffusers等,以及界面演示工具Gradio。此外,Hugging Face设计开发了很多学习资源,比如与NLP(大语言模型)、扩散模型及深度强化学习等相关课程。最后介绍一些供大家交流学习的平台。为了更有趣,本篇介绍了大量有趣的Spaces应用,比如换装IDM-VTON、灯光特效IC-Light、LLM性能排行Artificial Analysis LLM Performance Leaderboard和自己部署的文生图模型stable-diffusion-xl-base-1.0、对图片精细化的stable-diffusion-xl-refiner-1.0等。只要读者认真按着文章操作,上述操作都可自己实现。下面对以上内容逐一介绍。
Hugging Face收录了大量的文生文、文生图、文生音频、文生视频及图生视频等多模态模型。模型界面的内容大致包括以下几方面:标签、模型卡片、文件和版本、社区交流、训练/部署/应用、推理API和应用的Spaces等。以大名鼎鼎的文生图模型stable-diffusion-xl-base-1.0为例,各部分所在区域如下图所示:
下面逐一介绍模型内容:
模型卡片是对模型的重要说明,是了解模型的窗口。当把模型开源到Hugging Face时,就需要制作卡片对模型进行详细介绍,示例代码如下所示:
from huggingface_hub import ModelCard, ModelCardData, EvalResult # Using the Template,Including Evaluation Results(Optional) card_data = ModelCardData( language='en', license='mit', library_name='timm', tags=['image-classification', 'resnet'], datasets=['beans'], metrics=['accuracy'], eval_results=[ EvalResult( task_type='image-classification', dataset_type='beans', dataset_name='Beans', metric_type='accuracy', metric_value=0.9, ), ], model_name='my-cool-model', ) card = ModelCard.from_template( card_data, model_description='This model does x + y...' ) card.push_to_hub(hub_model_id)
用户可以在Hub下载或上传模型,比如下载BERT的基础模型的git命令及huggingface-cli命令如下:
git clone https://hf.co/bert-base-uncase # git命令,可在最后添加下载目录
huggingface-cli download --resume-download google-bert/bert-base-uncased --local-dir bert-base-uncased #huggingface-cli命令,--local-dir用于建立软链接
上传模型的代码如下(这里只做简单演示,代码讲解及应用参见后续):
from huggingface_hub import HfApi, create_repo
from huggingface_hub import get_full_repo_name
model_name = "XXX"
hub_model_id = get_full_repo_name(model_name) #获取完整路径
create_repo(hub_model_id) #创建存储库
api = HfApi() #获取上传接口,并上传文件夹及文件
api.upload_folder(folder_path=f"{model_name}/scheduler", path_in_repo="", repo_id=hub_model_id)
api.upload_folder(folder_path=f"{model_name}/unet", path_in_repo="", repo_id=hub_model_id)
api.upload_file(path_or_fileobj=f"{model_name}/model_index.json", path_in_repo="model_index.json", repo_id=hub_model_id)
我们可以在通过几行简单的代码来使用这些模型,并查看其生成效果。单击训练/部署/应用区域的“Deploy->Inference API",出现如下不同语言的应用代码:
也可选择其它的应用方案,比如单击“Use in Diffusers”获取如下代码:
from diffusers import DiffusionPipeline
pipeline = DiffusionPipeline.from_pretrained("stabilityai/stable-diffusion-xl-base-1.0")
Q:你能看出上面两种应用方案的不同吗?
上文已提到,Hugging Face Hub开源和维护了大量的数据集,它还按照语言对数据集进行了拆分,并清理了文章中不必要的符号信息,以便开发者直接调用。以databricks公司收集的数据集databricks-dolly-15k为例,它是指令引导式的开源数据集,可用于任何商业和学术目的,这些记录符合InstructionGPT论文中概述的行为类别,包括封闭式QA、开放式QA、文本生成、信息提取、标签分类、头脑风暴和概括总结等。数据集界面如下图:
其内容形式大致与模型界面类似,这里不再赘述。唯一需要关注的不同点是Viewer,通过Viewer可以概览数据集中的数据,对各类数据记录有个大概认识。
对于经典数据集databricks/databricks-dolly-15k的调用代码如下,也可以点击“Use in Datasets library”查看这段代码:
from datasets import load_dataset
dataset = load_dataset("databricks/databricks-dolly-15k", split="train")
train_dataloader = torch.utils.data.DataLoader(dataset, batch_size=128, shuffle=True)
也可以通过命令huggingface-cli下载代码:
huggingface-cli download --repo-type dataset --resume-download databricks/databricks-dolly-15k --local-dir databricks-dolly-15k
Hugging Face Hub还支持通过上传自己的数据集,直接在线微调模型。我们以cognitivecomputations/dolphin-2.9-llama3-8b为例,此时有两种方法创建AutoTrain Project:第一种,在AutoTrain功能主页点击“Create new project”,如下图:
第二种,需在模型界面点击Train->Auto Train(部分模型不支持)->Create a new AutoTrain project,后续操作类似,点击后出现如下界面:
此时自动创建Space,起名为cognitivecomputations-dolphin-2.9-llama3-8b,协议选择other(可在模型标签查看其协议),Space SDK选择Docker,Docker template选择AutoTrain,其余保持默认,点击“Create Space”。
此时没登录会提示登录,登录后对新建AutoTrainLLM进行授权,授权后进入训练界面,如下图所示:
此处操作步骤如下:
此时查看右上角的Logs,会有训练的日志输出,如下图:
普通用户尤其是企业用户,可以用自己企业的数据微调已有的优秀LLM模型,从而调制自己专有的LLM模型。
此节我们介绍丰富多彩的Spaces应用,帮大家了解Spaces一二,方便大家可以自己探索并使用这些令人眼花缭乱又惊喜不断的Apps。其Spaces首页如下图:
使用Spaces可在几分钟内构建、托管和共享ML应用程序,它具有如下优势:
Hugging Face为每个Space应用提供了免费的两核CPU+16GB内存的服务器资源,但免费服务器会在闲置一定时间后自动进入休眠状态,并在有用户访问时被再次唤醒。为了获得更稳定访问,可以付费升级、向社区申请赞助或向官方申请免费升级。
下面我们就来看一看具体的Spaces应用并亲手创建一个自己的Spaces应用程序。
IDM-VTON是一个在线衣服试穿程序,通过上传人像和衣服照片,可以自动生成试穿效果,其界面如下图所示:
操作步骤如下:
设置完毕后点击最下方的"try on",等待几十秒即可看到试穿效果。
通过IDM-VTON换装的图片还缺点大片特效,IC-Light正好可以添加不同风格的光影特效,让你的图片秒变大师手笔,效果如下图所示:
操作步骤如下:
设置完毕后点击"Relight",等待几十秒钟即可得到不同特效的照片以及去除背景的前景照片,最后我们就可以把精美大片分享给自己的好友啦。
Artificial Analysis LLM Performance Leaderboard(人工分析LLM性能排行榜)是通过LLM提供的API,独立进行性能基准&计价的榜单,表中罗列了各模型的API供应商、模型名称、上下文窗口、模型质量、计价(美元/百万tokens)、吞吐量、延迟和详细分析,如下图所示:
其中上下文窗口、模型质量、计价、吞吐量和延迟均可展开,以便查看更详细的性能指标。
点击详细分析中的Model/Providers,会跳转到artificialanalysis.ai,Model通过图表的形式提供了该模型更详细的性能分析,Providers则通过图表对比该厂商名下的各个不同版本的Moel的各项指标,方便我们根据自己的需要选择,如下图所示:
通过Hugging Face提供的免费硬件,我们可以创建属于自己的Space应用,并可供它人访问、下载和互动。这里介绍两种创建方式:第一种,在Spaces主页点击“Create new space”,如下图:
第二种,直接引用已有模型作为基础模型,创建自己的Space。为了让大家体验不同的模型,这里引用1.1.1节介绍的文生图模型stabilityai/stable-diffusion-xl-base-1.0。在模型界面点击Deploy->Spaces,弹出如下窗口:
点击“Create new Space”,跳到创建Space页面,如下图所示:
操作步骤如下:
操作完毕后,点击Create Space进入Building&Starting界面,等待1分左右,就会创建成功。输入Prompt:There are a panda and a tiger playing happily in the bamboo forest, and there is a big waterfall next to them, with sunshine lighting, Superfine details. 最终效果如下图:
HOMEWORK:使用stabilityai/stable-diffusion-xl-refiner-1.0可以渲染更多的图片细节,其模型界面如下图:
作者在创建它的Space时,遇到错误提示ValueError: Unsupported pipeline type: image-to-image,您可以解决这个错误吗?
通过文生图模型生成图片后,再通过精细化模型对细节进行调整,最后呈现效果如下图所示:
可以看到,熊猫和老虎的眼睛、嘴巴、爪子和瀑布、竹林、石头的细节都得到了强化。您还可以用它来美化老照片、去除马赛克等。
参考资料:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。