当前位置: 首页 > news >正文

MiniMind模型的web交互功能初试

MiniMind模型的web交互功能初试

一、前言

MiniMind提供了基于streamlit的web交互功能,能够即时切换模型和修改相关参数,经初步测试,具有比较好的体验感。本文介绍了使用MiniMind使用web交互功能的方法,并对使用中出现的问题给出了相应的解决方法。

二、测试模型准备

2.1、 模型下载

MiniMind已经训练好了多个模型,官网给出的模型下载地址为:

  • PyTorch原生模型
  • Transformers模型

可以从网站直接下载所需要的模型,也可以通过以下方式下载全部模型:

#SDK模型下载
from modelscope import snapshot_download
model_dir = snapshot_download('gongjy/MiniMind2-PyTorch')
#Git模型下载
git clone https://www.modelscope.cn/gongjy/MiniMind2-PyTorch.git

从官网给的Transformers模型下载链接看,MiniMind2目前只有PyTorch原生模型可以下载。

2.2、模型转换

MiniMind项目提供了通过streamlit实现了基本的web交互功能,程序为scripts目录里的web_demo.py。运行环境需要有streamlit,可以按如下方法安装:

pip install streamlit

然后启动网页对话程序:

streamlit run web_demo.py

很不幸,笔者运行的时候出现了以下错误提示:

ValueError: Unrecognized model in …/MiniMind2. Should have a model_type key in its config.json, or contain one of the following strings in its name: albert, align, altclip, aria, aria_text, audio-spectrogram-transformer, autoformer, aya_vision, bamba, bark, bart, beit, bert, bert-generation, big_bird, bigbird_pegasus, biogpt, bit, blenderbot, blenderbot-small, blip, blip-2, bloom, bridgetower, bros, camembert, canine, chameleon, chinese_clip, chinese_clip_vision_model, clap, clip, …

经检查程序,发现默认加载Transformers模型,直接把PyTorch模型放在模型路径下是不行的。因此需要使用scripts目录下的conver_model.py将PyTorch模型转换为Transformers模型。模型转换的相关参数按下表确定。

Model Nameparamslen_vocabn_layersd_model
MiniMind2-Small26M64008512
MiniMind2-MoE145M64008640
MiniMind2104M640016768
minimind-v1-small26M64008512
minimind-v1-moe4×26M64008512
minimind-v1108M640016768

如对于MiniMind2-Small模型,参数和路径设置如下:

    lm_config = LMConfig(dim=512, n_layers=8, max_seq_len=8192, use_moe=False)torch_path = f"../out/rlhf_{lm_config.dim}{'_moe' if lm_config.use_moe else ''}.pth"transformers_path = '../MiniMind2-Small'

转换后,会在模型路径下生成以下文件,用于Transformers加载:
modelfiles

三、PyTorch原生模型的加载方式

除了上述PyTorch模型转换为Transformers模型的方法外,还可以直接修改web_demo.py直接加载PyTorch模型。
主要修改如下:

#...
MODEL_PATHS = {"MiniMind2-MoE (0.15B)": ["../MiniMind2-PyTorch", "MiniMind2-MoE"],
}
#...
def main():#model, tokenizer = load_model_tokenizer(model_path) # 注释掉此行model_file = f'{MODEL_PATHS[selected_model][0]}/full_sft_640_moe.pth'model = MiniMindLM(LMConfig(dim=640,n_layers=8,max_seq_len=6400,use_moe=True))state_dict = torch.load(model_file, map_location=device)model.load_state_dict({k: v for k, v in state_dict.items() if 'mask' not in k}, strict=True)model.eval().to(device)tokenizer = AutoTokenizer.from_pretrained('./model/minimind_tokenizer')

这样web_demo.py程序就可以正确加载PyTorch模型。

四、web交互测试

MiniMind2-MoE模型测试:
start
模型切换和参数设置:
second

推理模型MiniMind2-R1测试:
reasonmodel

相关文章:

  • 驱动支持的最高CUDA版本与实际安装的Runtime版本
  • cpu性能统计
  • 小火电视桌面 TV版 老旧历史版本安装包 官方免费下载
  • 本地使用Ollama部署DeepSeek
  • 实时交互式AIGC系统开发:打造多模态数字人全栈解决方案
  • 基于图扑 HT 实现的智慧展馆数字孪生应用
  • 大模型应用开发(PAFR)
  • 实现层归一化
  • 燃气经营从业人员有哪些类别
  • 计算机组成原理-408考点-数的表示
  • [DDD传灯录]禅师:这,就是领域驱动设计(01-02)
  • py语法基础理解
  • C++中随机数的产生
  • 登高架设作业证考试的实操项目有哪些?
  • Linux服务器离线安装ollama及大模型
  • 使用ACME给动态域名下的Synology NAS免费申请SSL证书(无需开放80/443端口)
  • 终端运行java出现???
  • Java基本概念
  • Veo 2:Gemini API赋能的革命性视频生成工具,重新定义动态内容创作——从逼真物理模拟到精细镜头控制,开发者的新一代视频生成利器
  • Vuex 和 Pinia 的区别
  • 驻美国使馆发言人就美方希就关税问题与中方对话答记者问
  • 解放军仪仗司礼大队参加越南纪念南方解放50周年庆典活动
  • 白俄罗斯驻华大使:应发挥政党作用,以对话平台促上合组织发展与合作
  • 体坛联播|卡马文加预计伤缺三个月,阿尔卡拉斯因伤退赛
  • 魔都眼·上海车展④|奔驰宝马保时捷……全球豪车扎堆首秀
  • 与包乐史驾帆航行|航海、钓鱼和写书:一个记者的再就业之路