
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
2-1、如果没有GPU或者GPU显存小于12G,建议用在线大模型:用文本编辑器修改config目录中的model_config.py文件,将申请的大模型key输入到114~184行,同时修改100行LLM_MODEL为对应大模型,例如:"zhipu-api"因国内访问huggingface.co困难,做了一个windows下的整合包,内置了chatglm2-6B、m3e-base,可以本地运行la

2-1、如果没有GPU或者GPU显存小于12G,建议用在线大模型:用文本编辑器修改config目录中的model_config.py文件,将申请的大模型key输入到114~184行,同时修改100行LLM_MODEL为对应大模型,例如:"zhipu-api"因国内访问huggingface.co困难,做了一个windows下的整合包,内置了chatglm2-6B、m3e-base,可以本地运行la

下载:https://huggingface.co/r4ziel/xformers_pre_built/blob/main/triton-2.0.0-cp310-cp310-win_amd64.whl。下载:https://huggingface.co/r4ziel/xformers_pre_built/blob/main/triton-2.0.0-cp310-cp310-win_amd64.wh

由于训练的数据规模较小,训练的tokenizer效果一般,也可以直接复制 happy-llm/docs/chapter5/code/tokenizer_k目录,已经训练好的tokenizer文件。在base_model_215M就可以看到训练生成的基础模型文件:pretrain_1024_18_6144.pth、pretrain_1024_18_6144_step20000.pth、pretrai
2-1、如果没有GPU或者GPU显存小于12G,建议用在线大模型:用文本编辑器修改config目录中的model_config.py文件,将申请的大模型key输入到114~184行,同时修改100行LLM_MODEL为对应大模型,例如:"zhipu-api"因国内访问huggingface.co困难,做了一个windows下的整合包,内置了chatglm2-6B、m3e-base,可以本地运行la

3、启动后通过本地http://127.0.0.1:7860访问,也会生成一个72小时的公网URL,供远程访问。1、下载程序:git clone https://github.com/THUDM/CodeGeeX2。2、直接用ChatGLM2-6B的依赖python .\demo\run_demo.py即可启动。链接:https://caiyun.139.com/m/i?如果嫌安装依赖麻烦,做了一
解压:ffmpeg-6.0-full_build-shared.zip 到根目录(例如:c:\ffmpeg-6.0-full_build-shared)解压:ffmpeg-6.0-full_build-shared.zip 到根目录(例如:c:\ffmpeg-6.0-full_build-shared)下载:ffmpeg-6.0-full_build-shared.zip。下载:ffmpeg-6.









