简介
非计算机专业出身人士,但于2009年毅然投身IT行业。迄今,拥有15年的开发经验以及10年的项目管理经验。曾先后参与金融、政企、互联网等多个行业领域的数十个项目。对分布式架构、微服务技术以及大数据领域的知识掌握娴熟。当前,致力于人工智能(AI)方向的深入探索,所负责的项目已顺利完成大语言模型和算法的备案工作。
擅长的技术栈
可提供的服务
开发资源,技术咨询
通过vLLM源码构建Docker镜像,提升了构建的灵活性与安全性,同时也优化了研发与部署的效率。
使用CPU将Qwen2.5-7B-Instruct模型与vLLM框架进行有效整合(使用vLLM框架,能为模型推理提供强有力的支持,使得在CPU上执行的模型不仅能保持较高的准确率,还能在资源有限的条件下,实现快速响应,充分释放潜在价值)
Ollama集成QWen1.5系列模型,全网唯一,绝非搬运。
使用CPU将Qwen2.5-7B-Instruct模型与vLLM框架进行有效整合(使用vLLM框架,能为模型推理提供强有力的支持,使得在CPU上执行的模型不仅能保持较高的准确率,还能在资源有限的条件下,实现快速响应,充分释放潜在价值)
集成 Hugging Face的TGI框架实现模型推理加速
使用Qwen2.5-Coder-7B-Instruct模型,探索更多使用场景
使用Gradio快速体验Qwen2.5-7B-Instruct与vllm集成推理的效果。
使用Qwen2.5-Coder-7B-Instruct模型,帮助开发人员获得高效、准确和个性化的代码支持
使用FastAPI提高AI应用程序的开发效率和用户体验,为 AI 模型的部署和交互提供全方位的支持。
使用FastAPI提高AI应用程序的开发效率和用户体验,为 AI 模型的部署和交互提供全方位的支持。