logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

操作指南:在vue-fastapi-admin上增加新的功能模块

近期在github上看到一个很不错的web框架,https://github.com/mizhexiaoxiao/vue-fastapi-admin。该项目基于 FastAPI + Vue3 + Naive UI 的现代化前后端分离开发平台,融合了 RBAC 权限管理、动态路由和 JWT 鉴权,可以助力中小型应用快速搭建,也可用于学习参考。本着研究和学习的目的,尝试着添加一个新的模块,比如知识库管

文章图片
#vue.js#fastapi#前端
带你一文入门LazyLLM:像搭积木一样开发AI应用

选择LazyLLM还是Dify,取决于你的具体需求和团队背景:选择LazyLLM追求极致的开发速度和代码的轻量控制。核心需求是构建复杂的多Agent协同应用。需要深度本土化集成(如国内办公软件)。团队技术背景较强,不排斥编写少量代码。选择Dify团队中包含非技术人员,需要无代码图形化界面。希望快速搭建一个功能全面的应用,追求开箱即用。需要利用活跃的社区和丰富的现成模板来加速开发。项目对企业级支持和

#人工智能
操作指南:vLLM 部署开源大语言模型(LLM)

vLLM 是一个专为高效部署大语言模型(LLM)设计的开源推理框架,其核心优势在于显存优化、高吞吐量及云原生支持。安装 vLLM或从源码安装最新功能:Docker 部署:使用官方镜像快速启动服务,适用于容器化环境:依赖环境从 Hugging Face 加载模型vLLM 支持直接加载 Hugging Face 托管的模型,例如:若需加速国内下载,可设置镜像源:本地模型路径若模型已下载至本地,可直接指

文章图片
#开源#语言模型#人工智能
操作指南:vLLM 部署开源大语言模型(LLM)

vLLM 是一个专为高效部署大语言模型(LLM)设计的开源推理框架,其核心优势在于显存优化、高吞吐量及云原生支持。安装 vLLM或从源码安装最新功能:Docker 部署:使用官方镜像快速启动服务,适用于容器化环境:依赖环境从 Hugging Face 加载模型vLLM 支持直接加载 Hugging Face 托管的模型,例如:若需加速国内下载,可设置镜像源:本地模型路径若模型已下载至本地,可直接指

文章图片
#开源#语言模型#人工智能
NaiveUI与ElementUI 比较分析

在前端开发的广阔领域中,Vue.js作为最流行的前端框架之一,为开发者提供了丰富的组件库,其中NaiveUI和ElementUI是两个备受瞩目的选择。本文将深入分析这两个组件库的特点、优劣势以及适用场景,帮助开发者在项目中做出更合适的选择。

文章图片
#elementui#前端#javascript
操作指南:在vue-fastapi-admin上增加新的功能模块

近期在github上看到一个很不错的web框架,https://github.com/mizhexiaoxiao/vue-fastapi-admin。该项目基于 FastAPI + Vue3 + Naive UI 的现代化前后端分离开发平台,融合了 RBAC 权限管理、动态路由和 JWT 鉴权,可以助力中小型应用快速搭建,也可用于学习参考。本着研究和学习的目的,尝试着添加一个新的模块,比如知识库管

文章图片
#vue.js#fastapi#前端
操作指南:vLLM 部署开源大语言模型(LLM)

vLLM 是一个专为高效部署大语言模型(LLM)设计的开源推理框架,其核心优势在于显存优化、高吞吐量及云原生支持。安装 vLLM或从源码安装最新功能:Docker 部署:使用官方镜像快速启动服务,适用于容器化环境:依赖环境从 Hugging Face 加载模型vLLM 支持直接加载 Hugging Face 托管的模型,例如:若需加速国内下载,可设置镜像源:本地模型路径若模型已下载至本地,可直接指

文章图片
#开源#语言模型#人工智能
从零上手 vue-fastapi-admin:现代化轻量管理平台的快速搭建指南

通过以上二次开发案例,可以看到 vue-fastapi-admin 不仅开箱即用,更具备强大的扩展能力。无论是添加新功能模块还是集成企业级服务,都能通过清晰的代码结构快速实现。建议读者从本文案例入手,逐步探索更多可能性。

#vue.js#fastapi#前端
C/S架构的应用程序开发实战(二)

后端服务后端用python实现,采用flask web框架。可从github上获取flasky源码,在此基础上进行业务逻辑的实现。程序结构如下:├── app# 业务逻辑实现代码│├── common# 公共函数实现,这里主要是数据库相关的增删改查接口实现,以及算法模型的推断功能实现│├── init.py│├── main# 视图函数实现,即供前端调用的API实现│└── pycache├──

#docker
React vs Next.js:前端开发的两把利剑,到底怎么选?

React是“基础工具”,适合自由度高的 UI 开发Next.js是“生产力工具”,适合快速交付生产级应用组合使用:Next.js ≈ React + 路由 + 服务端渲染 + 优化工具最终建议:新手从 React 入门,掌握组件化思维后,直接用 Next.js 开发真实项目!

文章图片
#javascript#react.js#前端
    共 26 条
  • 1
  • 2
  • 3
  • 请选择