登录社区云,与社区用户共同成长
邀请您加入社区
作为衡量和引导各类组织系统性构建数据管理能力、激活数据要素价值的核心方法与能力标尺,DCMM2.0的发布与实施,对于筑牢数字经济发展底座、支撑“人工智能+”行动、赋能新质生产力发展具有重要的战略意义。在赋能“人工智能+”行动深入落地方面,DCMM2.0直面智能时代对高质量、高可信数据的迫切需求,重点强化了面向AI训练与应用场景的多模态数据治理、高质量数据集建设与管理、数据产品全生命周期管控等能力项
本文章为山东大学软件学院创新实训博客,记录了整体开发阶段的过程。
本文介绍了两种自定义Django ORM函数实现除法取整的方法。DivFloor类实现向下取整除法(FLOOR),DivCeil类实现向上取整除法(CEIL),两者都继承自Django的Func类并返回整数结果。文章建议使用Case/When防止除零错误,并展示了如何在复杂表达式中应用这些函数。该实现兼容主流数据库(MySQL/PostgreSQL/SQLite),但需注意不同数据库对除零处理的差
今天主要完成了视觉分析系统(HuiVision)的后端日志持久化模块。通过在 FastAPI 流程中集成 SQLite 数据库,成功实现了对 AI 视觉识别结果、首字延迟(First Token Latency)及总响应时长(Total Latency)的自动化存库。
我们不希望每次都把表结构塞进 System Prompt。利用 MCP 的Resource特性,我们可以提供一个的 URI。"""返回数据库所有表的定义。AI 可以在不知道表结构时调用此资源。"""# 获取 SQLite 表名")返回数据库所有表的定义。AI 可以在不知道表结构时调用此资源。
到这里,这套FastAPI路线已经形成完整闭环:1. 单体CRUD、分层架构与统一异常工程底盘2. SQLite -> MySQL/PostgreSQL持久化与迁移能力3. JWT/OAuth2身份与权限治理4. pytest与TestClient可回归质量护栏5. Uvicorn/Gunicorn +配置 +监控日志上线稳定性按这五步执行,你得到的不只是能跑的FastAPI项目,而是一个可以持续
到第三篇为止,我们已经有了:分层架构数据库接入JWT/OAuth2鉴权现在项目最容易出现的风险是:你每次改一处功能,都不确定会不会把别的接口弄坏这就是为什么第四步必须是测试体系建设本文目标:1. 用pytest与TestClient建立FastAPI的主流程测试2. 让CRUD、鉴权、异常语义都可回归3. 把测试接入CI,做到提交即验证。
本文介绍了FastAPI应用的分层架构设计,重点阐述了Router、Service和CRUD三层的职责划分。Router层负责接收请求和返回响应,不处理业务逻辑;Service层处理业务规则和流程控制;CRUD层仅执行数据库操作。依赖方向应为Router→Service→CRUD→Database单向流动。main.py仅负责应用创建、路由注册和数据库初始化。文章通过用户注册/登录接口的代码示例展
摘要:文章探讨了SQLite在生产环境中的局限性,包括并发写入瓶颈、缺乏网络接口等问题,并指导开发者如何将FastAPI应用的数据库升级为MySQL。详细介绍了MySQL的安装配置过程,以及通过SQLAlchemy和PyMySQL实现FastAPI与MySQL的无缝对接。通过实际案例演示了数据迁移和接口测试流程,为开发者提供了从SQLite迁移到MySQL的完整解决方案,帮助应用应对用户量增长带来
《语音输入工具的技术思考》探讨了开发PC端AI语音输入工具"秒言"的实践心得。文章指出,语音输入看似成熟实则门槛高,准确率和速度是硬性要求,云端方案优于本地模型。产品注重将语音转化为"直接可用"的文本输出,而非简单转写。现阶段聚焦稳定性而非功能堆砌,认为准确率、速度和稳定性是决定工具可用性的核心要素。作者强调基础工具的长期可用性挑战,记录开发过程中的工程实践
本文介绍了一个基于Django框架开发的在线考试与评估系统。该系统针对传统考试模式的痛点,整合计算机技术、网络通信和数据库管理技术,构建了安全高效的在线考试平台。系统核心功能包括多角色用户管理、智能组卷、在线监考、自动评分和数据分析等模块。技术实现上采用Django+PostgreSQL后端架构和Vue.js+Element Plus前端技术,支持RESTful API和实时通信。系统通过降低考试
sfsDb在边缘计算场景下,特别是需要"高并发写入 + 复杂查询"的场景中,已经具备了挑战甚至取代SQLite的能力。随着进一步的优化和功能增强,sfsDb有望成为边缘计算领域的理想数据库选择。
再加上春季气候干燥,易内生燥热,风邪与热邪相互交织,侵袭肌肤、肺脏,就会引发一系列春敏症状。日常多吃清热疏风、养阴润燥的食物,比如雪梨、百合、绿豆、冬瓜、芹菜、莲藕等,既能清除体内郁热,又能滋养肌肤、润肺利咽,缓解咽干肤痒的不适。春风回暖,草木抽芽,本该是踏青赏春的好时节,漫天飞舞的杨絮、柳絮、花粉、树毛却成了不少人的“健康困扰”。皮肤泛红发痒、打喷嚏流鼻涕、眼干咽痛、头晕烦躁,这些看似过敏的症状
本文旨在系统性地探讨SQLite数据库在能源管理系统中的应用场景和技术实现方案。研究范围包括SQLite的核心特性分析、能源管理系统的数据特点、SQLite在能源数据存储和处理中的优势,以及实际应用中的性能优化策略。文章首先介绍SQLite和能源管理系统的基础概念,然后深入分析两者的技术结合点。接着通过实际代码示例展示具体实现,最后讨论应用场景、工具资源和未来发展趋势。SQLite:一款轻量级的嵌
在工业4.0时代,数据是资产,更是竞争力。选择一个高可靠、高安全、高效率的边缘数据库,是企业数字化转型的第一步。边缘设备断网丢数据?SQLite 并发性能瓶颈?数据安全合规压力?多设备统一管理困难?那么,是时候了解sfsDb了。👉立即访问官网 /GitHub 库地址,获取免费试用版本,体验真正的工业级边缘数据存储解决方案。sfsDb —— 为工业而生,为未来而存。
本文介绍了一个基于Django框架开发的在线考试与评估系统。该系统采用Python3.7/3.8开发,使用MySQL5.7+数据库,整合了计算机技术、网络通信和数据库管理技术,构建了安全高效的在线考试平台。系统包含用户管理、考试管理、在线考试、自动评估和数据可视化五大核心功能模块,支持多角色权限控制、智能组卷、防作弊监考、自动评分和成绩分析等功能。技术实现上采用Django4.x框架和Postgr
本文介绍了如何下载VK视频的技术方案。VK采用HLS协议等技术手段限制直接下载,传统方法如FFmpeg、Python爬虫等存在诸多局限。作者推荐了一款高效在线工具,支持多分辨率解析,具备智能路由、客户端解析等优化功能,成功率高达98%。文章详细分析了工具的技术原理,包括API探测、页面元素分析等策略,并提供了批处理脚本和浏览器扩展集成思路。最后强调合法使用原则,对比了各类工具的优缺点,建议普通用户
本文介绍了一款基于Django框架的控糖食物推荐系统,专为糖尿病患者和健康饮食需求者设计。系统采用智能化推荐技术,通过协同过滤和内容推荐算法,结合用户健康数据生成个性化控糖食谱。核心功能包括用户管理、食物管理、推荐系统、营养分析和数据可视化模块。系统采用MVT分层设计,支持MySQL/PostgreSQL数据库,可实现个性化推荐、营养均衡分析和健康决策支持。典型应用场景包括糖尿病管理、健身APP和
FastAPI 是 Python 生态中的高性能 Web 框架,专门用来做 API 接口开发,原生支持异步、自动生成可测试的接口文档,不用写大量冗余代码,零基础也能快速上手。这篇文章把 FastAPI 最核心的基础知识点讲透,从写第一个程序到定义路由、传参、做响应,全是新手能直接复刻的内容。
在移动互联网高度发达的今天,的价值愈发凸显——它不仅保障了数据隐私与访问稳定性,更能在无网络环境下提供极致用户体验。本文将带你深入实践一个:使用,结合实现轻量级、高性能的数据存储与管理,打造一款真正“断网可用”的桌面工具。
小哈图书下载中心(qciss.net)是一个面向开发者的专业编程图书资源平台,通过智能分类引擎(基于TF-IDF算法)和Elasticsearch搜索系统,实现技术书籍的精准推荐。平台建立了严格的内容验证机制,涵盖前端、后端、数据科学等全技术栈资源,并提供IDE插件、CLI工具等开发者工作流集成。同时注重版权保护与社区生态建设,包括读书笔记共享、技术问答等功能,帮助开发者在技术快速迭代中高效学习。
aerich 是 Tortoise ORM 官方配套的数据库迁移工具,类比 Django 中的 makemigrations 和 migrate 命令 —— 它能追踪你对 Tortoise 模型(数据库表结构)的修改(比如新增字段、修改字段类型、删除模型等),并生成对应的 SQL 迁移脚本,让你可以安全地升级 / 回滚数据库表结构,避免手动写 SQL 带来的错误和兼容性问题。
基于 FastAPI + HTML + SQLite3 的扫码点餐小程序及后台管理系统。
本文从语法、库使用、数据库连接到接口开发、请求调用一步步讲解,适合新手学习与日后复习。全程使用 Python 内置库 + 轻量框架,无需复杂环境。return {"你的名字": name}return {"接收数据": {"name": name, "age": age}}SQLite 流程:连接 → 创建游标 → 执行 SQL → 提交 → 关闭FastAPI 流程:创建 app → 装饰器定义
欢迎来到第30天!在昨天的课程中,我们学会了用 CSV 和 Excel 来保存数据。对于几千几万条数据,Excel 确实很好用。但如果数据量达到了几十万、几百万条,或者需要进行复杂的查询(比如"找出所有2023年购买了商品A且金额大于100的用户"),Excel 就力不从心了。这时,我们需要。通常提到数据库,大家会想到 MySQL, PostgreSQL, Oracle 等,它们功能强大但配置繁琐
先做schemas/common.py:code: strdef success_response(data: Any = None, message: str = "成功") -> dict:为什么这一步要最先做:- 前端只要认一个结构:success/message/data/error- 测试断言成本更低- 后续你换业务实体,也不需要改交互协议`python这层的价值:- 把脏数据拦在入口-
sqlite
——sqlite
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net