logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

实战记录:搭建多模型 AI 视频生成的批量调度脚本

摘要:本文介绍了一个自动化短视频素材生成的工作流解决方案。团队需要同时使用Kling、Veo和Seedance三种AI视频生成模型,但手动操作效率低下。作者开发了Python脚本,通过调用ai.tikhub.io的统一API接口,实现了批量prompt分发、多模型并发生成和自动归档功能。核心代码包含任务提交、轮询和下载模块,以及并发调度模块。系统还加入了GPT-4自动扩写简单prompt的功能,提

#人工智能#服务器#vscode +3
用 OpenClaw 搭一个 AI Git 助手,自动写 Commit Message 和 PR 描述

写 commit message 是我最讨厌的开发环节之一。改了二十个文件,最后憋出一句 “fix bugs”。最近用 OpenClaw 搭了个小工具,能根据git diff自动生成规范的 commit message 和 PR 描述,记录一下过程。

#人工智能#git#elasticsearch +3
实战记录:用 OpenClaw 从零搭建一个 AI Markdown 笔记助手

本文记录了使用OpenClaw搭建命令行Markdown笔记助手的过程。通过配置自定义Provider接入多种AI模型(GPT-4o/DeepSeek等),30分钟内完成项目开发。核心功能包括:文本转结构化笔记、文件摘要、段落扩写。文章详细介绍了OpenClaw的两种配置方式(命令行引导/直接修改配置文件),并展示了AI生成的Python代码实现,包括LLM调用封装和CLI命令设计。最后演示了笔记

#人工智能#语言模型#python +2
把 Dify 接上聚合 API 端点:配置过程和三个实际用法

整体来说 Dify 接自定义端点的配置量不大,主要就是 OpenAI-API-compatible 通道,把需要的模型逐个加进去。在 Dify 里配之前,先单独测一下端点,这步省不了——出问题的时候不知道是端点的问题还是 Dify 配置的问题,排查很费时间。:尤其是 Claude 和 Gemini 这类大上下文窗口的模型,如果填了默认的 4096,长文档的 RAG 效果会很差。Dify 发布应用后

#人工智能#数据库#python +4
OpenClaw 接入自定义模型端点的配置方法:多模型分层路由实践

编辑,在},},:和内置 Provider 合并,而不是覆盖。漏了这个字段会导致内置模型全部消失:声明端点协议类型。如果目标端点走 Anthropic 协议,改成models数组:显式声明可用模型。和maxTokens是可选的,但建议填上——OpenClaw 会根据这些值决定上下文截断策略如果输出里能看到等模型,说明配置生效。

#java#windows#人工智能 +3
用 LLM 批量处理 3000 条用户反馈:从人工标注到自动化的完整迁移过程

公司每个月积累几千条用户反馈(App 评论、客服工单、问卷开放题),之前靠运营同事手动分类打标签,一个人干两三天。这篇记录一下怎么用 LLM 把这个流程自动化的,包括方案设计、模型选择、准确率对比、以及上线后的实际效果。

#自动化#运维#人工智能 +3
OpenClaw 接入自定义模型端点的配置方法:多模型分层路由实践

编辑,在},},:和内置 Provider 合并,而不是覆盖。漏了这个字段会导致内置模型全部消失:声明端点协议类型。如果目标端点走 Anthropic 协议,改成models数组:显式声明可用模型。和maxTokens是可选的,但建议填上——OpenClaw 会根据这些值决定上下文截断策略如果输出里能看到等模型,说明配置生效。

#java#windows#人工智能 +3
用 Python 批量调用 Sora、Kling、Veo 等视频模型的工程方案

AI 视频生成最近进展很快,但工程落地时有个很现实的问题:Sora、Kling、Veo 3、Seedance 各家的 API 申请流程、接口规范、计费方式都不一样。这篇记录一下怎么通过统一端点简化这个过程,以及实际跑下来各模型的表现差异。

#人工智能#语言模型#python +1
到底了