
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
摘要:本文介绍了一个自动化短视频素材生成的工作流解决方案。团队需要同时使用Kling、Veo和Seedance三种AI视频生成模型,但手动操作效率低下。作者开发了Python脚本,通过调用ai.tikhub.io的统一API接口,实现了批量prompt分发、多模型并发生成和自动归档功能。核心代码包含任务提交、轮询和下载模块,以及并发调度模块。系统还加入了GPT-4自动扩写简单prompt的功能,提
写 commit message 是我最讨厌的开发环节之一。改了二十个文件,最后憋出一句 “fix bugs”。最近用 OpenClaw 搭了个小工具,能根据git diff自动生成规范的 commit message 和 PR 描述,记录一下过程。
本文记录了使用OpenClaw搭建命令行Markdown笔记助手的过程。通过配置自定义Provider接入多种AI模型(GPT-4o/DeepSeek等),30分钟内完成项目开发。核心功能包括:文本转结构化笔记、文件摘要、段落扩写。文章详细介绍了OpenClaw的两种配置方式(命令行引导/直接修改配置文件),并展示了AI生成的Python代码实现,包括LLM调用封装和CLI命令设计。最后演示了笔记
整体来说 Dify 接自定义端点的配置量不大,主要就是 OpenAI-API-compatible 通道,把需要的模型逐个加进去。在 Dify 里配之前,先单独测一下端点,这步省不了——出问题的时候不知道是端点的问题还是 Dify 配置的问题,排查很费时间。:尤其是 Claude 和 Gemini 这类大上下文窗口的模型,如果填了默认的 4096,长文档的 RAG 效果会很差。Dify 发布应用后
编辑,在},},:和内置 Provider 合并,而不是覆盖。漏了这个字段会导致内置模型全部消失:声明端点协议类型。如果目标端点走 Anthropic 协议,改成models数组:显式声明可用模型。和maxTokens是可选的,但建议填上——OpenClaw 会根据这些值决定上下文截断策略如果输出里能看到等模型,说明配置生效。
公司每个月积累几千条用户反馈(App 评论、客服工单、问卷开放题),之前靠运营同事手动分类打标签,一个人干两三天。这篇记录一下怎么用 LLM 把这个流程自动化的,包括方案设计、模型选择、准确率对比、以及上线后的实际效果。
编辑,在},},:和内置 Provider 合并,而不是覆盖。漏了这个字段会导致内置模型全部消失:声明端点协议类型。如果目标端点走 Anthropic 协议,改成models数组:显式声明可用模型。和maxTokens是可选的,但建议填上——OpenClaw 会根据这些值决定上下文截断策略如果输出里能看到等模型,说明配置生效。
AI 视频生成最近进展很快,但工程落地时有个很现实的问题:Sora、Kling、Veo 3、Seedance 各家的 API 申请流程、接口规范、计费方式都不一样。这篇记录一下怎么通过统一端点简化这个过程,以及实际跑下来各模型的表现差异。







