
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
它还支持多种索引类型,包括基于LSH的索引、基于KD树的索引、基于哈希的索引等。Qdrant是一个开源的向量数据库,它可以存储和检索大量的向量,并提供高效的搜索和聚类功能。:需要使用里面的向量模型、排序模型、文本生成模型(自己本地使用Ollama安装也行)由于各个模型之间需要的参数格式不一样,这边还需要两个对查询结果格式进行转换的函数。由于数据库中没有数据,所以我们这里需要往数据库中添加一些测试数
写这篇文章,是因为前几天在「观猹」上聊了聊自己开发 WiseMindAI 的感受,那次聊完挺有触动的,所以想把这段经历也留在自己的公众号里,顺便做了些内容上的补充和修改,分享给你们。在这个过程中,我几乎把市面上主流的文档、笔记、知识库工具都体验了一遍,但始终没找到一个真正适合自己的工具。支持本地数据存储、多模型调用、多文档导入与解析,集成本地知识库、智能笔记、文档总结、知识卡片、海报生成等能力。支
它能轻松支持网页、RSS、PDF、Markdown 等十余种格式的文档,并无缝集成 ChatGPT、Gemini、DeepSeek 等顶尖 AI 模型,让你的学习更加高效。这种低效,真的让人焦虑。就拿 Chris 来说,天天都要扒拉一堆 AI 相关的论文和报告,真心希望能有个“神助攻”。看到不错的知识总结图片,直接用 WiseMindAI 识别,秒变文字,整理起来太轻松了。,课件和论文看不完也啃不
等待三个模型完成总结后,就发现 DeepSeek 的版本最贴近自己的写作需求,结构清晰、重点明确,而且生成速度快。在“模型竞技场”中,你只需输入一次任务(例如“请总结这份文档的核心观点”),WiseMindAI 会。“我用不同模型总结同一份文档,结果差别挺大,有的太抽象,有的太啰嗦,我想一眼就能比较。随着越来越多的大模型加入市场,选择“哪个模型更好”成了一道新难题。,它像一场「AI 对决」,让模型
毕竟FFmpeg和video.js的生态更成熟。普通MP4文件的元数据(比如视频时长、分辨率)集中在文件头部,如果只加载中间片段,播放器可能无法解析。最近有个需求要加载长视频,用户反馈视频加载慢、播放卡顿。,而不是一次性加载整个视频文件。这样用户在观看前几秒内容时,后面的部分已经在后台默默加载了。这两种方案各有优缺点,下面详细聊聊我的实现思路和踩过的坑。请求头告诉服务端:“我只需要文件的某一部分”
???? 工具名称:WiseMindAI???? 官方网址:https://wisemind-ai.com/???? 下载地址:https://wisemind-ai.com/download/???? 支持语言:简体中文、繁体中文和英文???? 支持平台:Windows 端、Mac 端WiseMindAI 是 Chris 开发的一款 AI 智能学习助手,本文会介绍比较详细,内容较多,也可以进官网
本文基于笔者对「好的」低代码的理解,以及对业界当前开源的各类不错低代码产品的一个简单分析,期待可以给大伙一些输入,可能有些观点不够成熟,欢迎交流与讨论。可能大家谈到低代码想到更多的是低代码搭建页面的平台,内部不少也是此种,其实对于偏逻辑编排、服务 BaaS 能力的偏可视化方式其实也算低代码,旨在「通过少写代码,用更便捷的方式来实现原本需写代码的工作」。说到低代码,喜欢的人特别喜欢,不喜欢的人很不喜
它基于 Rust 构建,性能极快,能在保存时自动格式化代码并修复 lint 问题,且不干扰开发工作流。:自动生成 CODING_STYLE.md 并提供 MCP 接口,Cursor / Windsurf / Zed 实时读取。Github 地址:https://github.com/haydenbleasel/ultracite。:初始化即带 pre-commit 校验,无需额外装 husky /
不过就在刚刚,Ollama 0.10.1 版本正式上线可视化图形界面啦,同步支持 Mac 和 Windows 端,再也不用对着命令行工具敲命令了。在之前使用 Ollma 安装和运行本地模型时,都需要在命令行工具中使用,对于非技术人员,首次使用确实有点门槛。新版本 Ollama 中提供了全新的对话界面,不仅支持普通的对话,还支持下载模型,这就非常方便了。新版本 Ollama 支持添加代码文件,然后让
值得注意的是,不是每个项目都会生成视频,比如 Chris 测试的 https://codewiki.google/github.com/qwenlm/qwen 就没有生成。它能自动分析你的 GitHub 仓库,一键生成结构化 Wiki 文档,包含系统概览、函数详解,甚至能自动绘制调用关系图。Code Wiki 的文档并不是静态文件,而是为每个仓库维护了一个持续更细的结构化的 Wiki 文档。嗨,我







