
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
Xiaothink-T6-0.15B模型突破性地采用MoF混合架构,融合Transformer与RNN优势,在仅0.15B参数和2.5GB训练数据条件下实现接近chatGLM-6B的性能。其核心创新包括:1)双专家协同系统(窄深Transformer处理复杂短上下文+宽浅RNN处理知识型长上下文);2)思维空间模块增强语义理解;3)智能路由动态分配计算资源。该模型支持移动端部署,在基础问答任务中展
本文介绍了一种基于Xiaothink框架的轻量级文本相似度计算方案,主要特点包括:1)使用预训练的Xiaothink-T6-0.15B-ST模型,无需额外训练;2)适配普通电脑,8GB内存即可运行;3)提供完整代码实现。方案通过4个核心步骤实现:安装依赖、下载模型、构建嵌入提取器、计算余弦相似度(0-1范围,值越大越相似)。该方案特别适合问答系统、内容去重等需要快速判断文本语义关联的场景,具有低门
摘要:Xiaothink-T7-ART是一款轻量级古诗生成AI模型,仅需消费级CPU即可运行。该模型采用创新的多专家协同架构,通过7000万参数和400MB训练数据实现接近SOTA的创作水平,支持风格仿写、诗句续写等多种创作模式。其特点包括:硬件要求低(Intel Core i7即可)、生成可控性强、文学性突出,适用于文学创作辅助、教育应用等场景。模型已开源,无需GPU支持,让古诗创作AI技术真正

基于Xiaothink-T6-0.15B-ST模型实现低算力高效文本情感分类。该工具优势包括:零额外模型负担、适配轻量模型、即插即用API。通过pip安装后,只需3步即可实现情感分析:导入模块、初始化模型、调用分类接口。该方案采用指令微调技术,支持零样本迁移,无需额外训练数据。使用时需注意路径正确性和版本兼容性,适合资源有限的端侧应用场景。模型可通过ModelScope下载。
本文介绍了一种基于Xiaothink框架的轻量级文本相似度计算方案,主要特点包括:1)使用预训练的Xiaothink-T6-0.15B-ST模型,无需额外训练;2)适配普通电脑,8GB内存即可运行;3)提供完整代码实现。方案通过4个核心步骤实现:安装依赖、下载模型、构建嵌入提取器、计算余弦相似度(0-1范围,值越大越相似)。该方案特别适合问答系统、内容去重等需要快速判断文本语义关联的场景,具有低门
Xiaothink-T6-0.15B模型突破性地采用MoF混合架构,融合Transformer与RNN优势,在仅0.15B参数和2.5GB训练数据条件下实现接近chatGLM-6B的性能。其核心创新包括:1)双专家协同系统(窄深Transformer处理复杂短上下文+宽浅RNN处理知识型长上下文);2)思维空间模块增强语义理解;3)智能路由动态分配计算资源。该模型支持移动端部署,在基础问答任务中展
清韵千言2(Xiaothink-T6-0.08B-Poem)是一款仅8000万参数的轻量级AI作诗模型,在单颗Intel Core i7上完成全流程训练。该模型通过150MB诗歌专项数据微调,在诗词创作效果上超越大100倍的ChatGLM-6B模型。用户可通过简单三步安装使用:1)安装专用库;2)下载模型文件;3)调用API生成诗词。模型支持风格仿写、诗句续写等功能,提供温度参数调节创作自由度,并
这个例子就不兼容较新版的浏览器(上传图片会失败)。我们可以使用cefpython3,借助它版本较旧的特点。基于一个开源的浏览器代码(博客太久找不到了),制作了一个简单的标签页浏览器。含有基本的功能,但是不支持cookie保存,可以自己加上。

接下来,我们定义一个名为# print('最小化')








