logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

文本分类(ALBert+BiLSTM)

基于ALBert及BiLSTM进行中文文本分类的通用过程。1.语料准备(基于csv文件),语料类import osfrom typing import Listfrom typing import Tupleimport numpy as npimport pandas as pdfrom tensorflow.keras.utils import get_filefrom kashgari im

#自然语言处理#神经网络#深度学习
ollama embedding兼容OpenAI格式

ollama embeddings 端点:/api/embed,而非/embeddings,输出的格式与OpenAI不兼容,下面给出兼容的方式。推荐模型: bge-m3。

车与司机——关于AI的三种误解与一种清醒

现实是,不会开车的人照样可以叫网约车、搭地铁、坐高铁,甚至雇专职司机。“会用AI的人将淘汰不会用的人”——这句话像一张新世纪的末日判决书,在社交网络上反复传阅,把“不会AI”渲染成一种即将灭绝的史前物种。AI时代的核心竞争力,不是“掌握工具”的傲慢,而是“理解需求、定义问题、调度资源”的谦逊。“不会就要学”“不学就被淘汰”——这种二元对立的恐吓式话术,其实是技术资本最擅长的营销剧本:先制造焦虑,再

#人工智能
Qwen3-30B-A3B-Thinking-2507:你值得拥有的 64 GB 级「推理怪兽」

Qwen3-30B-A3B-Thinking-2507:真正意义上「一张 910B 就能拥有的推理怪兽」但 一张 64 GB 昇腾 910B 就能让它 INT8 全速跑、INT4 全并发。30 B 参数、3.3 B 激活、42 GB 显存、64 GB 单卡就能跑。它在 数学、代码、中文理解 三项 全面碾压 70 B Dense,别再被“3 B 激活”迷惑——它依旧是 30 B 参数的大块头,在 总

上下文工程

模型输入中的文本内容(如用户提问、历史对话、文档片段等);模型在生成响应时所依赖的所有信息;包含任务描述、示例、背景知识、约束条件等。✅ 例如:在问答系统中,上下文可能是问题本身 + 一段参考文章。上下文工程 = 让大模型“看得懂、想得清、答得准”的系统性方法论。它不仅是“写得好提示”,更是信息架构、知识管理、任务建模与用户体验设计的融合。在LLM应用落地中,优秀的上下文工程往往是决定成败的关键。

使用Dify访问数据库(mysql)

1、在本地搭建数据库访问的服务,并使用ngrok暴露到公网。2、创建知识库,导入表结构描述。3、创建数据库访问工作流。4、创建数据库智能体。

文章图片
#数据库#工作流
大模型落地加速工具-fastllm

model = llm.from_hf(model, tokenizer, dtype = "float16") # dtype支持 "float16", "int8", "int4"- 🚀 目前支持ChatGLM模型,各种LLAMA模型(ALPACA, VICUNA等),BAICHUAN模型,MOSS模型。- 🚀 支持浮点模型(FP32), 半精度模型(FP16), 量化模型(INT8, I

#人工智能
为什么编程辅助工具,普遍感觉不太好用呢?

虽然现在的编程辅助工具(如GitHub Copilot、ChatGPT、TabNine、Cursor等)已经取得了显著进展,但很多人仍然觉得它们“不太好使”。这种“不好用”的感觉往往并不是因为这些工具完全无效,而是因为它们与程序员的实际工作方式之间存在一系列错位。你可以把它当成一个“有点聪明但不靠谱的实习生”——用得好是助力,用不好是负担。它不会替你开车,但如果你知道怎么问、怎么修正,它确实能让你

为什么编程辅助工具,普遍感觉不太好用呢?

虽然现在的编程辅助工具(如GitHub Copilot、ChatGPT、TabNine、Cursor等)已经取得了显著进展,但很多人仍然觉得它们“不太好使”。这种“不好用”的感觉往往并不是因为这些工具完全无效,而是因为它们与程序员的实际工作方式之间存在一系列错位。你可以把它当成一个“有点聪明但不靠谱的实习生”——用得好是助力,用不好是负担。它不会替你开车,但如果你知道怎么问、怎么修正,它确实能让你

    共 47 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 请选择