logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

用 LangChain 自动写并执行 Python 代码

本文介绍了如何使用 LangChain 表达式语言(LCEL)构建一个自动编写和执行 Python 代码的流水线。通过四个核心步骤:安装依赖库、设置提示模板和AI模型、清理代码输出、使用Python REPL执行代码,用户可以输入问题(如"2加2等于多少"),系统会自动生成并执行对应的Python代码返回结果。文章特别强调了安全注意事项,提醒用户仅用于简单计算任务,避免执行危险

#python#人工智能
RAG 为什么会作为知识库项目的名字

摘要:RAG(检索增强生成)是一种核心技术架构,而非具体的知识库项目名称。它通过“先检索、再生成”的方式,将知识库内容转化为向量数据,结合大语言模型实现精准问答,完美解决了知识库项目中时效性不足和准确性差的问题。RAG已成为企业知识助手、文档问答等知识库类应用的主流技术方案,因此常被误称为项目名称。其核心优势在于既能精准匹配知识库内容,又能生成自然流畅的回答,是当前实现高效知识库项目的关键技术。

#人工智能
tensorflow 零基础吃透:RaggedTensor 与其他张量类型的转换

本文详细介绍了RaggedTensor与TensorFlow其他张量类型(密集张量和稀疏张量)之间的转换方法。主要内容包括: RaggedTensor转密集张量:使用to_tensor()方法填充默认值,适用于需要固定形状输入的场景 密集张量转RaggedTensor:使用from_tensor()方法剔除填充值,恢复可变长度结构 RaggedTensor转稀疏张量:使用to_sparse()方法

#tensorflow#neo4j#人工智能
tensorflow 零基础吃透:tf.data 中 RaggedTensor 的核心用法(数据集流水线)

本文详细介绍了TensorFlow中tf.data.Dataset与RaggedTensor结合的四大核心应用场景。主要内容包括:1)使用RaggedTensor构建数据集,保留可变长度数据的原始结构;2)批处理与取消批处理操作对RaggedTensor的特殊处理方式;3)将非规则张量转换为Ragged批处理的技术。通过代码示例和结果解读,展示了RaggedTensor在处理可变长度数据时的优势—

#tensorflow#neo4j#人工智能
TensorFlow 中不规则张量(RaggedTensor)

摘要:TensorFlow中的不规则张量(RaggedTensor)专门处理非均匀长度数据,允许同一维度下元素长度不一致(如[[3,1,4,1], [], [5,9,2]])。它适用于可变长度特征、批量序列、分层数据等场景,支持100+原生运算(数学、数组、字符串操作等)。关键特性包括Python风格索引、算术重载、自定义转换,并能与Python列表/NumPy互转。RaggedTensor解决了

#tensorflow#neo4j#人工智能
tensorflow 零基础吃透:RaggedTensor 的不规则形状与广播机制

摘要:本文深入解析TensorFlow中RaggedTensor的不规则形状与广播机制。RaggedTensor通过静态形状(TensorShape)和动态形状(DynamicRaggedShape)描述其可变长度特性,静态形状中不规则维度恒为None,动态形状则记录实际行长度。广播机制继承普通Tensor规则但针对不规则维度特殊处理,允许标量、均匀维度为1的Tensor与RaggedTensor

#tensorflow#neo4j#人工智能
LangChain 表达式语言动态路由

本文介绍了LangChain动态路由的两种实现方法:RunnableBranch和自定义函数。核心流程均为"先分类输入,再路由到对应子链"。关键点包括:1)需先构建分类链和三个专业子链;2)RunnableBranch通过条件-可运行对实现声明式路由;3)自定义函数通过代码逻辑判断实现更灵活的路由。两种方法最终效果相同,区别在于前者适合简单路由规则,后者可处理复杂逻辑。建议根据

人工智能在WAF安防领域的方案和框架支撑

摘要: AI/ML技术显著提升了WAF的防御能力,通过异常检测、恶意Payload识别、攻击分类、行为分析和误报优化五大方案,解决传统规则引擎的痛点。异常检测采用无监督学习(如孤立森林、自编码器)识别0day攻击;Payload识别利用NLP模型(如BERT)对抗编码混淆;攻击分类通过XGBoost/Transformer实现精准归类;行为分析使用LSTM建模用户会话异常;误报优化依赖半监督学习减

#人工智能
tensorflow 零基础吃透:TensorFlow 张量切片与数据插入(附目标检测 / NLP 实战场景)

本文详细讲解了TensorFlow中张量切片与数据插入的核心操作,涵盖基础切片、跨步切片、索引提取以及数据插入等关键方法。通过目标检测和NLP实战场景,演示了tf.slice、tf.gather、tf.scatter_nd等API的具体应用,包括特征筛选、序列截取、单词遮盖和特征更新等任务。文章提供了丰富的代码示例,帮助读者掌握如何高效处理结构化数据,并展示了如何结合不同API实现复杂操作(如模拟

#tensorflow#目标检测#自然语言处理
Transformer与AI大模型框架的关系

摘要:Transformer是一种深度学习模型架构,基于自注意力机制和编码器-解码器结构,广泛应用于NLP、CV等领域。它不是独立框架,而是需要依赖TensorFlow/PyTorch等深度学习框架实现,同时被Hugging Face等高层框架封装为易用工具。Transformer模型通过ONNX/TensorRT等部署框架优化落地,也可与传统ML框架协同使用。简言之,Transformer是模型

#人工智能#transformer#深度学习
    共 91 条
  • 1
  • 2
  • 3
  • 10
  • 请选择