
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
图神经网络 (GNN) 是一种神经网络架构和深度学习方法,可以帮助用户分析图,使他们能够根据图的节点和边描述的数据进行预测。图形表示数据点(也称为节点)之间的关系。这些节点表示主体(例如人、物体或地点),边缘表示节点之间的关系。图形可以由 x 轴和 y 轴、原点、象限、线条、条形和其他元素组成。通常,机器学习 (ML) 和深度学习算法使用简单的数据类型进行训练,这使得理解图形数据变得复杂且困难。此

近一年agent不断火热,或是大模型借助工具自助决策完成任务,或是通过静态编排的工作流自动顺序执行结果,让我们在处理相关任务时效率得到指数级提高。尽管可以在很多智能体商店找到一些场景下的agent项目,但为了能够个性化满足自己的需求,最好还是可以自己了解、尝试搭建一些基础agent。本篇就以扣子平台为例,给大家做个agent的入门介绍(其实各平台比如dify、n8n业务逻辑都大差不差,选择扣子是因

并用这个摘要代替原始详细内容存入记忆。摘要可以由一个LLM生成。

这非常抽象,但并不像听起来那么复杂。首先,我们需要介绍一点(很少)的数学知识。

Meta公司发布了人工智能模型——Llama 3.1。那么Llama 3.1 405B的效果怎么样?我们来对比一张图,横向对比一下GPT-4。可以看出,Llama 3.1 405B在各类任务中的表现可以与GPT-4等顶级的模型相差无几。那么,我们怎样才能用到这款强大的Llama 3.1 405B模型呢?最直接的方式是通过Meta.ai平台,但目前这一途径仅对美丽国的用户开放。那有无适合平民用的大模

RAG不是万能药,但它确实是让大语言模型在特定领域发挥威力的有效方法。关键是要理解它的局限性,并针对你的具体场景进行优化。
书接上回,接下来要讨论的是大模型是如何逐步进化的,以及目前的进展情况。首先要提到的是关于大模型效果的(scaling law),简单说就是大模型在预估下一个词这一任务上的效果只跟两个因子相关,并且与这两个因子存在着某种函数关系,这两个因子就是和。只要知道了这两个因子,就可以比较置信地预估出模型在预估下一个词这个任务上的效果。就当前来讲,这一准则还没有显现出到顶的迹象,所以在更多的数据上训练更大的模

近几天在研究大模型LLM时,使用合成数据集来训练LLM“统计字符串(100个单词以内)中字母的个数”的能力,基于Word进行分词。原始的使用单卡训练12个小时左右,测试准确率约为99.937%。这个准确率看上去很高的,但在人工测试过程中发现,模型对一些简单的case都会预测错误。从直觉上看,出错的case应该是更容易预测的。对此我提出如下猜测:如果测试样本的数据分布跟训练样本的数据分布差异较大,就
希望你能找到一些新的有趣的东西来让你的日常任务自动化。

为了更广泛的支持不同的评估场景,Auto-J 定义了58种不同的场景,分属于8大类(摘要,重写,代码,创作,考题,一般交流,功能性写作以及其他NLP任务)。对于每个场景,研究者手动编写了一套用作参考的评估标准(criteria),覆盖了这类场景下常见的评估角度,其中每条标准包含了名称和文本描述。评估标准的构建遵循一个两层的树状结构:先定义了若干组通用基础标准(如文本与代码的一般标准),而每个场景的
