
简介
叶梓,长期负责城市信息化智能平台的建设工作,牵头多个省级、市级智能化信息系统的建设,主持设计并搭建多个行业省级、市级大数据平台。提供人工智能相关的培训和咨询
擅长的技术栈
可提供的服务
人工智能,大数据方向的培训及咨询
Dify 是一个开源的大语言模型 (LLM) 应用开发平台。它结合了后端即服务 (Backend-as-a-Service) 和 LLMOps (LLMOps) 的概念,使开发人员能够快速构建生产级生成式 AI (Generative AI) 应用。即使是非技术人员也可以参与 AI 应用的定义和数据操作。

它的关键在于通过特定的提示语让模型生成思考过程,然后再将生成的理由和问题拼在一起,配合指向答案的提示来激励模型生成答案。同时,随着技术的进步和更多相关研究的出现,我们期待看到更多创新的方法来进一步提升大模型的推理能力。近年来,研究者们提出了多种方法来增强大模型的推理能力,这些方法在不同程度上模拟了人类的思考过程,提高了模型解决问题的准确性和效率。Auto-CoT提出自动构建带有问题和推理链的演示,

在当今信息爆炸的时代,如何高效地管理和检索大量数据成为了一个重要课题。网易有道推出的开源项目QAnything,正是为了解决这一问题而生。QAnything是一个本地知识库问答系统,支持多种文件格式和数据库,允许用户在离线状态下进行安装和使用。用户只需将任何格式的本地存储文件放入系统,即可获得准确、快速且可靠的答案。

灵活的应用部署:Dify支持多种大语言模型,开发者能够根据自己的需求选择最适合的模型来构建AI应用。叶梓老师将带您深入了解Dify的核心优势,从零开始构建高效的AI应用。是一款开源的大模型应用开发平台,旨在简化和加速生成式AI应用的创建和部署。结合实践,叶梓老师带你从零开始,动手操作,快速上手Dify,解锁大模型的无限潜能。1、掌握Dify的核心功能,从大模型接入到应用构建,全方位提升开发效率。3

人工智能咨询培训老师叶梓 转载标明出处大模型(LLMs)赋予了自主智能体广泛的任务泛化能力,但现实任务往往需要团队合作来提升效率。尽管已有研究探索了智能体的合作潜力,但这些研究通常局限于特定任务,缺乏通用性,并且智能体的合作方式较为固定,缺乏适应性。针对这一挑战,来自清华大学计算机科学与技术系、北京邮电大学计算机科学学院以及腾讯公司微信AI团队的研究人员共同提出了一个名为AGENTVERSE的多智

人工智能咨询培训老师叶梓 转载标明出处随着人工智能技术的快速发展,语言模型(LMs)在各种下游任务中展现出了卓越的能力。特别是在少样本(few-shot)和零样本(zero-shot)学习环境中,通过吸收特定任务的指令和示例,这些模型已经引起了广泛关注。然而,要提升模型的推理能力,大规模高质量的训练数据是不可或缺的。由于注释成本高昂,包含推理步骤的高质量数据集相对稀缺。为了解决这一问题,本文提出了

人工智能咨询培训老师叶梓 转载标明出处大模型微调需要更新并存储模型的所有参数,这不仅增加了存储成本,也使得模型的部署变得复杂。为了解决这一问题,斯坦福大学的Xiang Lisa Li和Percy Liang提出了一种名为“前缀调整”(Prefix-Tuning)的轻量级替代方案。

生成模型的研究中,文本到图像的生成一直是一个充满挑战的任务。传统的扩散模型虽然在生成质量上取得了显著的成果,但其生成过程往往需要大量的迭代步骤,这不仅导致计算成本高昂,而且生成速度缓慢,难以满足实时或近实时应用的需求。随着技术的发展和应用场景的不断扩展,如何在短时间内生成高质量、高分辨率的图像样本,已成为该领域亟待解决的关键问题。在这样的背景下,SDXL-Lightning模型的出现,为文本到图像

大模型(LLMs)在处理长文本数据方面的需求日益增长。无论是科学研究、法律分析还是医学诊断,长文本的处理能力都显得尤为重要。然而,现有的基于Transformer的模型在处理这类数据时遇到了重大挑战。由于其注意力机制的二次方复杂度,随着输入序列的增长,所需的内存和计算资源呈指数级增加,这不仅限制了模型处理长文本的能力,也带来了巨大的经济成本。

人工智能咨询培训老师叶梓 欢迎转载 标明出处大模型在满足用户多样化和特定需求方面还有很多有待探索的空间,浙江大学计算机科学与技术学院的研究团队提出了ModelGPT,这是一个新颖的框架,能够根据用户提供的数据或任务描述生成特别定制的AI模型。相较于传统LLMs,ModelGPT大幅减少了训练和部署所需的资源,提供高达270倍的速度提升。









