
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
AI在生物蛋白质合成中应用

利用AI方法来解决分子适配的问题AI解决官能团适配AI解决分子结构对功能生效问题

这篇文章介绍了一种方法,可以让大型语言模型(LLM)具备在多种代理任务上表现出色的能力,缩小了开源和商业LLM在这方面的差距。该方法称为AgentTuning,它包括以下两个步骤:● 首先,构建了一个覆盖多种代理任务的数据集,称为AgentInstruct,它包含了1,866个经过验证的代理交互轨迹,每个轨迹都有一个人类指令和一个代理动作。● 然后,设计了一种指令调优策略,将AgentInstru

大模型训练,是工程和算法的合力作用。对于工程分布式计算系统是绕不过去的核心中的核心。这篇文章和大家分享分布式时候内存消耗在哪、zero策略、流水线策略、动态策略

随着计算资源的廉价和语料知识资源的积累,知识图谱在各大企业逐步开始尝试使用。本文结合王昊奋和漆桂林老师的知识图谱课件以及复旦知识工厂课件,尝试对知识图谱做个综述。目录知识图谱与语义技术概述语义网典型知识库项目简介cyc:常识库Wordnet:词性消歧词库conceptnet:常识知识库freebase:Wikidata:Dbpedia:Yago:Babe...
那么有没可能同时保持模型泛化力有模块化增量增加其他能力,不影响其它能力。我提出的想法是用某块组合方式来实现:1.pretrain保持泛化性2.把pretrain模型参数用更小可控参数矩阵层转换控制3.在可控参数矩阵层之上增加adapter层,这样相当于是pretrain是一个很复杂通用机器,通过控制矩阵引出基础控制算子,然后在通过adapter层作为控制算子编程层,用ssft数据任务调教控制编程层

visual chat将会是多模态大模型一个过渡态,Gpt4以及他的后代一定会用集成电路的模式取代这个分立元器件组成的通用多模态模式。但是它的很多思路是值得我们学习的。

这篇文章把学术语音小助手几个模块部分实现细节代码完善。完整项目代码放在github中https://github.com/liangwq/Chatglm_lora_multi-gpu,感兴趣同学可以下载下来自己运行下。目前代码已经把所有功能都实现了,但是还没有整合成一个一键运行的项目,这块后续会逐步完善。项目还有很多优化提高地方,比如:1.如何提高长文本摘要生成准确性和生成速度2.如何提高语音合成

1.把DDIM模型做了实现层面的介绍2.把具体实现代码和推导细节对应3.代码学习是为了后面sd模型打基础4.甚至是为了后续改模型架构,增加更多特征信息作铺垫

visual chat将会是多模态大模型一个过渡态,Gpt4以及他的后代一定会用集成电路的模式取代这个分立元器件组成的通用多模态模式。但是它的很多思路是值得我们学习的。








