
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
基于Transformer的人工智能模型搭建与fine-tuning。三、 微调(Fine-tuning)的关键策略。一、 Transformer 模型的本质理解。微调(Fine-tuning)二、 模型搭建的核心流程。
Prompt实战#大语言模型#深度学习#任务执行框架#大模型。一、 从“逐词翻译”到“理解语境”六、 巧用“示例”让模型对齐预期。三、 用结构化指令锁定输出框架。五、 分阶段迭代,而非一步到位。四、 用约束条件控制专业深度。二、 给模型“立人设”
逻辑回归#风控#特征工程#模型评估#可解释性。AI算法实战:逻辑回归在风控场景中的应用。三、 关键环节:特征工程决定上限。七、 总结:逻辑回归的不可替代性。一、 为什么风控偏爱逻辑回归?五、 模型评估:不止看准确率。二、 风控目标与建模任务。四、 模型训练与业务对齐。六、 模型部署与持续监控。
知识图谱如何结合 RAG实现更精确的知识问答。
数字孪生#工程项目#BIM#LOT#全生命周期。二、数字孪生在工程项目中的应用情况。一、数字孪生国内外发展现状。数字孪生国内外发展现状。
数字孪生#底层逻辑#关键技术期#虚实映射理#全生命周期。三、典型架构(四层模型)一、数字孪生的底层逻辑。数字孪生底层逻辑和技术。二、关键技术支撑。
DNN案例一步步构建深层神经网络(3)四、对于构建的深层神经网络的应用。* * * * * * * 架构。
Transformer是一种基于自注意力机制(Self-Attention)的神经网络架构,最早是在2017年由谷歌大脑团队Ashish Vaswani和多伦多大学的一个团队发表的一篇名为"Attention is All You Need"的论文中描述的。3.将Encoder输出的编码信息矩阵C传入Decoder中,Decoder会根据当前翻译过的单词 1 ~ i 翻译下一个单词 i + 1。1
感受野(Receptive field)深度学习—卷积神经网络(4)







