logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【基于Transformer的人工智能模型搭建与fine-tuning】

基于Transformer的人工智能模型搭建与fine-tuning。三、 微调(Fine-tuning)的关键策略。一、 Transformer 模型的本质理解。微调(Fine-tuning)二、 模型搭建的核心流程。

#fastapi#scikit-learn
大模型Prompt实战:精准生成专业技术文档

Prompt实战#大语言模型#深度学习#任务执行框架#大模型。一、 从“逐词翻译”到“理解语境”六、 巧用“示例”让模型对齐预期。三、 用结构化指令锁定输出框架。五、 分阶段迭代,而非一步到位。四、 用约束条件控制专业深度。二、 给模型“立人设”

#tornado#plotly#dash +2
AI算法实战:逻辑回归在风控场景中的应用

逻辑回归#风控#特征工程#模型评估#可解释性。AI算法实战:逻辑回归在风控场景中的应用。三、 关键环节:特征工程决定上限。七、 总结:逻辑回归的不可替代性。一、 为什么风控偏爱逻辑回归?五、 模型评估:不止看准确率。二、 风控目标与建模任务。四、 模型训练与业务对齐。六、 模型部署与持续监控。

#机器学习#知识图谱#深度学习
知识图谱如何结合 RAG实现更精确的知识问答

知识图谱如何结合 RAG实现更精确的知识问答。

#plotly#fastapi#scikit-learn
数字孪生国内外发展现状

数字孪生#工程项目#BIM#LOT#全生命周期。二、数字孪生在工程项目中的应用情况。一、数字孪生国内外发展现状。数字孪生国内外发展现状。

#virtualenv#flask#数据分析 +1
数字孪生底层逻辑和技术

数字孪生#底层逻辑#关键技术期#虚实映射理#全生命周期。三、典型架构(四层模型)一、数字孪生的底层逻辑。数字孪生底层逻辑和技术。二、关键技术支撑。

#fastapi#flask#tornado +2
DNN案例一步步构建深层神经网络(3)三、深层神经网络四、对于构建的深层神经网络的应用

DNN案例一步步构建深层神经网络(3)四、对于构建的深层神经网络的应用。* * * * * * * 架构。

#dash
Transformer是一种基于自注意力机制(Self-Attention)的神经网络架构

Transformer是一种基于自注意力机制(Self-Attention)的神经网络架构,最早是在2017年由谷歌大脑团队Ashish Vaswani和多伦多大学的一个团队发表的一篇名为"Attention is All You Need"的论文中描述的。3.将Encoder输出的编码信息矩阵C传入Decoder中,Decoder会根据当前翻译过的单词 1 ~ i 翻译下一个单词 i + 1。1

#人工智能
深度学习—卷积神经网络(4)

感受野(Receptive field)深度学习—卷积神经网络(4)

#人工智能#深度学习
    共 31 条
  • 1
  • 2
  • 3
  • 4
  • 请选择