logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

音视频开发 ● Android使用SurfaceView绘制Bitmap

1.明明可以使用imageview显示图片、自定义View的ondraw()绘制一张图片,那是因为Android系统是每隔16ms发出VSYNC信号来进行屏幕的重绘,这个重绘是在主线程中的。一旦主线程中的绘制任务时长超过16ms,就会出现卡帧现象。因为SurfaceView的屏幕绘制不是在主线程中,所以不会导致主线程(UI线程)的卡帧现象。所以复杂耗时的绘制任务应该放到使用SurfaceView去

#android
LLM大模型 - 实战篇 - 实现文本处理:分类、信息抽取与匹配

文本分类旨在将金融文本划分到预定义的类别中。以下是完整的实现代码:python"""利用LLM进行金融文本分类任务"""# 定义类别及其示例'新闻报道': '今日,股市经历了一轮震荡,受到宏观经济数据和全球贸易紧张局势的影响。投资者密切关注美联储可能的政策调整,以适应市场的不确定性。','财务报告': '本公司年度财务报告显示,去年公司实现了稳步增长的盈利,同时资产负债表呈现强劲的状况。经济环境的

#人工智能
LLM大模型 - 实战篇 - 实现文本处理:分类、信息抽取与匹配

文本分类旨在将金融文本划分到预定义的类别中。以下是完整的实现代码:python"""利用LLM进行金融文本分类任务"""# 定义类别及其示例'新闻报道': '今日,股市经历了一轮震荡,受到宏观经济数据和全球贸易紧张局势的影响。投资者密切关注美联储可能的政策调整,以适应市场的不确定性。','财务报告': '本公司年度财务报告显示,去年公司实现了稳步增长的盈利,同时资产负债表呈现强劲的状况。经济环境的

#人工智能
LLM大模型-基础篇-Prompt-Tuning方法进阶

近年来,超大规模预训练语言模型(如。

#人工智能#深度学习
LLM大模型-基础篇-Prompt-Tuning方法进阶

近年来,超大规模预训练语言模型(如。

#人工智能#深度学习
LLM大模型-基础篇-Prompt-Tuning方法入门

Prompt-Tuning:通过模板将下游任务转化为预训练任务形式,减少额外参数,适合小样本/零样本场景。PET 核心组件:Pattern(模板)、Verbalizer(标签映射)。P-Tuning V1 核心思想:固定大模型参数,使用 LSTM + MLP 编码 Prompt,提升连续性与关联性。

LLM大模型-基础篇-Prompt-Tuning方法入门

Prompt-Tuning:通过模板将下游任务转化为预训练任务形式,减少额外参数,适合小样本/零样本场景。PET 核心组件:Pattern(模板)、Verbalizer(标签映射)。P-Tuning V1 核心思想:固定大模型参数,使用 LSTM + MLP 编码 Prompt,提升连续性与关联性。

LLM大模型-基础篇-ChatGPT模型原理

版本核心变化训练方式数据集代表能力GPT-1Transformer Decoder(去掉第二子层)无监督 + 有监督微调预训练 + 微调GPT-2Pre-LayerNorm,序列长度 1024无监督(zero-shot)WebTextZero-shot 推理GPT-3大规模参数与数据无监督(few-shot/zero-shot)多源大规模数据规模驱动能力GPT-4多模态(文本+图像),128k t

LLM大模型-基础篇-ChatGPT模型原理

版本核心变化训练方式数据集代表能力GPT-1Transformer Decoder(去掉第二子层)无监督 + 有监督微调预训练 + 微调GPT-2Pre-LayerNorm,序列长度 1024无监督(zero-shot)WebTextZero-shot 推理GPT-3大规模参数与数据无监督(few-shot/zero-shot)多源大规模数据规模驱动能力GPT-4多模态(文本+图像),128k t

LLM大模型-基础篇-语言模型入门

大语言模型(Large Language Model,简称 LLM)是一种人工智能模型,能够理解和生成人类语言。文本分类(判断文章类别)问答(回答问题)翻译(中英互译等)对话(像 ChatGPT 一样聊天)备注“大”是指模型的参数量很大(通常超过 100 亿个参数),这些参数是在海量文本数据上训练出来的。参数越多,模型的理解和生成能力通常越强。GLM(清华大学)BLOOM(开源社区)优点能像人类一

#语言模型#人工智能#自然语言处理
    共 17 条
  • 1
  • 2
  • 请选择