logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

计算机图形与并行计算

普遍性:所有现代计算机均包含 GPU 单元(集成或独立),这是图形显示的物理基础。性能分层集成 GPU满足基础显示需求(UI、视频播放)。独立 GPU提供工业级算力,是人工智能、高性能计算(HPC)及高端图形渲染的必备硬件。角色转变:GPU 已从单一的“图形加速器”演变为“通用并行计算引擎”。在 AI 时代,算力即权力,而 GPU 正是这一权力的核心载体。软件生态:通过CUDA(底层驱动/语言)和

#人工智能
计算机图形与并行计算

普遍性:所有现代计算机均包含 GPU 单元(集成或独立),这是图形显示的物理基础。性能分层集成 GPU满足基础显示需求(UI、视频播放)。独立 GPU提供工业级算力,是人工智能、高性能计算(HPC)及高端图形渲染的必备硬件。角色转变:GPU 已从单一的“图形加速器”演变为“通用并行计算引擎”。在 AI 时代,算力即权力,而 GPU 正是这一权力的核心载体。软件生态:通过CUDA(底层驱动/语言)和

#人工智能
K_RagRec项目数据集解析

例如:1,"['3186', '1270', '1721', '1022', '2340', '1836', '3408', '2804', '1207', '1193']","[1, 1, 1, 1, 0, 1, 1, 1, 1, 1]",720,0,978300760。all_data.json:系统提供20个推荐选项,但是数据很多,可能有50多万条。,不是分析用户不喜欢的电影。ratings

#python#推荐算法
推荐系统发展路径

特性传统推荐系统LLM辅助的推荐系统核心原理统计关联,矩阵计算语义理解,逻辑推理数据依赖用户-物品交互矩阵交互数据 + 文本描述 + 通用知识物品表示ID, 稀疏向量, 手工特征稠密语义向量, 自然语言描述用户表示历史交互ID列表, 画像向量自然语言描述的历史行为序列推荐逻辑“相似用户喜欢” 或 “类似物品”“基于你的历史和物品描述,推理得出”可解释性较弱,通常需要后处理生成理由极强,可直接生成自

#推荐算法
K_RagRec代码详解:Index_KG.py(2)

可以把它想象成 Excel 表格。和上面完全一样,但这次是对。

#机器学习#深度学习#人工智能
HSV 3D Histogram(直方图)全局特征提取

HSV 是一种颜色空间(Color Space),和我们更熟悉的 RGB(红绿蓝)不同,HSV 更接近人类对颜色的感知方式。H(Hue,色调):表示颜色的种类,比如红色、绿色、蓝色等。取值范围通常是 0°–360°(在 OpenCV 中常被归一化到 0–180,因为用 8 位图像表示)。S(Saturation,饱和度):表示颜色的纯度或鲜艳程度。0 表示灰色,越高越鲜艳。V(Value,明度/亮

#深度学习
《A Survey of Graph Meets Large Language Model: Progress and Future Directions》读书笔记

这篇论文的核心是给 “图 + LLMs” 的研究分了类,清晰地告诉我们:LLMs 既能当 “辅助”(增强 GNNs),也能当 “主力”(直接预测),还能和 GNNs “合作”(对齐特征)。目前这个领域还在发展,未来需要解决效率、适用性等问题,但潜力很大 —— 毕竟一个懂结构,一个懂文字,结合起来能处理更多复杂任务。

#人工智能#论文阅读
《Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks》读书笔记

使用同一组检索到的文档生成整个序列。对所有检索到的文档进行边际似然加权。RAG-Token每个token可以基于不同的文档生成。更灵活,适合需要多源知识的生成任务。RAG 是一种创新的混合记忆模型,成功将检索机制与生成模型结合,在多项知识密集型NLP任务上取得SOTA结果。其核心优势在于:生成更事实、具体、多样的文本支持知识动态更新提供生成过程的可解释性参数效率高该模型为构建更可靠、可控制、可更新

#自然语言处理#人工智能
基于大语言模型(LLM)的推荐系统

传统推荐系统(协同过滤、序列模型等)主要处理的数据(如用户ID、物品ID、评分、点击时间)。它们像是优秀的“模式识别器”,但不理解数据背后的。传统推荐系统主要利用用户和物品的ID、数值特征、类别特征等,而LLM-based推荐系统则利用LLM对文本信息的强大理解能力,将用户历史行为(如点击、购买等)和物品的文本信息(如标题、描述)作为输入,通过LLM来理解用户偏好和物品特性,从而进行推荐。

#语言模型#人工智能#自然语言处理
K_RagRec代码阅读:lm_modelling.py

功能:指定预训练模型的仓库地址(来自 Hugging Face Hub)细节解析:专门优化句子嵌入的库,基于 Hugging Face Transformers 封装,适合语义相似性、文本匹配任务:模型基座是 RoBERTa(优化版 BERT),"large" 表示模型规模(隐藏层维度 1024),专门为句子级嵌入训练,知识图谱中用于将实体描述、关系描述等文本转换为语义向量(后续用于实体匹配、关系

#知识图谱#人工智能#python
    共 14 条
  • 1
  • 2
  • 请选择