
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文介绍了自然语言处理中的微调技术,包括全量微调和部分参数微调。全量微调基于大规模预训练模型,通过调整学习率、损失函数等设置,对特定任务进行训练。部分参数微调如Adapter-Tuning和Prefix-Tuning,通过引入少量可训练参数,减少训练成本,快速适应新任务。同时提及了LoRA和P-Tuning技术,以及如何使用Hugging Face的transformers库进行BERT模型的微调

本文深入探讨了大型语言模型(LLM)产生「幻觉」现象的原因,包括数据偏差、过度泛化和上下文理解不足,并提出了针对性的解决策略,如改进训练数据、模型微调和上下文增强等,以期提升模型的准确性和可靠性。

通过CLIPSpy规则引擎与机器学习的深度结合,算法驱动的场景识别系统将继续在智能交通、自动驾驶和交通安全等领域发挥关键作用,推动智能交通系统的快速发展。

高通人工智能研究院开发了一种名为“几何代数变换器”(GATr)的数据高效架构模型,用于改善机器人对环境的感知,具有几何代数表示、等变层和Transformer架构,即使在少量数据下也能实现高性能,有望推动具身人工智能在制造业、医疗保健等领域的应用。

本文指导如何为AI模型选择硬件,涵盖GPU资源平台、硬件配置策略,分析显卡选择,考虑国际政治影响,展望国产AI芯片未来。

本文深入探讨了点云数据处理的关键技术,包括数据清洗、降噪、简化、配准等预处理步骤,为后续的SLAM和语义分割任务奠定基础。特别地,文章详细介绍了PointNet和PointNet++这两个先进的深度学习算法,它们能够有效处理无序点云数据并提取特征。此外,还探讨了三维重建中的NeuralRecon系统,它采用多尺度方法和GRU网络来优化三维结构的生成。文章强调了这些技术的优点和面临的挑战,展望了在三

使用 Question-Answer (embedding Retrieval) 作为召回排序是性能不佳最根本的原因,开源的中文 embedding 模型在 Retrieval 任务上表现不佳。模型输入 tokens 限制导致候选的 chunks 数量少于 openAI 模型近一倍,是整体准确率低于 openAI 全家桶的一个重要原因。模型自身在阅读理解与总结任务上的不足,也对整体性能有一定的影响

推荐系统经历了从传统模型到深度学习的演变,涉及特征处理、召回策略、实时性、优化目标、模型结构改进、冷启动解决方案等。评估推荐系统需综合考虑多种指标,如P-R曲线、ROC曲线、mAP等。推荐工程师需具备深度和广度知识,以及工程和理论之间的权衡能力。

使用Kubernetes部署PyTorch框架实现分布式训练和部署,并结合Kubeflow构建端到端的机器学习管道,是一个高效、可靠且可扩展的解决方案。它充分利用了Kubernetes的容器编排能力和Kubeflow的机器学习工具链优势,为机器学习模型的训练与部署提供了全流程的自动化支持。

摘要:本文分享了某大型科技公司"企业级AIGC能力中台"的安全架构设计经验。作为系统架构师,我主导设计了基于零信任理念的安全体系,重点解决API密钥泄露、数据越权访问等核心问题。针对传统静态APIKey管理混乱问题,采用OAuth2.0动态令牌机制;针对RAG场景的数据越权,创新性地将权限控制下沉到向量检索阶段,通过元数据注入和预计算过滤实现细粒度控制。项目最终建成日均2000








