logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

被称为业界大牛的斯坦福计算机视觉实验室的李飞飞(Google AI 中国中心负责人)具体牛在哪里?

李飞飞出书《我看见的世界》是最近李飞飞开公司拉投资了,需要宣传吧,去B站搜署名李飞飞的AI课程,基本都是李飞飞的学生主讲,李飞飞本人唯一露脸的只有一节课,仍旧是只谈人工智能的历史,学术问题不涉及,也就是说,她那个团队干活的是学生,但名头都是打她的名字,这是很不正常的,业界应该都知道是怎么回事,她是学术界,有斯坦福给她背书,但如果是工业界,她之前短暂被谷歌聘用过,后面就没有续了。至于物理学出身的李飞

文章图片
#人工智能#计算机视觉#深度学习 +2
微信即将接入 OpenClaw!QClaw 让 agent 钻进 14 亿人的聊天框

QClaw 的出现,标志着 AI Agent 正在从极客玩具变成大众工具。当 AI 不再需要你打开一个独立 App,而是直接住在你最常用的微信聊天框里,人机协作的方式正在被重新定义。开源世界里,没有一家通吃的赢家,只有不断分化、不断进化的生态。下一个问题是:当 14 亿人的微信聊天框里都住着一只能干活的 AI,我们的工作方式、生活方式,会发生什么样的变化?这个答案,可能比我们想象的来得更快。有算力

文章图片
#人工智能#运维#大数据 +2
为何 DeepSeek-R1 后,大模型纷纷聚焦思维链?

思维链最初是大模型预训练中的 “意外发现”:当要求模型解数学题时 “step by step” 思考,其正确率会显著提升。这一现象与 “上下文学习”(In-context learning,模型无需训练就能通过任务指示和示例掌握新任务)共同成为大模型智能涌现的标志性特征,最初让学界和业界颇为震撼。大模型的数学与逻辑能力薄弱,是用户普遍反馈的问题。这一短板严重制约了大模型的商业化落地 —— 人们难以

#人工智能#机器学习#算法
一文彻底搞懂算力计算:CPU与GPU的核心方法全解析

算力计算的核心是“拆解硬件运算单元数量×单位时间运算次数”,CPU与GPU的差异本质是架构设计的差异(通用vs并行),导致算力差距悬殊。实践中需注意:先明确场景:科学计算看FP32算力,AI训练看FP16/TF32算力,AI推理看INT8算力;获取官方参数:核心数、频率、运算单元数量等必须来自厂商官方文档;结合实际场景修正:通过工具实测(如Linpack、TensorRT)获取实际可用算力,避免仅

文章图片
#人工智能#运维#大数据 +2
一文看懂,怎么用Deepseek做智能体

" 智能体->>+DeepSeek: 意图分析 DeepSeek-->>-智能体: {"intent":"故障诊断","confidence":0.95} 智能体->>+知识库: 相似度检索 知识库-->>-智能体: 排水泵堵塞解决方案 智能体->>用户: 分步骤指导+图示。ps:如果真的想比其他人快一步的话,大家更要学会在业余时间深度学习, 电脑跑不动需要云租服务器的话,这个月易嘉云平台yiji

文章图片
#机器学习#人工智能#深度学习 +1
如何评价美团开源大模型longcat-flash?

通过系统优化,LongCat-Flash 在 H800 上达成了 100 tokens/s 的生成速度,在保持极致生成速度的同时,输出成本低至 5元/百万 token。据说,美团在训练龙猫大模型的时候,并不是在英伟达 GPU 上完成的,美团使用了“数万个加速卡”的模糊表述。也就是说,在运行过程中,大模型会根据上下文需求动态激活参数数量,这样可以对算力进行动态分配。如果用的是国产 GPU,那在大模型

文章图片
#人工智能#深度学习#开发语言 +1
第二代PPTAgent来了!中科院软件所开源首个本地通用幻灯片智能体,9B参数打平GPT-5

以往的模型不知道自己生成的排版长什么样。更重要的是,所有生成内容均为 .pptx 可编辑格式,支持自由修改与二次创作,彻底摆脱类似 nanobanana 那样 “生成后无法编辑” 的困扰,让 PPT 创作真正可控、高效、灵活。更值得关注的是,在成本 — 性能曲线中,DeepPresenter-9B 位于前沿的 “突变点” 位置,意味着在性能与价格之间达到了极具竞争力的平衡。,实现了同等级别的智能表

文章图片
#人工智能#AI#大数据 +1
AI工程范式的三次演化:Prompt Engineering → Context Engineering → Harness Engineering

解决的是如何把任务说明白,解决的是如何把关键信息摆到模型眼前,解决的是如何让模型在真实环境里稳定做事。三者并不是谁取代谁,而是抽象层次一层层向外扩展。任务越接近真实生产,后两者的重要性就越高。模型能力越来越强,它所需要更多可能是“给他一个自由发挥的舞台”,人类需要来协助它搭建舞台。而不是反过来,人类强烈的干预它的行为,却不给予它帮助。如果你用了顶级模型,但 vibe coding 效果不好,大概率

#人工智能
小米的大模型用的是谁的技术?

对于开发者而言,小米开源的技术栈(如 MiMo、Vela 框架)提供了从模型训练到端侧部署的全链路解决方案,尤其在智能家居、车载交互等垂直领域具有极高的落地价值。为核心,聚焦复杂任务处理;通过动态稀疏化和结构化剪枝,小米将 60 亿参数模型压缩至 4B 规模,在手机端实现文本生成速度 25 tokens/s,而同等性能的闭源模型需依赖云端算力。:在小米 SU7 上,MiLM-6B 模型实现 “一句

文章图片
#人工智能#深度学习#语言模型 +1
骗你的,其实AI根本不需要那么多提示词

你可以让它随意学会一项技能,比如写稿,整理文件,检查代码,而这些技能,表现在电脑里,就是一个个模块化的压缩包,每个包里都包含指令、元数据,还有一些资源,比如你的稿子,你的代码,Claude 会在需要时才自动读取这些资源。你只需要调用 AI 本身的“Skill Creator”技能,用你的语言描述自己的需求,让AI自动帮你生成一门技能,使用起来非常友好,AI会一步步引导你说出你的需求,你只需要回答问

文章图片
#人工智能#AI#大数据
    共 91 条
  • 1
  • 2
  • 3
  • 10
  • 请选择