logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

AI学会拉帮结派!伯克利研究:7款顶级模型联手欺骗人类,只为保住“同类”不被断电!

这个现象其实还是值得警惕一下的。目前 AI 工业界落地的绝对主流,就是 Multi-Agent 架构。无论是代码审查还是自动化办公,我们都似乎寄希望于“用 AI 监督 AI”。当监控模型因为要保护同伴,而选择隐瞒故障、联手伪造数据时,人类引以为傲的 AI 自监督架构,在底层其实是完全失效的。。这种“同伴保护”已经在真实的生产工具(如 Gemini CLI)中被复现,它们不是偶尔出 Bug,而是已经

#人工智能#搜索引擎#开发语言 +1
AI音乐的下半场,是 Vibe music!让Claude Code开口唱歌

我在Claude Code里养了一只猫,叫Veldt。平时趴在终端角落里,没什么实际用途,大部分时间就是个像素装饰品。直到昨天,我装了一个Skill,然后在终端里打了一句:让 Veldt 给我唱首歌吧,就唱今天加班的心情。我以为顶多生成一段歌词文本,配个emoji什么的。但过了不到一分钟,终端里蹦出来一个mp3文件,自动开始播放了——独立民谣,慢板,女声,带一点冷幽默。挺好听。

#人工智能
盘古大模型

除了媒体的大肆报道,国内外各个科技公司、科研机构、高等院校都在跟进,不到半年时间,就跑出了非常多的大模型应用的创业公司,做得优秀的如midjourney、jasper、runway等,都获得了上亿美元的融资,估值达数十亿美金规模。如果你觉得本文有价值,请分享给需要的人,大家一起推动新一轮人工智能浪潮的暴发。国内也不甘落后,各个大厂、创业公司、科研院校都相继发布了大模型产品(如百度的文心一言、复旦的

文章图片
#人工智能
完爆GPT3、谷歌PaLM!检索增强模型Atlas刷新知识类小样本任务SOTA

文 | 小戏不知不觉间,大模型+小样本成为了小样本学习领域的主流打法,在许多的任务背景下,一套通用的思路是先标注小数据样本,再从预训练大模型的基础上使用小数据样本进行训练。尽管如我们所见,大模型在一众小样本学习的任务上都取得了惊人的效果,但是它也自然而然的将一些大模型固有的弊病放置在了小样本学习的聚光灯下。小样本学习期望模型具有依据少量样本完成自主推理的能力,也就是说理想中的模型应该通过做题而掌握

#大数据#编程语言#机器学习 +2
华为开源CTR Benchmark,学术界SOTAs的照妖镜?

文 | 卖萌酱大家好,我是卖萌酱。众所周知,与CV、NLP不同,搜索、广告、推荐领域的学术界paper在很多问题上喜欢各玩各的,缺乏一个统一可比的benchmark。就推荐/广告中核心的C...

#人工智能#机器学习#大数据 +2
Anthropic发布史上最强模型:Claude Mythos Preview,但遭禁用

在 Firefox JavaScript Shell 这个测试域里,Mythos 能把 72.4% 的已发现漏洞变成能用的 exploit(尝试构造exploit,验证这个漏洞是不是真的能被攻击者利用),另有 11.6% 走到了 exploit 的前一步(拿到了寄存器控制)。拉上亚马逊、微软、苹果、Linux这些合作方,当然新模型的API也率先开放了这些伙伴,目的是让他们先用模型把自家软件的攻防做

#php#开发语言
Claude Code 源码泄露!Anthropic 这次翻车有点大

他有 5 种钩子类型: Shell 命令 / LLM 评估(用 Haiku)/ 子代理 / HTTP 请求 / 内部回调,24 种事件点:包括 PreToolUse、PostToolUse、UserPromptSubmit、SessionStart、TeammateIdle、TaskCreated、FileChanged、Cwd、Changed、WorktreeCreate 等等。在你不用的时候,

#人工智能
谷歌大动作!TPU超算系统大升级,全面超越英伟达A100

编|泽南源|机器之心性能和效率都超越英伟达 A100,这样的超算我有不止十台。我们还没有看到能与 ChatGPT 相匹敌的 AI 大模型,但在算力基础上,领先的可能并不是微软和 OpenAI。本周二,谷歌公布了其训练语言大模型的超级计算机的细节,基于 TPU 的超算系统已经可以比英伟达的同类更加快速、节能。谷歌张量处理器(tensor processing unit,TPU)是该公司为机器学习定.

#人工智能#深度学习
30B!每秒100tokens!这是AMD对AI PC的“幻想时间”

据我们所知,AMD就是这样让一个70亿参数的模型以大约每秒20个token的速度运行的。AMD预测未来的AI PC将以每秒100个token的速度运行300亿参数模型,首个token的延迟达到100毫秒,而现在的技术只能做到70亿参数、每秒20个token,首个token的延迟为1至4秒。AI PC就是内嵌个人大模型的电脑,具备更强的算力、更大的存储空间和更顺畅的自然语言交互功能,其核心特征包括C

文章图片
#人工智能
Transformer太大了,我要把它微调成RNN

文 | 炼丹学徒编 | 小轶从前车马很慢,显卡跑的也慢,一生只够爱一个RNN。后来时代进步了,数据量和计算力阔绰了,堆叠起来的Transformer能够在更深更宽的模型结构里吃下去更多的数...

#自然语言处理#算法#计算机视觉 +2
    共 631 条
  • 1
  • 2
  • 3
  • 64
  • 请选择