简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
来源:51CTO技术栈科技界的“中秋晚会”来了!距离ChatGPT发布22个月,国内AI语境下的互联网技术基座究竟该做哪些?支撑AI原生应用的技术天花板有多高?AI的行业风口会吹向哪里?9月19日,一年一度的阿里云栖大会拉开帷幕,阿里现任掌舵者吴泳铭、CTO周靖人携手大模型领域当红炸子鸡月之暗面CEO杨植麟、小鹏汽车CEO何小鹏等一众明星企业创始人给业界带来了一场久违的国产自豪感。不管是能实时观看
YOLOv10重磅来袭,YOLO 系列再次获得了重磅升级。目前很多小伙伴已经进行了部署测试,实时检测效果挺不错。YOLOv10 从后处理和模型架构方面进一步提升了 YOLO 的性能 - 效率边界。并且首次提出了 YOLO 无 NMS 训练的一致双重分配(consistent dual assignment),大幅度改进了原先在性能和推理延迟方面的不足。具体实现结果与论文结果展示如下:推荐阅读MI.
来源:机器之心AI 领域的研究者应该还记得,在 Transformer 诞生后的三年,谷歌将这一自然语言处理届的重要研究扩展到了视觉领域,也就是 Vision Transformer。后来,ViT 被广泛用作计算机视觉中的通用骨干。这种跨界,对于前不久发布的 xLSTM 来说同样可以实现。最近,享誉数十年的 LSTM 被扩展到一个可扩展且性能良好的架构 ——xLSTM,通过指数门控和可并行化的矩阵
作者丨宫酱手艺人@知乎(已授权)来源丨https://zhuanlan.zhihu.com/p/686240618编辑丨极市平台导读flash attention是LLM训练的标配。它是一个加速attention的cuda算子;ring attention则是利用分布式计算扩展attention长度的一个工作。然而它们背后的核心则都是softmax局部和全局关系的一个巧妙公式。TL; DR观察..
来源:机器之心近日,亚马逊研究奖(Amazon Research Awards,ARA)获奖名单公布,今年共有 98 名获得者,来自 15 个国家 51 所大学。完整获奖名单:https://www.amazon.science/research-awards/program-updates/99-amazon-research-awards-recipients-announced亚马逊研究奖
来源:智源社区本文为约6052字,建议阅读12分钟本文介绍了陈丹琦在智源大会青源学术年会上做的题为“Making large models smaller”的特邀报告。导读:“Making large models smaller”这是很多语言模型研究人员的学术追求,针对大模型昂贵的环境和训练成本,陈丹琦在智源大会青源学术年会上做了题为“Making large...
最近大模型大火,很多大厂都在研究大模型,准备在人工智能领域一鸣惊人!对于正在自学的人工智能童鞋,可能会有点焦虑感!恰巧号主认为这是一个机遇,如果我们算法基础比较扎实,利用大模型能够更好的完成下游任务,今天给大家推荐的是专注原创和分享最新AI热点的10个公众号,希望能让你更高效的学习。江大白号主江大白,目前在国内某大厂任职AI图像视觉总监,10年AI算法开发及管理经验。专注于计算机视觉技术在各业务场
来源:机器之心突然,而又令人不那么意外:图灵奖得主、深度学习之父 Geoffrey Hinton 从谷歌离职了。纽约时报的报道截图。而 Hinton 在 Twitter 上的内容也证实了他从谷歌离职的消息。这一消息的爆出迅速引发了整个 AI 社区的讨论与关注。离职:以便自由探讨 AI 风险一直以来,Geoffrey Hinton 都是谷歌 AI 的「门面」,并在谷歌做出了许多重要的研究成果。这次离
点击上方,选择星标或置顶,不定期资源大放送!阅读大概需要10分钟Follow小博主,每天更新前沿干货ICLR 2021 会议中投稿量和论文接收量最多的作者和机构都有哪些?这个 GitHu...
点击上方,选择星标或置顶,不定期资源大放送!阅读大概需要10分钟Follow小博主,每天更新前沿干货作者丨孙培泽@知乎来源丨https://zhuanlan.zhihu.com/p/31...