logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

谷歌反击DeepSeek R1发布Gemini 2.0全家桶,几大云巨头官宣接入DeepSeek

2月2日,云轴科技 ZStack 宣布 AI Infra 平台 ZStack 智塔全面支持企业私有化部署 DeepSeek-V3/R1/ Janus Pro三种模型,并可基于海光、昇腾、英伟达、英特尔等多种国内外CPU/GPU适配,将充分发挥DeepSeek开源模型和低成本高性能特点,助力企业级AI应用进一步落地。2 月 4 日,华为计算宣布,潞晨科技携手昇腾,联合发布基于昇腾算力的 DeepSe

文章图片
#DeepSeek
2023人工智能全景报告《State of AI Report》出炉!AI未来一年的10大预测:GPT-4仍是全球最强,GenAI 大爆发,...

然而,Meta 高举开源AI的旗帜,先后发布开源大模型 Llama、Llama2,选择向公众开放模型权重等技术细节,掀起了一场开放竞争的大语言模型竞赛,并形成了开源与专有大模型之间的抗衡。OpenAI 公布了的 GPT-4 技术报告,可参考的内容非常有限,几乎没有发布什么有价值的信息,Google的 PaLM 2 技术报告亦是如此,而 Anthropic 直接选择不发布 Claude 和 Clau

文章图片
#人工智能#搜索引擎
国内“推理模型”卷疯了!类 o1 推理模型,谁更强?

在多模态推理基准测试中超越了其基础模型 8.9%,并在性能上超越了一众开闭源模型,如 Gemini-1.5-pro、GPT-4o-mini 和 Llama-3.2-90B-Vision-Instruct。但 OpenAI 并没有公开 o1 模型的具体技术细节,从各高校、研究机构的 o1 模型复现研究来看,o1 的主要技术路线为「搜索+强化学习」,即对思维链进行搜索,然后用强化学习去学习搜索的过程。

文章图片
NeurIPS 2024 最佳论文揭晓!北大、字节跳动「VAR模型」获最佳论文!

在符合直觉的同时,这样的自回归算法带来了很好的效果:VAR 显著提升了自回归模型的速度和生成质量,在多方面使得自回归模型首次超越扩散模型。与传统的按像素或token顺序生成图像的方法不同,VAR 模型通过从低到高分辨的多尺度 token 图进行自回归生成,每一尺度的token图都依赖于前一尺度的结果。此外,在对 80B 个通用 token 进行持续预训练时,RHO-1 在 15 个不同任务上实现了

文章图片
ChatTTS:对话式文本转语音模型,开源啦!突破开源语音天花板...

最近,一个名为 ChatTTS 文本转语音项目爆火出圈,短短三天时间,在 GitHub 上已经斩获了 9.2 k 的 Star 量。ChatTTS:对话式文本转语音模型项目地址:https://github.com/2noise/ChatTTS/tree/main体验地址:https://huggingface.co/2Noise/ChatTTSChatTTS 是专门为对话场景设计的文本到语音 T

文章图片
#人工智能#语音识别
最新开源:全球首个半导体专用大模型SemiKong 70B发布!全球首个中文安全领域事实性基准评测集!

涵盖了包括中国违法违规,伦理道德,偏见歧视,辱骂仇恨,身心健康,谣言错误,网络安全理论知识等方面的安全知识。SemiKong 旨在通过将领域特定的知识融入模型中,解决半导体行业面临的独特挑战,如半导体器件和工艺的物理和化学问题,充当该领域的“数字专家”,从而显著加快新芯片的上市速度。SemiKong 系列模型是双语语言模型,训练于 3T 多语言语料库,展示了在语言理解、常识推理、阅读理解等方面的强

文章图片
NLP数据增强方法总结

文章目录NLP数据增强1. UDA (Unsupervised Data Augmentation)【推荐】2. EDA (Easy Data Augmentation)NLP数据增强1. UDA (Unsupervised Data Augmentation)【推荐】参考:[1]: https://github.com/google-research/uda“Unsupervised Data

#自然语言处理#深度学习#人工智能
【最新开源】美研究机构发布全球最大生物学AI模型Evo 2!阶跃星辰首次开源Step系列多模态大模型!

2月19日,美国 Arc Institute 与英伟达合作,联合斯坦福大学、加州大学伯克利分校和加州大学旧金山分校的研究人员,共同推出了——。该模型以超过 128,000 个基因组的数据为基础,训练了 9.3 万亿个核苷酸,使其规模与最强大的生成性 AI 语言模型相媲美。是一种先进的 DNA 语言模型,专注于长上下文的建模和设计。它能够在单核苷酸分辨率下对 DNA 序列进行建模,支持长达 100

文章图片
一周最新开源:Stability、Mistral再开源,3个MoE大模型DBRX、Jamba、Qwen1.5-MoE-A2.7B接连开源

上周,Stability AI 开源 Stable Code Instruct-3B,Mistral AI 宣布 Mistral 7B v0.2 Base Model,Databricks 开源了其 MoE 模型 DBRX,通义千问团队发布 MoE 模型:Qwen1.5-MoE-A2.7B,AI21 Labs 宣布开源 MoE 大模型 Jamba。

文章图片
#人工智能
斯坦福发布最新LLM排行榜AlpacaEval,微软WizardLM登顶开源模型第一

根据 faldore 的介绍,他使用了 WizardLM 团队提供的原始训练脚本和未经过滤的数据集 ,在四块 A100 80GB 的显卡上训练了 36 小时和 60 小时,分别得到了 UNCENSORED WizardLM-7B 和 UNCENSORED WizardLM-13B 模型。之前,HuggingFace发布了个开源LLM的排行榜,主要是跟踪、排名和评估最新的大语言模型和聊天机器人,让所

文章图片
    共 126 条
  • 1
  • 2
  • 3
  • 13
  • 请选择