logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

豆包大模型视觉、语音能力升级!文生图更懂“国风”,TTS“拿捏”情绪

日均 tokens 使用量突破 5000 亿——近日,2024 火山引擎 AI 创新巡展・成都站上,豆包大模型最新进展对外公布。一同发布的,还有豆包・图生图模型,以及升级版豆包・文生图模型、豆包・语音合成模型、豆包・声音复刻模型。今年 5 月,字节跳动发布豆包大模型家族。据后续第三方 FlagEval 大模型评测平台发布的榜单显示,豆包大模型(Doubao-Pro-4k)在闭源大模型的“客观评测”

文章图片
#安全#人工智能#机器人 +4
AI助手豆包、文小言、通义、Kimi的全方位对比分析

在人工智能领域,豆包、文小言、通义和 Kimi 这几款 AI 助手都颇具影响力。接下来将从文本生成、图片生成、AI 检索以及语音会话等维度对它们进行详细的对比分析,以便用户能更清晰地了解其各自的特点,从而做出更契合自身需求的选择。一、文本生成优势:依托字节跳动云雀模型,豆包展现出强大的通用性。无论是进行学术研讨,还是开展日常对话,它都能迅速给出清晰且精准的回应。

文章图片
#人工智能#百度#产品经理 +2
豆包大模型迎来多维升级:综合性能提升20.3% 零售、汽车等行业落地提速

2024年无疑是科技行业公认的“AI大模型落地元年”,大模型应用的供需关系正在经历着前所未有的变化。与过去AI厂商单方面探索应用场景的做法不同,今年我们见证了更多的重要行业和头部企业,在降本提效、以技术驱动新发展和新升级的需求之下,开始以更加开放的姿态主动拥抱大模型,并探索AI技术与自身业务深度融合的可能性。有数据表明,大模型技术正在带来生产力水平的大跃迁。据红杉美国发布的报告,生成式AI为代表的

文章图片
#零售#汽车#人工智能 +3
花费0.46元用DPO-LoRA方法微调豆包大模型解决了业务!

参数原配置建议配置调整原因epoch12增加轮次以充分学习小数据集batch_size88批次大小合理,无需调整0.000010.0001提高学习率加速 LoRA 参数收敛0.050.1增加预热比例保证训练稳定性lora_rank3232秩的取值适中,无需调整lora_alpha44缩放系数合理,无需调整dpo_beta0.10.1平衡格式对齐与输出多样性11保持 SFT 损失权重合理是否“混入预

文章图片
#学习#github#microsoft +2
Qwen(通义千问)实施量化微调探索与实践:Qwen微调技巧分享

通义千问(Qwen)是阿里云研发的通义千问大模型系列的70亿参数规模的模型。Qwen是基于Transformer的大语言模型, 在超大规模的预训练数据上进行训练得到。预训练数据类型多样,覆盖广泛,包括大量网络文本、专业书籍、代码等。今天我们来对这个模型进行本地部署实践python 3.8及以上版本pytorch 1.12及以上版本,推荐2.0及以上版本建议使用CUDA 11.4及以上(GPU用户、

文章图片
#搜索引擎#人工智能#大数据 +2
BAGEL:王炸!字节开源7B豆包版,对标GPT-4o与Gemini2.0的国内首个统一多模态图像编辑模型

今日文章介绍一款名为的开源统一多模态模型,这是由的最新类似GPT-4O的7B参数的视觉大模型。其功能与 GPT-4o 和 Gemini 2.0 等专有系统类似,凭借原生多模态架构,能够实现实用且有价值的图像生成,输出精确、准确且逼真的图像。模型支持(可用于图等咨询和问答)、等。•:BAGEL 是统一的生成与理解模型,基于大型语言模型预训练,具备推理与对话基础能力。可处理图像和文本输入,并以混合格式

#transformer#人工智能#数据库 +1
【Dify+deepseek+MCP】从入门到精通,手把手教你效率开挂(六)dify工作流秒变MCP工具

大家好,这是我的专题《AI颠覆人类倒计时:普通人自救指南》系列文章之一。前期有几篇关于dify agent中如何使用多个不同的MCP工具让Agent具备多种不同的技能。那么,应该如何实现呢?分为如下三个步骤:\1. dify工作流发布为工具\2. 安装配置MCP服务器插件,并完成工具配置\3. 获取MCP链接进行调用先前的文章中,我们使用dify和DeepSeek创建过不少的工作流,此处我们可以选

文章图片
#人工智能#迁移学习#数据库 +1
100个Coze智能体模版案例:电商老板必备!Coze电商客服机器人,24小时在线,帮你轻松砍掉高额人工成本

在电商的世界里,客服是连接商家与消费者的关键桥梁。然而,传统的人工客服模式面临着诸多挑战:高昂的人力成本、集中问题时漫长的等待时间,这些都可能让消费者对商品的好感度大打折扣。为了打破这一僵局,可以用“大模型回复 + 人工监管”的智能客服模式,为用户提供前所未有的流畅体验,同时优化人力配置,实现降本增效。*「*

文章图片
#机器人#大数据#人工智能 +2
LangChain4j比SpringAI强在哪?一文读懂

LangChain4j 和 Spring AI 是 Java 生态中实现大模型应用开发的两个最重要的框架,但二者的区别是啥?生产级别又该使用哪种框架?令很多人犯了难,所以本文就来浅聊一下,希望给大家在技术选型时有一个简单的参考。LangChain4j 和 Spring AI 的功能是比较类似的,甚至两者可以配合使用,例如使用 Spring AI 实现 MCP 服务器端,再使用 LangChain4

#人工智能#swift#github +2
用LLaMA-Factory,打造个性化大模型训练方案

本文聊聊 LLama-Factory,它是一个开源框架,这里头可以找到一系列预制的组件和模板,让你不用从零开始,就能训练出自己的语言模型(微调)。不管是聊天机器人,还是文章生成器,甚至是问答系统,都能搞定。而且,LLama-Factory 还支持多种框架和数据集,这意味着你可以根据项目需求灵活选择,把精力集中在真正重要的事情上——创造价值。使用LLama-Factory,常见的就是训练LoRA模型

文章图片
#人工智能#数据库#深度学习 +1
    共 815 条
  • 1
  • 2
  • 3
  • 82
  • 请选择