登录社区云,与社区用户共同成长
邀请您加入社区
近日,火山引擎数智平台(VeDI)2023 数据飞轮汽车行业研讨会在上海举办,活动聚焦汽车行业数字化转型痛点,从字节跳动自身数据驱动经验、数据飞轮模式落地、企业侧场景实践三方面,诠释数据飞轮如何在汽车行业转活数据消费。
阿里巴巴百炼与字节火山方舟大模型平台对比分析 摘要:本文对比分析了阿里百炼和火山方舟两大AI平台在模型性能、成本效益及定制化能力等方面的表现。结果显示,阿里百炼在长文本处理(通义千问-Long模型)和代码生成方面具有优势,而火山方舟在高并发场景(支持500万TPM)和自适应对话(豆包1.6模型)表现更优。成本方面,百炼的长文本分析性价比更高,火山方舟的区间定价模式更灵活。建议企业根据具体需求选择:
AI 训练和推理对存储系统的极致挑战在 AI 浪潮中,大模型训练与推理正以前所未有的速度推动计算能力突破极限。从自动驾驶 PB 级数据洪流到生成式 AI 微秒级推理响应,算力竞速已成为科技前沿的焦点。
火山引擎发布PromptPilot,突破大模型应用落地难题。该产品通过创新的三层架构(互动-自动-闭环)和三大数据工程(Question/Answer/Context Engineering),解决传统Prompt工程效率低下、需求表达不清等问题。技术亮点包括:智能生成基础Prompt、多模型协同生成答案、知识库融合等。商业化方案已启动,个人版39.9元起。产品显著降低AI开发门槛,提升效率,被视
2025年9月13日,我以一名对AI技术充满热情的从业者的身份,参加了火山引擎举办的PromptPilot产品线下发布会。这不仅仅是一次简单的会议参与,更是一次从理论认知到亲手实践的深度旅程。现场三位专家的精彩分享,结合我自己动手完成一个完整工业场景案例的全过程,让我对Prompt工程乃至AI应用的未来,有了全新的、更为深刻的理解。在此,我想将这一天的所见所闻、所思所感,完整地记录下来,特别是那段
本文探讨如何利用高通QCS8550边缘计算平台与Dify开源LLM开发平台构建本地化知识服务体系。方案通过RAG(检索增强生成)技术,将实时检索与语言模型生成能力结合,解决传统大模型的知识时效性与存储局限问题。实施步骤包括:1)硬件环境搭建;2)Dify平台可视化部署;3)火山引擎配置接入;4)RAG工作流优化。该方案实现了边缘算力高效利用(QCS8550多核处理)、数据本地化安全合规,并支持低代
2025年上半年中国公有云大模型调用量达536.7万亿Tokens,同比增长近400%,火山引擎以49.2%市场份额领跑,阿里云、百度智能云分列二三位。IDC报告显示,多模态和深度推理模型成为主要增长动力,75%企业评估采用多模态方案。火山引擎豆包大模型家族在多模态领域表现突出,多个模型登顶国际评测榜单。随着AI应用场景从泛互联网向传统行业渗透,金融、汽车、教育等领域加速智能化转型,预计中国生成式
上汽荣威M7DMH全球首发搭载豆包·深度思考大模型,实现AI智舱交互升级。该车型具备模糊语义理解能力,可精准解读复杂指令和模糊需求,覆盖15个用车场景。其行业领先的记忆贯穿功能能记住用户偏好,提供个性化服务。同时,开放最多车控端口,支持多任务联动执行,如"哄孩子睡觉"可自动完成多项设置。上汽荣威与火山引擎合作,通过豆包大模型与整车系统深度融合,推动智能汽车从"能交互&
传统搜索引擎在应对用户需求时显得力不从心,效率亟待提升。当你在进行旅行规划、搜寻关键信息时,是不是常常被泛滥的广告和真假难辨的垃圾信息困扰?AI搜索已经成为了非常明确的共识,最近 Genspark 冉冉升起,主打没有偏见和SEO驱动的内容,提供可信的有价值的结果,其中聚合搜索的功能被用户广泛称赞!我们用扣子快速复刻了 Genspark 聚合搜索功能,能快速理解你的命题,运行复杂的信息检索和分析过程
在当前 AI 技术快速发展的浪潮中,企业普遍认识到利用 AI 技术提升软件开发效率已成为重要的创新方向。然而,在复杂的国际环境下,国内开发者面临着无法使用 Claude Code、Gemini CLI 等国外 AI 工具的困境,这使得对找到高效的 AI 支持开发工具变得愈发迫切。
摘要:本项目基于SpringBoot框架集成火山引擎大模型SDK,实现后端管理的对话API调用功能。核心功能包括基础对话、应用对话和临时API Key获取,通过后端保管长期密钥并生成临时Token保障安全性。项目使用Maven依赖volcengine-java-sdk-ark-runtime,提供Java代码示例展示如何获取时效性API Key。关键注意事项包括:资源类型需与调用方式匹配(endp
导航到:HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\FileSystem。(4)右键点击 “Windows PowerShell” 或 “终端”打开注册表编辑器(按 Win + R,输入 regedit)完成这些步骤后,系统就应该能够支持更长的文件路径了。如果大家在安装的时候遇到了什么问题,欢迎留言给我。(3)搜索 “PowerShell
作者介绍:王珂,目前就职于字节跳动数据平台,为火山引擎A/B测试产品——DataTester 研发工程师。想要获得一个 A/B 实验系统,需要做些什么事情?火山引擎团队会把这些事情分成四个部分。A/B 实验需要通过人群采样,分出对照组和实验组并且下发不同的配置,让用户体会到不同的策略。因此从实践角度来看,四个部分中首先得有一个可靠的实验系统。通过这个实验系统,我们可以采集数据,从而观测用户在不同的
这篇评测,将不再满足于浅尝辄止的介绍。我们将深入风暴的中心,从引爆全网的轻量玩法,到企业级的硬核对决,为你彻底解构Seedream 4.0的“A面”与“B面”,让你一次看透,它如何定义AI生产力的终极形态。
本文为火山引擎埋点前端操作流程代码,提供给新手参考使用
火山引擎推出企业级数据智能体DataAgent,通过AI技术实现智能营销突破。该产品具备三大数据基座,支持自然语言交互,显著降低使用门槛,在客户洞察、精准触达等场景中展现突出效果。某企业实践显示,客服培训周期从30天缩短至7天,线索转化率提升300%。DataAgent采用独特架构设计,确保安全性的同时可随大模型升级进化,未来将向战略决策支持方向发展,成为企业营销智能化转型的核心基础设施。
本文为火山引擎数据产品总监刘峰的演讲分享,介绍了在过去的半年中,火山引擎Data Agent在智能营销Agent领域的一些新思考、新能力以及落地实践。各位线上的朋友,大家好!今天主要跟大家聊聊四个关键主题:首先,面对用户和业务增长挑战,结合大模型我们有哪些新解法?其次,我们如何通过产品和技术实现方案落地,真正解决客户问题?第三,智能营销Agent的四大应用场景,以及它们如何助力不同企业破局。最后,
火山引擎PromptPilot产品发布会在北京美克洞学馆举行,这款AI工具通过系统性框架解决提示词优化和模型选择问题。产品采用引导式需求探索,结合数据工程、Prompt优化等功能,帮助用户应对AI落地中的需求表达、模型适配等挑战。团队专业务实,发布会诚意十足,提供丰厚礼品。虽然当前操作有一定专业门槛,但产品通过典型案例展示和学习资源,致力于让业务人员也能轻松使用。PromptPilot展现了AI应
摘要:成都恒图科技依托火山引擎AI算力,实现海外市场突破。其核心产品Fotor和Clipfly通过Seedance1.0等AI模型,显著提升视频生成效率(人均生成量+12%)和付费转化率(+23%)。目前80%训练任务由火山引擎支撑,单日可处理超1000万次图片视频生成,同时降低20%成本并提升30%质量。双方将进一步在数字人等方向深化合作,推动AI创意应用全球化发展。(149字)
通过接入PromptPilot,其团队在“海龟汤”复杂逻辑推理项目中,将提示词迭代周期从10小时缩短至30分钟,错误率降低超过80%,显著提升了用户互动时长与内容质量。近日,火山引擎在北京举办PromptPilot产品发布会,面向广大开发者、企业客户与技术爱好者,正式推出新一代AI提示词工程平台——PromptPilot。平台同时支持视觉、多轮对话、多模态任务及外部工具调用场景,并具备跨模型兼容特
摘要: 本文探讨了在语言学习平台中实现语音识别功能的技术选型与接入过程。项目初期尝试了百度智能云和科大讯飞的语音识别方案,因识别结果结构化和接口限制问题放弃。最终采用火山引擎(ByteDance OpenSpeech)的语音识别大模型,通过WebM转WAV、阿里云OSS存储、异步任务提交与轮询查询等技术环节实现稳定接入。开发过程涉及API集成、格式转换、云存储配置等挑战,特别解决了Ngrok地址过
火山引擎边缘云高级产品总监沈建发出席并分享了“边缘新生·连接未来——火山引擎新一代边缘云解决方案”主题演讲,同时火山引擎边缘云CDN技术总监苏宗磊介绍了“火山引擎CDN的技术演进与未来”,火山引擎边缘云产品经理黄旭能也分享了“基于边缘计算的渲染新应用”。...
本文全面介绍了 Dify,一款开源大语言模型应用开发平台。它具备多模型支持、可视化工作流设计、检索增强生成(RAG)、API 接口与 SDK、数据与监控等核心功能,适用于企业知识管理、智能客服与问答系统、代码助手、自动化办公等场景,具有低代码 / 无代码开发、强大的生态系统、成本效益等独特优势。文章详细阐述了部署前的准备工作,包括服务器选择、Docker 及 Docker Compose 安装等,
本文介绍了使用C#调用即梦API的过程。作者通过火山引擎开通即梦API服务后,利用豆包AI将官方Python示例代码转换为C#代码。在调试过程中发现签名计算问题,最终确定是Content-Type头信息设置不当导致。文章详细说明了签名生成方法,并提供了完整的C#客户端实现代码,包括请求构建、签名计算和参数处理等关键步骤,最后成功实现了API调用。
EchoEar(喵伴)以端到端开发为核心理念,构建起从硬件接入、智能体构建到生态联动的一站式开发流程,为开发者提供了一条高效、开放、具备可复制性的落地路径。
以“家庭大厨·王膳艺”为例,当你提问“鲈鱼怎么处理”,电视不仅会讲解从去鳞、去内脏到清洗的完整步骤,还会延伸出“鲈鱼有哪些吃法”“营养价值”“处理技巧”等更多信息。“小T”是 TCL 电视的智能语音助手,引入豆包大模型后,用户只要自然地说出“一句话指令”,就能让“小T”查天气、查新片、调音量、播放喜欢的综艺节目等操作,从传统的遥控器模式变成了“对话驱动”。据了解,目前TCL已与火山引擎展开合作,
HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\FileSystem路径下的变量 LongPathsEnabled, 将其置为 1即可.pip默认安装到python3,但是默认的python运行的是python2,直接用python运行会提示SDK不存在。centos7下运行需要使用python3。windows下会报错。
我们将介绍通过使用 MCP Server - Figma AI Bridge,自动将你的 Figma 设计稿转换为整洁的前端代码,并生成相应的网页。简单高效,无需复杂配置,跟随文中的步骤操作,即可体验智能化的设计交付。(完整内容同步发布于官方文档站,想在电脑跟练的小伙伴也可以通过这里访问呦
现在,我完成了从获取豆包 API、搭建图床,到实现图像识别的完整流程。下一步,我要将其集成到我的的项目中,实现更智能的图像分析体验。
火山引擎大模型插件通过上下文缓存功能显著降低推理成本,测试显示可减少70%的token消耗。支持包括doubao、deepseek等系列模型的Session/前缀缓存模式,需配合Redis记录缓存状态。安装时若遇报错,需调整manifest.yaml文件中的author字段为GitHubID。使用自适应缓存方案时,长提示词缓存效果更佳,在催收场景测试中,笔均token从7714降至2348,效率提
文章摘要:针对电话外呼场景中离线质检存在的重复推理、token消耗大等问题,提出采用火山引擎的上下文缓存策略优化流程。通过规则整合、批量处理和智能缓存机制,可减少同一对话文本的重复处理。测试数据显示,在催收场景中应用自适应缓存方案后,能有效节省70%的token消耗,显著降低质检成本。该方案支持多种缓存模式,包括Session缓存和前缀缓存,适用于不同长度的提示词和文本场景,为大规模通话质检提供了
在使用对应场景的数据集进行微调模型时,需要基于一些标签筛选出特性场景的数据集,这个时候就需要一些标签数据,例如是否是阴天的图片,是否是有行人的图片,而这些标签的自动标注的过程其实一个增加列的行为。本篇文章将聚焦在“智能驾驶”场景,拆解LAS的核心湖存储格式——Lance,如何实现快速构建新一代 AI 数据湖,并高效存储、管理和处理多模态数据(文本、图像、音视频等)。而且Lance本身的压缩是定义在
招商银行与火山引擎深化AI金融合作,共探可信AI应用新路径。在"2025招银浦江数字金融生态大会"上,火山引擎总裁谭待指出大模型在金融领域面临安全合规挑战,强调需构建多层防护体系,并分享了豆包大模型能力提升及安全防护实践成果。目前双方已在零售金融、财富管理等领域开展AI试点,未来将拓展多模态交互等前沿方向合作,推动金融服务智能化升级。
火山引擎
——火山引擎
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net