logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

案例 | 全球70+种方言精调:解码多语言大模型的“地道“表达

科技巨头联手澳鹏Appen突破AI方言理解瓶颈,通过25万轮跨语言对话训练,成功优化多语言大模型在70余种方言变体中的表现。项目克服了小语种人才稀缺、文化适配和规模化质量控制三大挑战,组建母语专家网络,构建多维度评估体系,最终实现30+语种70+方言的精准覆盖。模型输出的文化适应性和语言准确性显著提升,用户满意度大幅提高。澳鹏Appen凭借20+语种全职团队和200+语言全球资源,持续推动AI语言

文章图片
#人工智能
平台看点 | 澳鹏RoboGo具身智能数据开发平台:突破物理世界的AI边界

具身智能(Embodied AI)正迎来爆发式增长——从工业机器人到人形智能体,从实验室研究到千亿级市场落地,具身智能正在重塑AI与物理世界的交互方式。全球科技巨头与创新企业纷纷布局,大模型驱动的智能体正加速从“数字理解”迈向“物理执行”。具身智能正引领AI技术进入新纪元。在机器人、智能体、自动驾驶系统等领域快速发展的当下,如何让AI真正理解并适应物理世界,成为行业面临的核心挑战。高质量、多模态训

文章图片
#人工智能#机器人
工具看点 | 澳鹏多模态标注工具:构建AI认知的语义桥梁

在AI从单模态向多模态跃迁的时代,数据正经历着从孤立到融合的范式转变。当GPT-4o能理解图像中的幽默,Gemini可解析视频中的情感,这些突破背后是数据标注技术面临的崭新命题:如何让机器像人类一样,建立文字与视觉、声音与场景之间的深层语义关联?澳鹏全新升级的多模态标注工具,正是为解决这一核心挑战而生。作为专为跨模态AI训练设计的数据引擎,该工具重新定义了标注工作的维度——不再局限于单一模态的标记

文章图片
#人工智能#大数据#机器学习
澳鹏亮相EMNLP2025:以多元语言数据赋能下一代NLP技术

EMNLP2025会议聚焦多语言NLP技术前沿,语言多样性研究成为核心议题。澳鹏Appen分享了《多语言LLM翻译》研究成果,揭示20多种语言的翻译质量差距。会议重点关注代码切换数据集构建、语言识别技术等方向。澳鹏提出方言导向招募、文化适配标注等实践方案,强调建立能捕捉语言特征的数据管道。会议表明方言和语言变体正引领下一代语言模型发展,产学研合作将推动多语言NLP技术新突破。

文章图片
#自然语言处理#人工智能
大语言模型的多垂类快速评估与 A/B 测试

行业领先的模型构建企业携手澳鹏(Appen)开展了一项极具挑战性的项目。针对 3 至 6 个大型语言模型(LLM),在广泛的通用领域及复杂专业领域(如医疗保健、法律、金融、编程、数学和汽车行业等)中,进行了快速冲刺式的评估。依托澳鹏专业的评估团队和先进的人工智能数据平台,项目在紧凑的时间内高效推进。每个为期 5 天的冲刺阶段,完成超过 5 万条标注,最终累计完成了超 50 万条标注,有力地保障了模

文章图片
#语言模型#人工智能#自然语言处理
澳鹏MatrixGo自定义模板:重塑数据标注的敏捷范式

数据标注行业正经历从标准化向场景化转型。澳鹏MatrixGo平台推出的自定义模板功能,通过四大创新突破行业瓶颈:1)可视化拖拽界面实现零代码工具搭建;2)智能规则配置简化复杂任务处理;3)全链路质检体系确保数据质量闭环;4)专业组件库覆盖文本、代码、多媒体等八大应用场景(包括质量评分、信息提取、视频理解等)。该升级使标注工具开发摆脱编码限制,让业务专家能快速创建专业标注界面,显著提升大模型训练数据

文章图片
#数据库#json#前端
深度 | 5年数据观巨变,这家公司如何在AI和大模型数据赛道遥遥领先?

原文转载自:云科技时代作者:吴宁川过去5年,整个社会对于数据的观念和认知,发生了天翻地覆的改变。这要归功于OpenAI与预训练大语言模型(以下简称大模型)的问世以及横扫全球的ChatGPT。从2020年1月OpenAI发表《自然语言模型的“摩尔定律”(Scaling Law for Neural Language Models)》论文到2023年的“百模”大战,数据成为了与算力和模型参数并驾齐驱的

文章图片
#人工智能
对抗性提示:大型语言模型的安全性测试

对抗性提示指通过精心设计的输入绕过LLM安全机制,诱导模型产生不安全或违反策略的输出。这类输入往往依赖语言技巧而非直接违规,使得常规审核工具难以识别。虚拟情境:将有害内容嵌套于虚构或假设性场景规避话术:使用模糊/间接表达绕过关键词过滤器提示注入:通过嵌入指令覆盖原始模型设定说服与持续施压:利用角色扮演、逻辑/权威诉求及反复改写瓦解模型的拒绝机制理解这些技术对评估模型鲁棒性及开发安全可信的AI系统至

文章图片
#语言模型#安全性测试#人工智能
大模型也会“说谎“?深度解析幻觉成因与治理方案

大语言模型的“幻觉”问题已成为AI可信度的关键挑战。研究表明,幻觉源于训练机制缺陷、评估体系偏差和优化策略不当,导致模型在不确定时倾向于“自信犯错”。这种现象在医疗、法律等领域已造成实际危害。解决方案包括重构评估体系、校准置信度、加强人机协同和优化数据质量。研究指出,需将幻觉视为系统性问题,通过全链路治理构建可信AI。实践表明,专业评估策略和数据优化可有效提升模型可靠性,推动AI向“可信可靠”方向

文章图片
#深度学习#机器学习#人工智能
最全人工智能专业术语表(中英文对照)

人工智能不仅是指寻求如何替代人类的机器人或人类寻求自我挑战的游戏,更是指运用复杂的程序化数学,其结果与高质量的训练数据相结合,推动了我们在日常生活中所看到的技术进步。从无人驾驶汽车到寻找癌症的治疗方法,人工智能正在逐渐渗透我们的生活之中。以下是内容由“澳鹏 | AI与机器学习干货大本营”编辑,希望能帮助对人工智能领域感兴趣的学者或是专业人士,如果有任何遗漏也请随时回复我们,我们将及时更新!(按英语

#神经网络#机器学习#深度学习 +1
    共 92 条
  • 1
  • 2
  • 3
  • 10
  • 请选择