logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

大模型时代:中小型软件公司的春天来了?

本文探讨了大模型时代中小型软件公司的发展前景。作者认为大模型时代带来了技术平权运动,为中小软件公司带来了战略转机。文章从算力降低、模型范式变革、人力成本降低、传统软件公司优势及应对策略等方面进行了阐述。

文章图片
#人工智能#团队开发
警惕!大模型“开盒”能泄露什么信息

注入攻击在网络安全领域由来已久,而随着大语言模型的应用,提示注入攻击成为新的威胁。这种攻击通过伪装恶意输入欺骗大语言模型,导致非预期输出,危害包括泄露敏感数据、传播错误信息等。常见的提示注入攻击手段有任务挟持、提示泄露和越狱攻击。任务挟持通过嵌入有害文本篡改任务指令;提示泄露诱使模型泄露任务提示,损害知识产权;越狱攻击则绕开安全审查机制,如通过角色伪装、设定虚拟场景等方式诱导模型输出敏感或非法内容

文章图片
Coze与Dify:企业级大模型应用开发认知陷阱与破局之道

本文探讨了Coze与Dify等低代码平台在企业级大模型开发中的认知陷阱。这些平台以对话交互为核心,降低了大模型的应用门槛,但也将大模型等同于对话机器人,导致工具形态与业务场景的错配。此外,低代码平台存在“能力天花板”困境,包括功能锁定成本、技术债务累积和运维黑洞等问题。企业级大模型开发还面临“不可能三角”挑战,即贴合业务需求、系统整合顺畅和开发维护成本低之间难以平衡。Coze、Dify等平台试图以

文章图片
#人工智能
大厂总结-提示工程:《第2章 结构化提示设计》读书笔记

本文围绕结构化提示设计展开,详细阐述了其在AI原生应用开发中的重要性及多种设计方法。日常内容创作中,简单文本输入即可满足需求,但在AI原生应用开发里,稳定性和可复现性至关重要,结构化提示设计是解决这一问题的有效策略。

文章图片
大模型应用落地加速,AI 原生应用有哪些形态?

大语言模型的应用领域远不止于聊天机器人这一交互形式,实际上,它正在以更广泛、更多元的形态渗透到各个领域中,已经在内容创作、辅助助手、能力引擎、智能体技术等方面充分展示了其巨大的发展潜力。

文章图片
#人工智能
大厂总结-提示工程《第1章 提示工程概述》

本章围绕大语言模型(LLM)时代下的提示工程与AI原生应用展开,详细介绍了AI原生应用的形态、机遇与挑战,以及提示工程在其中的重要作用。本章全面介绍了提示工程和AI原生应用的相关内容,让我们对大语言模型在实际应用中的情况有了更清晰的认识。我们应充分利用大语言模型的优势,积极应对挑战,推动AI原生应用的健康发展。

文章图片
大语言模型推理能力从何而来?

DeepSeek R1采用强化学习进行后训练,通过奖励机制和规则引导模型生成结构化思维链(CoT),从而显著提升了推理能力。这一创新方法使得DeepSeek R1能够在无需大量监督数据的情况下,通过自我进化发展出强大的推理能力。那么语言模型的推理能力具体是什么,让我们一起来讨论。

文章图片
#语言模型#人工智能#自然语言处理
一次利用大模型做情感分析尝试

本文介绍了利用大语言模型进行情感分析的内容,包括情感分析的定义、应用及多个子任务。情感分析可以挖掘文本中的主观信息,如情感倾向和强度,以及观点等。文章详细阐述了情感极性判断、情感强度判断、目标级情感分析和观点结构化等子任务,并通过示例展示了如何进行这些分析。此外,文章还提到大语言模型可以处理其他NLP任务,并介绍了相关书籍以进一步了解这些技术。

文章图片
#大数据#人工智能
提示工程:少样本提示(Few-shot Prompting)

本文围绕提示工程中的少样本提示展开,介绍其是借助大语言模型上下文学习能力,利用少量示例样本处理任务的方法,无需重新训练或微调模型,经济高效。通过纠正错别字和输出动物相关符号两个案例,展示少样本提示的应用过程及效果。在纠错案例中,初始大语言模型无法正确完成任务,提供一个示例后则能输出正确结果;动物符号案例里,增加示例数量可提升模型输出效果,达到预期。文章强调少样本提示能有效提高大语言模型输出效果,还

文章图片
#人工智能
大模型的幻觉、指令遵循、内容安全问题

大语言模型在自然语言处理中取得显著成果,但存在不可控性,主要体现在幻觉问题、指令遵循问题和内容安全问题三个方面,这些问题可能导致误导性输出、不符合要求的输出以及有害信息传播。

文章图片
#安全#人工智能
    共 57 条
  • 1
  • 2
  • 3
  • 6
  • 请选择