logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

现代铁路客流组织方案:核心理念、关键要点与优化策略

铁路客流组织是指铁路运输企业为了安全、有序、高效、优质地实现旅客位移,综合利用设施设备、人力资源和信息手段,对旅客从进站、候车、乘车到出站的全流程,以及与之匹配的运力资源所进行的计划、指挥、协调与控制活动的总称。综合利用历史数据、售票数据、节假日规律、社会经济发展数据、舆情监测等,运用大数据和AI模型,进行短期(日、小时)、中期(周、月)和长期(年、规划)客流预测。商务、旅游、探亲、通勤等不同旅客

#人工智能
面向轨道交通客服的自主智能体框架:基于大语言模型的任务解决与对话融合

本文的工作是ReAct范式在轨道交通这一垂直领域的深化与应用,我们定义了领域专用的工具集,并设计了更复杂的动作空间。通过将LLM的通用推理能力与领域专用工具相结合,并引入动态任务-对话决策机制,LAART能够理解并执行复杂的乘客请求,提供准确、高效且自然的客服体验。,它能够根据实时交互信息,自主决策是调用工具、进行澄清性提问,还是直接生成自然语言回应,从而实现任务解决与开放域对话的无缝融合。和对话

#语言模型#人工智能#自然语言处理
论如何成为城市轨道交通客流组织专家:一个融合理论与实践的个人发展框架

城市轨道交通的客流组织,远非简单的“引导”与“限流”,它是一门融合了运筹学、心理学、系统工程、数据科学与公共管理的交叉学科。发展框架,有志者可以清晰地规划自己的成长轨迹,逐步从一个方案的执行者,蜕变为秩序的创造者、行业的引领者,最终为中国城轨交通的安全、高效与智慧运营贡献核心价值。不依赖于报表,而是用“脚”去丈量,用“眼”去观察流线的细微梗阻,用“耳”去倾听乘客的抱怨。这是专家区别于普通工程师的关

#大数据#人工智能#深度学习
人工智能安全的核心研究内容与发展趋势

从治理层面看,全球正在积极探索适合的人工智能治理路径,中国的《人工智能安全治理框架》和欧盟的《人工智能法案》等代表性政策文件,共同推动了人工智能治理体系的完善。研究表明,人工智能安全已成为一个涵盖技术、管理和伦理的综合性研究领域,其内在安全、应用安全以及治理与伦理安全三个层面相互关联,共同构成了完整的人工智能安全研究体系。和治理框架三个层面展开讨论。首先构建人工智能安全的理论体系,然后深入分析内生

#人工智能#百度
大模型安全的5层威胁与全链路防御实战指南

访问失控:身份验证漏洞使得模型在未授权情况下被调用,导致算力滥用和敏感数据泄露。这种风险在企业环境中尤为常见,特别是当访问权限管理不严格时-1-6。恶意入侵:恶意脚本注入、第三方插件携带后门,劫持客户端功能或窃取用户信息。这种传统安全威胁在大模型时代有了新的攻击面-1。隐私泄露:数据采集、传输、存储环节防护缺陷,导致用户身份信息、行为习惯被非法获取。随着数据保护法规日益严格,隐私合规已成为大模型应

#安全
大模型安全的5层威胁与全链路防御实战指南

访问失控:身份验证漏洞使得模型在未授权情况下被调用,导致算力滥用和敏感数据泄露。这种风险在企业环境中尤为常见,特别是当访问权限管理不严格时-1-6。恶意入侵:恶意脚本注入、第三方插件携带后门,劫持客户端功能或窃取用户信息。这种传统安全威胁在大模型时代有了新的攻击面-1。隐私泄露:数据采集、传输、存储环节防护缺陷,导致用户身份信息、行为习惯被非法获取。随着数据保护法规日益严格,隐私合规已成为大模型应

#安全
人工智能安全的研究

当前人工智能安全的研究已经形成了一个涵盖基础理论、技术实现和治理评估的完整体系。下面这个表格汇总了该领域的主要研究方向,整体认知。

#人工智能#安全
数据投毒防御前沿研究:从认证鲁棒到动态自适应防御

随着机器学习在关键领域应用的深入,数据投毒已成为人工智能安全面临的重大威胁。作为一种源发性攻击,数据投毒通过在训练数据中注入恶意样本,系统性破坏模型的完整性与可靠性。本文聚焦数据投毒防御研究前沿,探讨了认证鲁棒性防御框架代码模型多阶段防御数据指纹溯源技术自适应动态防御机制及在线学习实时防御五个核心方向。研究表明,面向基础模型的可证明鲁棒性是提升模型可信赖性的关键,而结合训练前检测与训练后消除的协同

#计算机视觉#人工智能
数据投毒:人工智能安全的新威胁与防御策略研究

随着人工智能技术的快速发展,数据投毒(Data Poisoning)已成为威胁AI系统安全的核心隐患。本文系统分析了数据投毒的基本概念、攻击手法、现实危害及防御策略。研究表明,数据投毒主要通过污染训练数据植入后门触发器和注入恶意样本等方式,破坏AI模型的准确性与可靠性。即便训练数据中仅混入0.01%的虚假文本,模型有害输出率也可上升11.2%。本文结合典型案例,从技术、监管与公众教育三方面提出综合

#人工智能#安全
数据投毒:人工智能安全的新威胁与防御策略研究

随着人工智能技术的快速发展,数据投毒(Data Poisoning)已成为威胁AI系统安全的核心隐患。本文系统分析了数据投毒的基本概念、攻击手法、现实危害及防御策略。研究表明,数据投毒主要通过污染训练数据植入后门触发器和注入恶意样本等方式,破坏AI模型的准确性与可靠性。即便训练数据中仅混入0.01%的虚假文本,模型有害输出率也可上升11.2%。本文结合典型案例,从技术、监管与公众教育三方面提出综合

#人工智能#安全
    共 278 条
  • 1
  • 2
  • 3
  • 28
  • 请选择