logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

艾体宝干货 | 实时监控+权限管理:Lepide构建AI时代的数据防泄漏体系

人工智能技术在企业中的广泛应用带来了工作效率提升与决策能力优化,但同时也带来了数据安全方面的隐忧。AI 系统通常需要大量敏感信息进行训练与推理,若缺乏有效管控,数据极有可能被泄露或滥用。

文章图片
#人工智能
艾体宝方案 | AI时代的数据安全与Lepide智能治理方案

随着 AI 深度融入企业业务流程,数据泄露风险不再局限于传统攻击面,而是渗透在员工日常使用 AI 工具的每一次交互中。Lepide 通过数据发现 → 权限治理 → 行为审计 → 风险预警的完整链路,为企业构建自适应数据安全屏障。采用 Lepide 的企业能够:在部署 AI 之前完成安全基线治理在 AI 使用过程中实现持续监控与预警在 AI 集成扩展时提前识别潜在风险在合规方面保持长期可持续性帮助企

#人工智能
艾体宝方案 | 从AI模型到云生态:构建系统化的企业AI安全管理体系【系列文章(4)】

随着人工智能(AI)技术的不断进步和广泛应用,AI已经渗透到金融、医疗、制造、自动驾驶等多个行业。尽管AI带来了巨大的创新和效率提升,但随着其应用范围的扩大,AI的安全性问题也逐渐暴露出来。AI应用安全不仅仅局限于算法模型的本身,更多的是涉及数据隐私、对抗攻击、模型滥用、合规性问题以及垂直行业应用中的特殊风险。因此,企业需要全面识别并应对这些AI应用中的潜在风险,构建健全的AI安全管理体系。

#人工智能#安全
艾体宝洞察 | 理解生成式人工智能中的偏见:类型、原因和后果

1. 构建多样化、有代表性的训练数据 要减少生成式AI中的偏见,最基础的做法是创建和策划多样化且具有代表性的训练数据集。有针对性的外展、谨慎的数据抽样以及与领域专家的合作,可以帮助弥补常常导致AI输出中代表性不足和错误描述的差距。生成式AI的偏见,指的是生成式AI模型在产出信息时出现的系统性错误或扭曲,这可能导致不公平或歧视性的结果。当某些群体在生成式AI系统的输出中持续处于不利地位时,就会产生歧

#人工智能
艾体宝洞察 | 2025 年你需要了解的 58 个生成式人工智能统计数据

深度学习的进步,特别是Transformer模型的发展,使得像ChatGPT和Stable Diffusion这样的系统能够生成类人文本和逼真的图像。这些工具降低了非技术用户的使用门槛,扩大了AI采纳者的基础,并提高了日常工作流程的生产力。随着生成式AI的不断发展,各组织不仅在调整其运营方式,还在制定相应的政策,以应对强大内容生成工具带来的风险。3.到2032年,仅生成式AI的软件收入就可能产生2

#人工智能
艾体宝洞察 | “顶会”看安全(三):Black hat-从底层突破AI安全 :利用 NVIDIA 漏洞实现容器逃逸

为了训练并构建一个可用的AI,我们可能需要使用向量数据库,这些数据库专门用于存储和处理向量数据,对于AI模型尤其重要,特别是在相似度搜索等任务中。常见的向量数据库有Redis、PostgreSQL等。我们还需要训练框架来训练AI模型,帮助开发者高效地创建和训练深度学习模型,例如PyTorch、TensorFlow等。最后,推理服务器可以让我们开箱即用一些预训练的模型,例如Ollama、LLaMA等

#安全#人工智能
艾体宝方案 | 释放数据潜能 · 构建 AI 驱动的自动驾驶实时数据处理与智能筛选平台

随着自动驾驶技术从原型验证迈向规模化商用,研发范式正经历从“以算法为中心”向“以数据为中心”的根本性转变。海量、高维、多模态的道路采集数据,已不再只是测试过程中的副产物,而是驱动算法持续演进、提升系统安全冗余和泛化能力的核心生产资料。然而,当前主流的数据处理模式仍以离线存储与批处理为主,数据在“采集—上传—存储—筛选—标注—训练—验证”之间流转缓慢,形成长周期、低反馈的闭环,逐渐成为制约自动驾驶技

#人工智能#自动驾驶#机器学习
艾体宝洞察 | Echo Chamber以及EchoGram攻破主流AI防护,AI安全对齐为什么会失效?

两种攻击都避开了传统依赖敏感词检测、简单格式识别的防护方式,揭示了当前大模型安全策略的固有缺陷。Echo Chamber 攻击瞄准了大模型对上下文依赖的特性,暴露了当前对齐方法中对多轮对话语义累积风险评估的缺失;EchoGram 攻击则指出主流防护用的 LLM 审核模型与分类模型过度关注核心文本语义,对尾部附加token的权重分配过低,未能识别“恶意核心+无害后缀”的组合攻击模式。

#人工智能#安全#网络
艾体宝方案|人工智能如何重塑威胁检测与身份安全

在数字化加速的2025年,身份已成为安全防护的新边界与核心攻击面。攻击者不再需要“破门而入”,只需盗用凭据、滥用权限或攻陷特权账户,即可长驱直入。混合环境的复杂性、快速演变的威胁态势,以及机器与人类身份数量的激增,使得传统安全防御体系捉襟见肘。人工智能(AI)正推动安全防御从被动告警模式,向主动、风险感知、以身份为中心的战略转型,重新定义了安全防护的边界与效率。

#人工智能#安全
行业热点 | 眼见不为实:警惕突发事件中的 AI 图像与误导信息

虚假的AI生成图像,与真实的飞机、爆炸视频混杂在一起,制造出一种令人信服却又极度困惑的“真相与虚构混合体”。当伪造的视觉内容与真实事件的外观高度相似时,检测结果会变得不一致,而虚假信息的传播速度,则远快于事实核查机构的响应速度。您可以设计包含“伪造的CEO讲话视频”或“冒充公司活动的AI生成图片”的模拟攻击,测试员工在实际遭遇时的反应,并提供即时反馈和教学,将风险转化为生动的学习机会。AI生成内容

文章图片
#人工智能
    共 50 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 请选择