logo
publist
写文章

简介

待到秋来九月八,我花开后百花杀。冲天香阵透长安,满城尽带黄金甲。纵有狂风平地起,我欲乘风破万里。满堂花醉三千客,一剑霜寒十九州。

擅长的技术栈

可提供的服务

暂无可提供的服务

DH秘钥交换算法

摘要:本文介绍了DH(Diffie-Hellman)密钥交换算法及其实现。首先对比了对称和非对称加密的优缺点,提出最佳方案是先使用非对称加密交换密钥,再用对称加密通信。然后详细阐述了DH算法的原理:双方通过不安全信道交换中间量,利用离散对数难题生成共享密钥。文中提供了C语言实现代码,包括大数运算、模幂运算等核心函数,并给出了128位DH算法的完整示例。最后简要提及安全性更高的ECDH算法,即基于椭

AI智能音响的体验和深入介绍

AI蓝牙音响是一种融合人工智能语音助手与蓝牙技术的智能设备,兼具无线音频播放和语音交互功能,可作为智能家居控制中枢。其核心价值在于解放双手的便捷操作和生态入口作用,支持语音点播、家居控制、个性化服务等场景化应用。当前主流品牌如Amazon Alexa、Google Assistant、小爱同学等各具生态优势,但面临隐私安全、交互局限等挑战。未来将向多模态交互、边缘计算、跨设备协同方向发展,成为智慧

#人工智能
SolidWorks特征建模方法介绍

SolidWorks采用基于特征的参数化建模方法,将复杂零件分解为拉伸、旋转、孔等几何特征,通过参数驱动构建三维模型。特征分为基体特征(初始形状)、附加特征(细化结构)和处理特征(优化编辑)三类,具有参数驱动、父子关联和设计意图表达等特点。建模需注意草图约束、特征顺序和父子关系,避免错误。该方法直观易用且高度可编辑,但在复杂曲面和大模型处理上存在局限。掌握特征分类和参数关联是提升SolidWork

嵌入式系统中软件、代码、程序的区别

本文阐述了计算机领域中"代码"、"程序"和"软件"三者的区别与联系。代码是程序员编写的文本指令,程序是编译后的可执行文件,软件则是包含程序、数据和文档的完整解决方案。在嵌入式系统中,代码经过编译形成固件程序,最终与其他组件共同构成软件产品。文章通过烹饪比喻形象说明三者的关系:代码如食谱,程序如成品菜,软件则如完整的外卖套餐。理解这些概念的

采样与采样定理、奈奎斯特准则、脉冲编码调制PCM

从采样开始,因为这是数字化的第一步。采样定理的核心是奈奎斯特频率,这里容易混淆,得强调采样频率必须大于两倍最高频率,而不是大于等于。不然重建信号会失真。然后联系到奈奎斯特准则,需要解释准则更多是针对码间干扰,在数字基带传输中的应用,而采样定理是针对模拟到数字的转换。接着是PCM,它是实际应用采样定理的例子,包含采样、量化、编码三步。用户可能想知道理论怎么应用到实际,比如电话系统为什么用8kHz采样

Quartz定时任务

Quartz是一个开源的Java作业调度框架,支持基于时间间隔的任务调度。其核心组件包括Job(定义任务)、JobDetail(任务详情)、Trigger(触发器)和Scheduler(调度器)。通过SimpleTrigger或CronTrigger可灵活配置执行频率,支持参数传递和持久化存储。示例展示了如何创建每5秒执行的任务,并介绍了Spring Boot集成方案。Quartz还提供监听器接口

信号系统中的调制解调

本文系统介绍了通信系统中调制解调的核心技术及其应用。调制通过频谱搬移将低频基带信号转换到高频载波,解决了天线效率、频分复用和抗干扰等问题。详细阐述了模拟调制(AM、FM)、脉冲调制(PAM、PWM、PPM)和数字化的PCM技术原理与特点,并比较了频分复用(FDM)和时分复用(TDM)两种多路传输方式。这些技术构成了从模拟通信到现代数字系统(如4G/5G)的基础,广泛应用于广播、电话、数字电视等领域

6G十大关键技术及发展前景介绍

6G十大关键技术包括:太赫兹通信(超高速无线传输)、智能超表面(优化信号覆盖)、超大规模MIMO(提升网络容量)、空天地海一体化网络(全球无缝覆盖)、AI原生网络(智能自优化)、通感一体化(通信与感知融合)、内生安全(原生安全保障)、数字孪生网络(虚拟镜像优化)、算力网络(统一调度计算资源)和全息超表面天线(高效数据传输)。我国已完成第一阶段6G技术试验,预计2030年前后商用,将实现全域覆盖、通

端侧AI芯片平台介绍与深入介绍

端侧AI芯片是集成在终端设备中的专用硬件模块,具有实时性、低功耗和隐私保护等优势。其核心技术包括专用NPU、异构计算SoC和存算一体架构,通过稀疏计算、低精度量化等技术优化能效比。应用场景涵盖消费电子、自动驾驶和工业物联网,需求从1TOPS到1000+TOPS不等。未来将向Chiplet异构集成、神经拟态计算等方向发展,突破能效瓶颈,推动端侧AI向自主智能节点演进。选型需权衡算力与能效,并关注工具

NPU/TPU/LPU技术深度介绍

摘要: 专用AI处理器(NPU、TPU、LPU)针对不同场景优化计算架构。NPU作为通用加速器,适用于端侧设备,平衡能效与灵活性;TPU采用脉动阵列,专注云端大规模训练,性能卓越但生态封闭;LPU通过确定性执行和统一SRAM实现LLM推理的极致低延迟,但通用性差。未来趋势包括架构融合、软件优化、推理芯片崛起及Chiplet技术应用。选择取决于具体需求(训练/推理、吞吐/延迟等),理解架构哲学是关键

    共 42 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 请选择