logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

微信通话时,是如何判断“当前/对方网络不佳”的?以及我们自己怎么实现?

微信语音通话中的"网络不佳"提示机制解析:文章从用户体验角度出发,分析了实时音视频通话中对网络质量敏感的原因,并深入探讨了微信可能采用的技术方案。通过多维度网络指标(丢包率、抖动、RTT等)的实时监测和综合评分,结合时间窗口聚合和防抖处理,系统能在网络质量持续恶化时准确触发提示。文章还提供了基于ReactNative+WebRTC的实现思路,包括数据采集、质量评分、状态机防抖等

#微信#网络#php
React性能优化相关hook记录:React.memo、useCallback、useMemo

React.memo是React的高阶组件,用于函数组件的浅层记忆化,当props未变化时避免重复渲染。它通过浅比较props来优化性能,但需注意对象/数组的引用稳定性问题,可配合useMemo/useCallback使用。useCallback用于缓存函数实例,防止不必要的函数重建;useMemo则缓存计算结果,优化复杂计算场景。三者配合可有效提升性能,但应避免滥用,建议基于实际性能分析按需使用

#react.js#性能优化#javascript
A2UI : 以动态 UI 代替 LLM 文本输出的方案

A2UI是一种基于JSON的流式UI协议,将用户界面视为数据流,由AI Agent动态生成和控制。该协议通过JSON-RPC消息实现前后端交互:前端发送用户请求,后端调用大语言模型(LLM)生成包含UI描述的JSON响应。系统采用标准组件库(18种原子组件)和数据绑定机制,LLM负责业务逻辑和界面结构,前端运行时控制视觉样式和交互细节。用户操作会触发新的LLM调用,生成更新的界面JSON,形成闭环

#ui#前端#开发语言
一次真实的流式踩坑:fetchEventSource vs fetch流读取的本质区别

本文对比了前端接入流式AI服务时fetch+reader与fetchEventSource两种实现方式的差异。通过真实案例剖析,指出fetch+reader方式在字节流层级工作,需手动处理SSE协议解析,容易因数据分片、消息合并和UTF-8解码等问题导致内容丢失;而fetchEventSource在事件层级工作,内置SSE协议解析,能正确处理消息边界和缓冲,确保数据完整性。文章建议对SSE/tex

#前端
LangChain 入门与实践:从 LLM 调用到 AI 工作流的工程化思维

本文介绍了LangChain框架在AI应用开发中的关键作用。作为连接大语言模型与业务系统的中间层,LangChain通过标准化接口实现模型能力编排,将单次模型调用升级为可组合的工作流。文章重点解析了其核心设计思想:采用适配器模式统一模型调用、通过PromptTemplate实现提示词工程化、利用Chain机制构建多步骤AI流程。这些特性使开发者能够以工程化思维构建复杂AI系统,而非仅限于单次模型交

#人工智能#前端#react.js +1
2025前端面试趋势解读:这些新考点你准备好了吗?

本文梳理了2025年前端面试的核心趋势与高频考点。随着技术发展,面试重点已从工具使用转向架构思维,考察候选人对底层原理的理解深度和系统设计能力。当前主要关注三大方向:微前端架构、性能优化方案和TypeScript类型编程等工程化能力;WebGPU、AI协同等新兴领域;以及框架设计思想、浏览器原理等基础知识。文章提供了100+真实面试题,涵盖从JavaScript运行机制到跨端架构设计的完整知识体系

#前端#面试#职场和发展 +4
到底了