logo
publist
写文章

简介

全民程序员们,大家好,我是练习时长两年半的,个人程序员D枫,喜欢java、c#、golang 、h5。键盘来。。。。。

擅长的技术栈

golang

可提供的服务

暂无可提供的服务

【探索实战】手把手教你安装Kurator Cli:两种高效方案+验证指南

本文介绍了Kurator云原生多集群管理工具的两种安装方法。方案一通过源码编译安装,适合需要自定义配置的用户;方案二使用官方预编译包,适合快速部署。安装完成后需执行kurator version验证。文章还分享了Kurator控制平面部署体验,分析了其多集群管理优势及适用场景。Kurator特别适合跨云、边缘计算等场景,提供一站式多集群管理方案。最后提供了社区地址和部署指南,帮助用户快速上手。

文章图片
#容器
Rust所有权机制在Web服务开发中的避坑指南

Rust Web开发中的所有权陷阱与解决方案 本文针对Rust Web开发中的所有权机制挑战,以Axum框架为例,分析了4个典型问题及解决方案: 请求体解析后的所有权失效:通过不可变引用(&T)或克隆(clone)复用数据,避免移动所有权导致变量失效。 共享状态的并发访问冲突:使用Arc+RwLock或原子类型实现线程安全的共享状态,解决多线程可变借用冲突。 异步任务生命周期超界:将被借用

文章图片
#rust#前端#开发语言
【案例实战】HarmonyOS应用性能优化实战案例

本文分享了HarmonyOS应用性能优化的通用方法和行业实践案例。在编码层面,建议采用轻量化设计、异步任务调度和精准状态管理;工具层面推荐使用内存/CPU分析器等定位问题。航道管理系统案例展示了这些方法的具体应用:通过生命周期管理解决内存泄漏、分层加载优化启动速度、线程分流提升大屏帧率、多级缓存改善查询响应。实践表明,结合通用方法与业务特性,能显著提升应用性能,为行业级HarmonyOS应用开发提

文章图片
#harmonyos#性能优化#华为
使用Gorm,渗透测试检测出sql注入问题

大坑就是order()排序,gorm使用order时,不会进行预编译,首先明确一个问题,什么时候会存在SQL注入?当CRUD操作直接拼接了用户输入*,并且未做有效过滤/防护时,就会存在注入。

#sql#数据库
在VSCode中接入腾讯云AI代码助手的体验之旅

在VSCode中接入腾讯云AI代码助手的体验之旅在编程的世界里,每一个细微的效率提升都可能成为项目成功的关键。随着AI技术的飞速发展,将AI融入开发流程已成为一种趋势。最近,我有幸在Visual Studio Code(VSCode)中接入了腾讯云AI代码助手,使用tencent:deepseek-r1满血。这次体验让我深刻感受到了AI在编程中的巨大潜力。

文章图片
#vscode#ide
nodejs调用腾讯云短信实现发送短信功能

最近在做短信平台,目前测试了一下腾讯云的短信平台,把目前测试的可行调用的方式记录一下。

文章图片
#腾讯云#javascript#云计算
go调用腾讯云短信实现发送短信功能

最近在做短信平台,目前测试了一下腾讯云的短信平台,把目前测试的可行调用的方式记录一下。这篇是通过go实现。

文章图片
#腾讯云#golang#javascript
教你轻松部署 OpenClaw,打造自己的多 IM 协同的智能办公助手

OpenClaw 的智能交互能力依赖于大模型的支撑,Lighthouse 配置面板已适配腾讯混元、腾讯云 DeepSeek、月之暗面 Kimi、智谱 GLM、MiniMax、通义千问等国内主流大模型,支持 API Key 一键配置,同时也支持自定义配置 OpenAI GPT、Gemini 等海外大模型,具体操作以腾讯云 DeepSeek 为例:1.进入对应大模型的 API Key 管理页,点击创建

文章图片
AI大模型在医疗领域的应用案例:自然语言处理与医疗文本分析

在医疗领域,大量的病历、医学文献和临床报告需要被医生和分析师进行阅读和分析。然而,手动处理这些文本数据既耗时又容易出错。AI大模型通过自然语言处理技术,可以自动对这些文本进行分类和摘要,极大地提高了工作效率和准确性。例如,我们可以利用基于Transformer的预训练语言模型(如BERT、GPT等)来训练一个医疗文本分类器。这个分类器可以识别不同类型的医疗文本,如病历、诊断报告、医学论文等,并根据

文章图片
#人工智能#自然语言处理
RTX4090深度学习性能深度解析:硬件优势、实战表现与优化技巧

RTX 4090显卡凭借第四代Tensor Cores和24GB GDDR6X显存,在深度学习领域展现出卓越性能。通过FP8混合精度计算,其算力可达1.32 PetaFLOPS,相比RTX 3090提升87%,训练效率翻倍。24GB大显存支持7B参数的LLaMA 2等中等规模模型加载,显著提升批处理能力。在计算机视觉、自然语言处理和生成式AI等场景中,RTX 4090表现优异,推理速度较RTX 3

文章图片
#深度学习#人工智能
    共 94 条
  • 1
  • 2
  • 3
  • 10
  • 请选择