logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

程序员鄙视链:搞AI的就比搞CRUD的高级?聊聊我的看法

程序员鄙视链确实存在,但我觉得没必要。技术没有高低之分,只有适合不适合。解决问题:能用技术解决实际问题持续学习:保持学习,跟上技术发展深入理解:不仅要会用,还要理解原理业务结合:技术和业务结合,创造价值好了,今天就聊到这里。这只是我个人的看法,不一定对。如果你有不同的观点,欢迎在评论区讨论。最后说一句,技术只是工具,人才是根本。不管做什么技术,保持学习,保持谦逊,才是最重要的。程序员鄙视链确实存在

文章图片
#人工智能
程序员鄙视链:搞AI的就比搞CRUD的高级?聊聊我的看法

程序员鄙视链确实存在,但我觉得没必要。技术没有高低之分,只有适合不适合。解决问题:能用技术解决实际问题持续学习:保持学习,跟上技术发展深入理解:不仅要会用,还要理解原理业务结合:技术和业务结合,创造价值好了,今天就聊到这里。这只是我个人的看法,不一定对。如果你有不同的观点,欢迎在评论区讨论。最后说一句,技术只是工具,人才是根本。不管做什么技术,保持学习,保持谦逊,才是最重要的。程序员鄙视链确实存在

文章图片
#人工智能
Java虚拟线程:告别线程池噩梦,性能提升10倍是真的吗?

Java虚拟线程(Virtual Threads)是Java 19引入的轻量级并发解决方案,旨在解决传统线程池在高并发IO密集型场景下的性能瓶颈。虚拟线程由JVM管理,创建成本低,支持数百万并发,在阻塞操作时会自动让出平台线程资源。测试显示,相比200线程的传统线程池,虚拟线程在处理10000个IO任务时性能提升4-5倍。特别适合HTTP服务、数据库查询等场景,可通过Spring Boot 3.2

文章图片
#java#python#开发语言
为什么人工智能偏爱 Python?——从“慢语言”到行业标准的背后逻辑

Python凭借其开发效率高、生态丰富和"胶水语言"特性,成为人工智能领域的首选语言。虽然Python执行速度较慢,但在AI应用中,计算任务由底层C++/CUDA库完成,Python主要承担逻辑调度工作。其强大的工具链(NumPy、PyTorch等)和网络效应形成了行业标准,使开发者能快速实现从研究到生产的全流程。Python的"慢"换来了开发效率的极大提升

文章图片
#人工智能#python#开发语言
AI应用开发:那些让人头疼的Token限制和成本优化

Token计算不准:刚开始用简单的字符数估算,结果差了很多。后来用了专业的库才准。缓存策略不对:刚开始缓存时间太长,结果用户反馈回答不够实时。后来改成1天过期,加上手动刷新机制。没有监控:第一个月账单出来才发现超预算了。现在每天都看成本报表。模型选择不当:什么任务都用GPT-4,浪费钱。现在会根据任务复杂度选模型。Token限制和成本控制是AI应用开发必须面对的挑战。但通过合理的优化策略,完全可以

文章图片
#人工智能#python#java
AI应用开发:那些让人头疼的Token限制和成本优化

Token计算不准:刚开始用简单的字符数估算,结果差了很多。后来用了专业的库才准。缓存策略不对:刚开始缓存时间太长,结果用户反馈回答不够实时。后来改成1天过期,加上手动刷新机制。没有监控:第一个月账单出来才发现超预算了。现在每天都看成本报表。模型选择不当:什么任务都用GPT-4,浪费钱。现在会根据任务复杂度选模型。Token限制和成本控制是AI应用开发必须面对的挑战。但通过合理的优化策略,完全可以

文章图片
#人工智能#python#java
本地部署大模型:不用GPU也能跑通LLM的那些方法

本地部署大模型方案摘要:本文介绍了无需GPU在本地运行大语言模型的几种方法,包括Ollama(最简单)、llama.cpp(性能最佳)、LM Studio(Windows友好)和Docker部署方案。对比了各方案在7B模型下的性能表现,其中Ollama易用性最佳但速度较慢,llama.cpp性能最优但配置稍复杂,LM Studio适合Windows用户。文章还提供了Java调用示例和Docker部

文章图片
#java#人工智能#机器人
本地部署大模型:不用GPU也能跑通LLM的那些方法

本地部署大模型方案摘要:本文介绍了无需GPU在本地运行大语言模型的几种方法,包括Ollama(最简单)、llama.cpp(性能最佳)、LM Studio(Windows友好)和Docker部署方案。对比了各方案在7B模型下的性能表现,其中Ollama易用性最佳但速度较慢,llama.cpp性能最优但配置稍复杂,LM Studio适合Windows用户。文章还提供了Java调用示例和Docker部

文章图片
#java#人工智能#机器人
本地部署大模型:不用GPU也能跑通LLM的那些方法

本地部署大模型方案摘要:本文介绍了无需GPU在本地运行大语言模型的几种方法,包括Ollama(最简单)、llama.cpp(性能最佳)、LM Studio(Windows友好)和Docker部署方案。对比了各方案在7B模型下的性能表现,其中Ollama易用性最佳但速度较慢,llama.cpp性能最优但配置稍复杂,LM Studio适合Windows用户。文章还提供了Java调用示例和Docker部

文章图片
#java#人工智能#机器人
Linux服务器运维:那些让人崩溃的AI服务部署问题

本文总结了Linux服务器部署AI服务时常见的运维问题及解决方案: 服务启动失败排查:通过systemctl、journalctl查看日志,检查端口占用、权限和依赖问题 内存不足处理:增加swap空间,配置systemd内存限制,优化JVM参数 自动重启配置:使用systemd或Supervisor设置服务自动重启机制 日志管理:配置logrotate轮转日志,设置应用层日志策略,定期清理旧日志

文章图片
#服务器#运维#linux
    共 284 条
  • 1
  • 2
  • 3
  • 29
  • 请选择