logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

一起来免费使用大语言模型【腾讯混元lite】| 如何获取腾讯混元lite的SecretId和SecretKey

腾讯混元HunYuan Lite是腾讯推出的免费大语言模型,支持256K超长文本处理。本文详细介绍了获取API密钥的6个步骤:1)注册腾讯云账号;2)完成实名认证;3)开通混元服务;4)获取APPID;5)创建API密钥(SecretId和SecretKey);6)配置使用。特别提醒SecretKey仅显示一次需妥善保存,混元-lite模型目前免费使用,适合个人开发者。按照指引即可轻松完成配置,开

文章图片
#语言模型#人工智能#自然语言处理 +1
C++的演进与我的编程学习之旅:从底层基础到AI应用

本文系统介绍了C++语言的发展历程、核心特性及作者的学习经验。从1979年诞生至今,C++历经三个发展阶段,形成了高性能、多范式的编程语言特点。作者分享了自己从基础语法到面向对象编程、指针内存管理等关键知识点的学习过程,通过代码示例展示了类继承、智能指针和STL容器的实际应用。文章呈现了C++作为系统级编程语言的强大功能与学习挑战,为编程学习者提供了有价值的参考路径。

文章图片
#c++#学习#人工智能 +3
从零开始:手写数字识别程序的深度学习实践

基于Python从零实现手写数字识别程序的完整实践过程。通过构建三层全连接神经网络(输入层784节点、隐藏层100节点、输出层10节点),结合MNIST数据集(60,000训练图+10,000测试图),实现了92.7%的测试准确率。文章详细解析了核心实现环节​:​数据预处理​:图像扁平化(28×28→784维向量)与归一化处理,标签One-Hot编码;​神经网络设计​:手动实现前向传播(Sigmo

文章图片
#深度学习#人工智能#python
【三步!手把手教你快速搭建本地deepseek应用】deepseek-r1-1.5b+ollama+anythingllm

【手把手教你快速搭建本地deepseek应用】deepseek-r1-1.5b+ollama+anythingllmDeepSeek-R1-1.5B 是一个高性能的自然语言处理模型,适用于文本生成、对话系统、文本分类等多种任务。本文将详细介绍如何在本地快速搭建和运行 DeepSeek-R1-1.5B 模型。

文章图片
#人工智能
使用python开发任天堂gameboy模拟器|pyboy开发实践

PyBoy是一个基于Python的开源Game Boy模拟器,通过软件模拟Game Boy的硬件组件(CPU、内存、GPU等)来运行原始ROM文件。其核心模块包括Sharp LR35902 CPU模拟、内存管理、图形渲染等,采用主循环结构逐帧执行指令并处理输入。该项目不仅支持游戏运行,还为AI研究和计算机体系结构学习提供了Python接口。文章详细解析了PyBoy的工作原理、核心组件及数据流,并展

文章图片
#python
基于【讯飞星火 Spark Lite】轻量级大语言模型的【PySide6应用】开发与实践

之前博主使用PySide6开发了一个刷题复习软件实用刷题复习软件【单机版】 | 使用PySide6自制刷题软件【源码+解析】| 支持自定义excel题库。当前AI大模型火爆,可以借助AI在刷题复习软件中加入AI分析作答功能,提升刷题体验,更好的理解题目背后的逻辑和原理,同时也可以了解一下当前AI开放平台的开发过程。进行了一系列搜索后,决定还是使用免费、比较权威一点的AI大模型平台讯飞星火的Spar

文章图片
#人工智能
基于【讯飞星火 Spark Lite】轻量级大语言模型的【PySide6应用】开发与实践

之前博主使用PySide6开发了一个刷题复习软件实用刷题复习软件【单机版】 | 使用PySide6自制刷题软件【源码+解析】| 支持自定义excel题库。当前AI大模型火爆,可以借助AI在刷题复习软件中加入AI分析作答功能,提升刷题体验,更好的理解题目背后的逻辑和原理,同时也可以了解一下当前AI开放平台的开发过程。进行了一系列搜索后,决定还是使用免费、比较权威一点的AI大模型平台讯飞星火的Spar

文章图片
#人工智能
【三步!手把手教你快速搭建本地deepseek应用】deepseek-r1-1.5b+ollama+anythingllm

【手把手教你快速搭建本地deepseek应用】deepseek-r1-1.5b+ollama+anythingllmDeepSeek-R1-1.5B 是一个高性能的自然语言处理模型,适用于文本生成、对话系统、文本分类等多种任务。本文将详细介绍如何在本地快速搭建和运行 DeepSeek-R1-1.5B 模型。

文章图片
#人工智能
到底了