logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

告别 A100!教你用免费 Colab + Unsloth 跑通大模型蒸馏全流程

使用免费的Google Colab T4 GPU上,利用 Unsloth 加速库,让一个小巧轻便的模型(如 Qwen 2.5 1.5B)学会顶尖大模型(如 DeepSeek-V3)的知识

文章图片
#GPU
Flutter2.0+Dart系列(一)简介及安装

Flutter2.0+Dart系列(一)简介及安装欢迎来到Flutter2.0系列Flutter简介新的改变安装构建第一个Flutter app欢迎来到Flutter2.0系列你好! 在这个系列我将和大家一起学习讨论Google今年3月份新发布的Flutter2.0系列,以及和它对应的开发语言Dart。欢迎大家讨论交流,如果有什么我说错的地方,也欢迎大家指出,但希望维护一个和谐的讨论环境,谢谢~F

#flutter#android#ios +2
搞AI到底买什么配置的电脑?Mac完全不如N卡吗?

摘要:NVIDIA离散GPU架构专为高性能计算设计,采用独立显存和专用Tensor Cores,在多GPU扩展(NVLink/NVSwitch)和AI软件生态(CUDA、cuDNN等)方面占据优势。苹果统一内存架构(UMA)则通过SoC设计实现CPU/GPU内存共享,能效更高且延迟更低,但内存带宽和扩展性受限。Metal/MPS生态正在发展,但主流框架支持仍不如CUDA成熟。性能测试显示,NVID

文章图片
#人工智能#AI
Google Cloud Platform(GCP)实例中使用显卡信息报错问题

《解决GCP实例NVIDIA驱动安装失败问题》 摘要:针对GCP云平台使用H100显卡时出现的"NVIDIA-SMI has failed"错误,本文提供详细解决方案。首先需安装linux-headers等依赖项,禁用默认的Nouveau驱动,然后通过官方脚本安装GPU驱动。验证阶段应使用nvidia-smi和lsmod命令检查驱动状态。常见问题包括GPU未被识别、驱动版本不兼

文章图片
#AI
搞AI到底买什么配置的电脑?Mac完全不如N卡吗?

摘要:NVIDIA离散GPU架构专为高性能计算设计,采用独立显存和专用Tensor Cores,在多GPU扩展(NVLink/NVSwitch)和AI软件生态(CUDA、cuDNN等)方面占据优势。苹果统一内存架构(UMA)则通过SoC设计实现CPU/GPU内存共享,能效更高且延迟更低,但内存带宽和扩展性受限。Metal/MPS生态正在发展,但主流框架支持仍不如CUDA成熟。性能测试显示,NVID

文章图片
#人工智能#AI
搞AI到底买什么配置的电脑?Mac完全不如N卡吗?

摘要:NVIDIA离散GPU架构专为高性能计算设计,采用独立显存和专用Tensor Cores,在多GPU扩展(NVLink/NVSwitch)和AI软件生态(CUDA、cuDNN等)方面占据优势。苹果统一内存架构(UMA)则通过SoC设计实现CPU/GPU内存共享,能效更高且延迟更低,但内存带宽和扩展性受限。Metal/MPS生态正在发展,但主流框架支持仍不如CUDA成熟。性能测试显示,NVID

文章图片
#人工智能#AI
零基础都可以本地部署Deepseek R1

在 Chatbox 的设置中,选择使用本地模型,并将模型提供方设置为 Ollama API;对于大多数家用或工作站级别的电脑,运行 1.5b 至 7b 版本已基本满足体验需求,而更高参数的版本则适合服务器或高端工作站使用。:若需要使用模型,只需先启动 Ollama(通常在安装时会自动后台运行),然后通过命令行或图形界面调用模型。下载完成后,在同一命令行窗口中,你可以直接输入问题(例如输入“上海在哪

文章图片
#AI
Spring Boot的通用返回类Result

先构建一个格式确定下来的Result类public class Result<T> {private Integer code;private String msg;private T data;public Result() {super();}public Result(Integer code...

#java
成本仅50美元,性能媲美Deepseek-R1,李飞飞带着S1来炸场了

李飞飞团队的 S1 模型展示了一种以极低成本实现高效推理的新路径,其核心在于利用强大的预训练基座、精挑细选的小样本数据集以及创新的测试时扩展技术(如预算强制)。这一方法不仅在实验中获得了与顶尖模型接近甚至超越的成绩,同时也为 AI 模型研发如何在成本与性能间取得平衡提供了有价值的参考。未来能否进一步推广这一方法,还需要在更大范围内验证其通用性和鲁棒性。

文章图片
零基础都可以本地部署Deepseek R1

在 Chatbox 的设置中,选择使用本地模型,并将模型提供方设置为 Ollama API;对于大多数家用或工作站级别的电脑,运行 1.5b 至 7b 版本已基本满足体验需求,而更高参数的版本则适合服务器或高端工作站使用。:若需要使用模型,只需先启动 Ollama(通常在安装时会自动后台运行),然后通过命令行或图形界面调用模型。下载完成后,在同一命令行窗口中,你可以直接输入问题(例如输入“上海在哪

文章图片
#AI
    共 13 条
  • 1
  • 2
  • 请选择