logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

动手构建你的第一个知识图谱 by RDF (3)

RDF 的全称叫 Resource Description Framework (资源描述框架)。它是实现语义网络的三个基础技术之一 (其他两个是 SPARQL 和 OWL)。它是被 W3C 推荐的一个数据模型:这意味着所有的语义网络数据都用 RDF 来存储;另外它也是一种在万维网中表示资源信息的语言,有着一套自己的语法规则。

文章图片
#知识图谱#人工智能
周末搭建树莓派服务器之二(内网穿透)

但是在日常使用中,很多用户希望能够从外网轻松访问树莓派,无论你是在办公室还是在外地旅行。通过路由器的端口转发功能,你可以成功实现树莓派的内网穿透。在下一篇文章中,我们将讨论如何在配置好内网穿透后,在树莓派上部署一个安全的Web服务器,敬请期待!我们使用笔记本命令行,使用外网 IP 地址,测试是否能通过 SSH 远程登录我们的树莓派服务器。你无需额外的服务器或服务,只需配置路由器,便能轻松实现外网访

文章图片
#服务器
周末搭建树莓派服务器之一(Ubuntu烧录)

烧录完成后,Raspberry Pi Imager 会弹出提示,告知您可以安全地移除 SD 卡。启动 Raspberry Pi Imager 后,点击“Choose OS”按钮,从操作系统列表中选择适合您需求的系统。工具,我们将详细讲解如何选择合适的操作系统、配置系统设置,以及最终完成系统的烧录。在写入系统前,点击右下角的设置按钮进行一些必要的配置,如设置主机名、启用 SSH、配置 Wi-Fi 等

#服务器#ubuntu#运维
选 AI 显卡别只看算力!RTX 1060-5090 AI TFLOPs/W 省电性能排行

的发布,RTX 50 系列几乎覆盖了所有性能档位(除了 5060 还未亮相),从 20 系列到 50 系列,显卡性能迎来了巨大的飞跃。在 AI 时代,显卡不仅仅是游戏玩家的必需品,更是深度学习、Stable Diffusion、ChatGLM 等本地 AI 模型运行的核心硬件。,并通过**TFLOPs/W(算力效率)**这一关键指标,帮你找出最具性价比的 GPU!是其中最直观的之一——它代表显卡每

文章图片
#人工智能#pytorch
使用 AI,人人都能做产品设计

所有的内容可以在这个 Google Doc:https://docs.google.com/document/d/1sq-g9yChtRYDrqL0KTgHeW4ZzwPKzPRyQ79pQEfuxDU/edit 中找到,如果你访问不了,请在公众号回复 “20250925”,我会把文件分享给你。[^1]. Google Doc 文件: https://docs.google.com/documen

文章图片
#人工智能#AIGC
只要 249 美元! 67 TOPs 最具性价比 AI 电脑:英伟达 Jetson Orin Nano Super 真香

新发布的对比“前代产品”价格价格减半,从$499降到$249。AI 性能Jetson Orin Nano 8GB 的算力为40 TOPS,而 Jetson Orin Nano Super 提升到67 TOPS,性能增加1.7 倍。内存带宽Jetson Orin Nano 8GB 的内存带宽为68 GB/s,而 Jetson Orin Nano Super 增加到102 GB/s,提升了50%。外观

文章图片
#边缘计算#arm开发#人工智能 +1
全网最全香橙 Pi 选择指南:这一篇就够了

香橙派推出了多款基于RK3588和RK3588S的开发板和计算模块,覆盖从入门到高性能需求的多样化场景。以及最新的Orange Pi AIPro 20TOPS 版本。CPU:Pi 5 Plus = Pi 5 Max >= 其他 > AI Pro。Pi 5 Plus 和 Pi 5 Max 的 CPU 最强,使用的是 RK3588,相比 RK3588S 支持更大的 I/O 吞吐,两款 AI Pro 强

文章图片
#服务器
Whisper.cpp + GPU 加速全攻略:Mac M 芯片高效转录音频教程

Whisper.cpp 简介Whisper是 OpenAI 开源的语音识别模型,支持多语言转写,在降噪和语音识别方面表现出色。是该项目的C/C++ 版本,可以在本地设备上高效运行,无需 Python 依赖,非常适合轻量级部署。Mac M 芯片的 GPU 加速Apple M1/M2/M3 芯片内置高性能 GPU和,但默认情况下 Whisper.cpp不会自动利用 GPU。我们可以使用CoreML 工

文章图片
#macos#音视频
只需三步,在几百块的香橙派 5 上跑 Deepseek R1

8GB 版本也可以跑一些小模型: 比如 Llama 3.2, Phi3, Qwen 1.5B 等,回答速度杠杠的。我下载了最右上角的模型,点击进入 HuggingFace 页面,下载模型文件 📂。Deepseek-8B 8bit 量化版 (8GB, 5Max)虽然算力更高 (8-20 TOPs),但发热严重,希望华为。Llama-7B 4bit 量化版 (4GB, 5Plus)Llama-7B

文章图片
#人工智能#arm开发#边缘计算
看看你的电脑可以跑 AI 模型吗?

随着大语言模型(LLM)在各个领域的应用快速普及,越来越多开发者想要尝试在本地运行这些模型。然而,这些模型对计算机硬件的要求极高,特别是在显存(VRAM)和推理速度方面。那么,如何评估你的设备是否合适?本文将帮助你了解模型的存储需求、推理平台选择和不同硬件的实际表现,助力你找到最适合的配置。绝大多数电脑 (包括笔记本) 几乎可以跑 AI 模型,但是使用不同 AI 模型,不同平台,不同机器推理速度差

文章图片
#语言模型#人工智能
    共 14 条
  • 1
  • 2
  • 请选择