
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
在 Transformer 出现之前(2017 年以前),自然语言处理(NLP)主要依赖。,就像人读书一样一个字一个字看。
openEuler 是由开放原子基金会孵化和运营的开源数字基础设施操作系统,适配服务器、云计算、边缘计算、嵌入式等多种部署场景,具备安全、稳定、易用的特点,且兼容多种计算架构,能够实现运营技术(OT)与信息通信技术(ICT)的融合。它面向全球开发者,致力于构建开放、多元、架构包容的软件生态,助力企业快速实现软硬件及应用的开发部署。
openEuler 是由开放原子开源基金会孵化运营的数字基础设施操作系统,兼容多种计算架构,可适配服务器、云计算、边缘计算、嵌入式等多种部署场景,具备安全、稳定、易用的特点,支持OT与ICT融合,能有效提升开发者效率。
② 阶段:拉取代码→编译(mvn clean package -DskipTests)→单元测试(mvn test,失败阻断)→SonarQube 代码扫描(阈值:覆盖率≥80%,高危漏洞 = 0)→Docker 构建(镜像标签:。企业级 K8s 集群(50 节点,管理 1000+Pod),涉及多命名空间(prod、test、dev)、存储(Ceph、NAS)、网络(Calico、Istio),
就是:不从头啃书,不先学理论,直接从「环境 + 工具 + 场景」入手,边跑边懂,边用边体系化。核心三句话:最简可落地方案:目标:10 分钟内能出来结果。基于 Docker Desktop 分别搭建 Kind 和 Minikube 这两种本地 Kubernetes 环境,我会为你提供分步、可落地的搭建教程,包括环境准备、安装步骤、验证方法和常见问题解决,两种方案都会覆盖。无论搭建 Kind 还是 M
openEuler 是由开放原子基金会孵化和运营的开源数字基础设施操作系统,适配服务器、云计算、边缘计算、嵌入式等多种部署场景,具备安全、稳定、易用的特点,且兼容多种计算架构,能够实现运营技术(OT)与信息通信技术(ICT)的融合。它面向全球开发者,致力于构建开放、多元、架构包容的软件生态,助力企业快速实现软硬件及应用的开发部署。
Ollama:一款开源、跨平台的大模型运行与管理框架,是目前本地 / 私有化部署大模型的最低门槛方案。它彻底封装了底层 CUDA/ROCm 环境编译、模型适配、推理优化等复杂操作,支持一行命令完成模型下载、运行、管理,原生提供兼容 OpenAI 格式的 REST API,完美适配从个人电脑到企业服务器的全场景部署,是初学者入门企业级 AI 的首选工具。Gemma4。
Modelfile 是 Ollama 官方定义的纯文本模型构建蓝图文件,功能和逻辑类比 Docker 的 Dockerfile。它通过标准化的指令,定义了自定义模型的基础底座、行为规则、推理参数、对话格式等全部核心配置,最终通过一条命令构建为可直接运行的 Ollama 本地模型镜像。Modelfile = 基础模型 + 自定义配置 → 一键生成专属可复用 AI 模型,无需每次运行时手动输入大量参数
格式:/save 你的自定义模型名看到「Created new model 'my_qwen_custom'」提示,就是保存成功,后续用启动,就会沿用这套参数。新建一个文本文档,重命名为(⚠️ Windows 要关闭「隐藏已知文件扩展名」,确保后缀名是.modelfile,不是.txt)用记事本 / VS Code 打开这个文件,开始编写配置。打开终端 / CMD,进入到# 格式:ollama c
Gemma4:Google DeepMind 于 2026 年 4 月 2 日正式发布的第四代开源大模型,与闭源旗舰 Gemini 3 共享同源底层技术,采用Apache 2.0 完全开源协议(无商用限制、可二次修改分发),是当前同参数规模下性能最强的开源模型之一,截至 2026 年 4 月,Gemma 系列全球下载量已突破 4 亿次。Ollama。







