简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
这个月好像比上个月还忙,去了很多地方,见了很多朋友。之前云栖大会上说要写几篇 Qwen 相关的实践,一直没有时间,趁着今天出行前的空档,分享一篇之前使用小模型的经验。简单好用的 AI 流水线本篇文章使用的模型是千问 2.5 版本的 7B 模型的官方量化版:Qwen2.5-7B-Instruct-GPTQ-Int4,因为我们要处理的数据任务非常简单,追求效率第一,所以即使使用较小参数量的模型,搭配它
体验地址:https://www.zhihuiya.com/products/AI相关文档:SCM202404001_智慧芽_专利大模型的实践与知识问答探索 (全文可通过文末链接获取)
如果要使用的模型不在 Ollama 模型库怎么办?至此,我们一起走完了 Ollama 的部署和实战流程。在我看来,Ollama 也许是目前最便捷的大模型部署和使用工具,对小白非常友好。简单的命令行操作,用户即可快速启动和管理模型,极大降低了技术门槛,用户可以专注于模型的应用,而无需关注底层技术细节。此外,Ollama 的离线运行也为数据安全提供了保障。期待大家在使用 Ollama 的过程中,发现更
在2024年AI大模型的面试中,常问的问题以及答案可能会涵盖多个方面,包括AI大模型的基础知识、训练过程、应用、挑战和前沿趋势等。由于我无法直接附上174题的完整面试题库及其答案,我将基于提供的信息和当前AI大模型领域的热点,给出一些常见的问题和答案示例。
目前常见的深度学习框架有很多,最出名的是:PyTorch(facebook出版), Tensorflow(谷歌出版),PaddlePaddle(百度出版)。PyTorch是目前最主流的深度学习框架,我们就选择PyTorch肯定没错。Nvidia显卡如果要装pytorch,可以用windows系统,也可以用Linux系统,如果有Nvidia显卡,则安装版本PyTorch,首先升级显卡驱动,将自己显卡
11 月 22 日,阿里巴巴国际数字商业集团 MarcoPolo 团队发布了,这是一种旨在推进开放式问题解决的大型推理模型 (LRM)。不仅关注数学、物理和编程等有标准答案的学科,还强调开放性解决方案。通过使用等创新技术,优化了复杂的现实世界问题解决任务。_论文链接:__项目地址:_:团队使用开源和自研合成数据对基础模型进行全参数微调,打造出Marco-o1-CoT。:通过将大语言模型与(MCTS
Ollama 现在正式支持 Llama 3.2 视觉模型(Llama 3.2 Vision)。你看就像这样拖进去就可以识别图片了。▲ 来源 | Prompt Engineering你可以看到该模型有11B参数版和90B参数版。选择90B参数版时,文件大小约为55GB。当然还有一些量化的版本。Llama 3.2 Vision 11B 至少需要 8GB VRAM,而 90B 型号至少需要 64 GB
随着人工智能技术的迅猛发展,大模型(Large Models)已成为这一领域的新宠。从GPT系列到BERT,再到各类变体,大模型以其强大的能力吸引了无数开发者和研究者的目光。那么,作为一个零基础的学习者,如何快速入门并精通大模型技术呢?本文将为你提供一份详尽的学习指南。一、大模型基础概念在开始深入学习之前,我们需要了解大模型的基本概念和特点。大模型通常指的是参数量巨大、结构复杂的神经网络模型,它们
有很多人或许会疑惑,Agent 这个东西看起来跟 LLM 也没差得那么远,那为啥最近突然 Agent 那么火,而不称之为 LLM-Application 或者其他的词呢?这就得从 Agent 的来历上说起了,因为 Agent 是个很古老的术语,甚至可以追溯至亚里士多德和休谟等人的言论。从哲学意义上讲,“代理人”是指具有行动能力的实体,而 “代理” 一词则表示这种能力的行使或体现。而从狭义上讲,“代