logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

AIGC大模型面经汇总,太全了!

1.上来没有自我介绍2.直接介绍NeurIPS论文,中间穿插着一些提问3.说一下Transformer的整体结构4.了解有哪些位置编码方式吗5.说一下LLaMA中的旋转位置编码6.算法题:经典的求平方根,牛顿迭代法秒了7.算法题:判断一个字符串能否由另一个字符串旋转而来,比如abcd旋转后可以变成dabc或者bcda等,写完后面试官要求O(1),临时没想出来8.详细说了快手的用户推荐算法实习,主要

文章图片
#AIGC#学习#人工智能 +4
ICML 2024 大语言模型相关507篇论文整理

国际机器学习会议(International Conference on Machine Learning,简称ICML)是机器学习领域最具影响力的国际学术会议之一。ICML聚集了来自全球范围内的学者、研究人员和从业者,以分享他们在机器学习领域的最新研究成果、进展和创新想法。今年的 ICML 会议已在 2024 年 7 月 21 日~ 7 月 27 日于奥地利维也纳举办。据官方邮件通知,今年 IC

文章图片
#语言模型#机器人#人工智能 +2
实测Meta最新开源模型——LLaMA 3.1,能力惊人!

通过以上测试可以看出,LLaMA 3.1:8B虽然是参数最小的版本,但已经展现出相当强大的能力。对于有高性能需求的用户,70B和405B版本将会提供更强的计算能力和更准确的回答。在未来,随着LLaMA系列模型的不断优化,我们可以期待它在更多领域中的应用和表现。希望这篇文章能够帮助大家了解LLaMA 3.1的强大之处。

文章图片
#服务器#运维#学习 +3
掌握 Llama 3.1:轻松本地部署与远程使用的全攻略

Llama 3.1 是 Meta(Facebook 的母公司)发布的一系列最先进的开源大语言模型。Llama 3.1 系列包括 8B(80 亿参数)、70B(700 亿参数)和 405B(4050 亿参数)模型。其中,405B 是 Meta 迄今为止最大的模型。

文章图片
#开源#人工智能#语言模型 +3
【大模型系列——解读RAG】

RAG即检索增强生成,为 LLM 提供了从某些数据源检索到的信息,并基于此修正生成的答案。RAG 基本上是 Search + LLM 提示,可以通过大模型回答查询,并将搜索算法所找到的信息作为大模型的上下文。查询和检索到的上下文都会被注入到发送到 LLM 的提示语中。嵌入式搜索引擎可以通过 Faiss 来实现,向量搜索领域成为了RAG的一个助力。像pinecone 这样的向量数据库可以构建开源搜索

文章图片
#人工智能#开源软件#github +4
LangChain实践-Data Connection(数据连接)之Vector Store(向量数据库)

存储和搜索非结构化数据的最常见方法之一是将其嵌入并存储生成的嵌入向量,然后在查询时嵌入非结构化查询并检索与嵌入查询“最相似”的嵌入向量。向量存储负责为您存储嵌入数据并执行向量搜索。向量数据库是一种将数据存储为高维向量的数据库,高维向量是特征或属性的数学表示。每个向量都有一定数量的维度,根据数据的复杂性和粒度,可以从数十到数千不等。向量通常是通过对原始数据(如文本、图像、音频、视频等)应用某种转换或

文章图片
#数据库#搜索引擎#语言模型 +2
如何免费使用GPT-4o?国内AI大模型相比又怎样?汇总来了!

OpenAI是一家领先的人工智能研究公司,开发了多种大语言模型,现如今GPT-4o以及GPT-4o mini等版本都已经推出。使用国内镜像站是相对而言,使用ChatGPT更为直接简单的方法,但是毕竟不是官方途径,会存在使用不稳定的情况,比如回复缓慢、报错等。比如下面的狠活AI,会赠送一些积分,通过赠送的积分可以免费试用一下GPT系列。每使用一次工具就扣除相应的积分,GPT-4o一次需要消耗10积分

文章图片
#人工智能#自然语言处理#开源 +4
到底了