logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

目前适合落地的agent有哪些值得推荐的框架?

其次要用到Trae编辑器,这是一个AI原生的代码编辑器,是基于VsCode内核开发的,所以它有VsCode的几乎所有功能,最重要的是它支持直接部署大模型、智能体、MCP等,可以理解它就是一个超级编程智能体。首先是SQLite数据库,这是一个轻量化的开源数据库,它没有服务器,无需复杂的配置安装,就可以直接用,很适合制作AI应用。这是我将AI应用到实际工作的一个尝试,虽然有很多地方还不算满意,比如处理

#python#sql
谷歌 Gemini 下载量超过 ChatGPT,这背后原因有哪些?

我觉得Gemini有三个方面比较强,首先是它背靠Google宇宙级的生态,妥妥的资源咖,什么安卓、Chrome、搜索、广告、Youtube,不管哪个拎出来都是百亿美元级别的产品,Gemini没有不好的道理。我特别喜欢Gemini的Deep Research深度研究报告功能,只需要给一个简单的提示语,它就能自动搜集资料数据,并形成一份非常专业的研究报告,很像花好几个礼拜写出来的论文。国外的大模型,我

在Trae上使用Bright Data MCP采集数据,实时获取iPhone17价格信息

其实网页爬虫也一样,爬虫说到底就是收集数据,和你平时浏览网页没区别,只不过是用脚本批量化的去采集数据,AI大模型的出现让爬虫也开始进化,传统的Python爬虫、软件爬虫在慢慢被AI爬虫取代,比如说我常用的一个数据采集MCP-Bright Data MCP,能通过Trae这样的Agent调用,直接用自然语言就可以采集目标网站的数据,完全不用写代码,甚至你都不用打开目标网站。Trae是近一年比较流行的

#人工智能
通过 MCP 实现 AI Agent 目前有哪些最佳实践?

首先要介绍下什么是MCP,它的学名是“模型上下文协议”,你可以理解成它是连接AI大模型和外部工具的一个媒介,类似于电脑和互联网的关系,大模型原先只是封闭的大脑,有了MCP后它就连接了无数的信息、工具、数据,可以做更多的事情,比如Bright Data MCP能实现复杂网站的数据采集。总的来说,AI爬虫已经成为不可逆的趋势,完全不需要写代码处理网页,几乎零门槛,而且能很好的和一些智能体结合,做出不错

#人工智能
丢掉pip,又一Python实用利器出现了~

uv是一个拥有环境管理、依赖管理、Python版本管理、运行脚本、打包发布等多种功能的Python一体化工具链,可以说集齐了venv、virtualenv、pip、poetry能力于一身。pip是最常用的Python包管理工具,但现在出现了一个挑战者,速度更快,功能更全面和强大,而且被广泛用在AI MCP管理中,那就是uv。uv官方非常自信,喊话pip、virtualenv,你有的我都有,而是更好

#python#pip#开发语言
我常用的一些VsCode插件,强烈推荐~

AI Toolkit则主要用来下载、微调、测试大模型,它的模型库更加丰富,有75个线上模型,以及可以连接本地模型,而且提供了模型测试 Playground、模型微调 Fine-tuning等功能,可以让你更好的使用大模型。vscode插件非常多,我一般会看most popular排序,前50的很多是高频必备插件,像是Pylance、jupyter、docker、prettier、copilot、w

文章图片
#vscode#ide#编辑器
学会这7个爬虫软件,三分钟搞定数据采集

它提供了自动网站解锁功能,能够应对动态加载、验证码、IP限制等各种反爬虫机制,而且支持如Puppeteer、Playwright和Selenium等多种爬虫工具,在亮数据内置的无界面浏览器上进行数据的采集,成功率非常高。不管是文本、图片、视频亦或表格,八爪鱼都能抓,而且它还提供了非常丰富的采集模板,比如电商、新闻、短视频等主流平台全包含,它已经帮你配置好了流程,一键可以实现爬虫。它的优势是基于Py

#爬虫
如何评价Notion笔记软件?

近几年notion最重要的一个功能是notion AI,可以算是notion的大脑,不光可以创作文本和代码,还支持管理知识库,类似ima的功能,现在它又可以作为AI助理跨页面和知识库进行全面的管理,比如你传进去一段会议录音,它可以自动创建会议纪要,形成专业的结论报告。一来说明它的用户数量是巨大的,其次其用户质量是高的,从付费意愿就能看出来。另一方面,notion有个很重要的数据库设计,数据库可以是

适合新手的5个爬虫工具&软件,非常强大~

爬虫,又称为网络爬虫或网页爬虫,是一种自动浏览互联网的程序,它按照一定的算法顺序访问网页,并从中提取有用信息。爬虫软件通常由以下几部分组成:模拟浏览器访问,避免被网站识别为机器人。发送HTTP请求,获取网页内容。使用正则表达式或DOM解析技术提取所需数据。将提取的数据保存到数据库或文件中。处理请求超时、服务器拒绝等异常情况。下面介绍几个我经常用的爬虫插件和工具,入门非常简单。

#数据库
最良心的软件可以良心到什么程度?

它提供了自动网站解锁功能,能够应对动态加载、验证码、IP限制等各种反爬虫机制,而且支持如Puppeteer、Playwright和Selenium等多种爬虫工具,在亮数据内置的无界面浏览器上进行数据的采集,成功率非常高。不管是文本、图片、视频亦或表格,八爪鱼都能抓,而且它还提供了非常丰富的采集模板,比如电商、新闻、短视频等主流平台全包含,它已经帮你配置好了流程,一键可以实现爬虫。它的优势是基于Py

文章图片
#软件构建#爬虫
    共 290 条
  • 1
  • 2
  • 3
  • 29
  • 请选择