logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【前端面试专栏】<script> 脚本以及 <link> 标签对 DOM 解析渲染的影响

当HTML解析器解析HTML,如果遇到`script`标签,普通的`script`标签会暂停对DOM解析渲染,因为该脚本可能会修改DOM。这里有三种情况:普通脚步、defer、async。

文章图片
#前端
AI Prompt 直达生产级爬虫,Bright Data AI Scraper Studio 让数据抓取更高效

把复杂的爬虫技术变简单了——会打字就能用,不管是帮运营爬竞品数据,还是给AI团队攒训练素材,都不用再求着技术写代码。真碰到特殊需求,比如只抓某类时间范围内的内容,直接进IDE小改一下就行,不用推翻重来。两者优势,通过自然语言prompt生成爬虫脚本,既实现了零代码、极速上线,又保留了扩展性和代码级定制能力,更适合需快速扩展多域、追求极致效率与弹性的现代数据团队。之后出现弹框,我们可以直接创建自己的

文章图片
#人工智能#爬虫
AI Prompt 直达生产级爬虫,Bright Data AI Scraper Studio 让数据抓取更高效

把复杂的爬虫技术变简单了——会打字就能用,不管是帮运营爬竞品数据,还是给AI团队攒训练素材,都不用再求着技术写代码。真碰到特殊需求,比如只抓某类时间范围内的内容,直接进IDE小改一下就行,不用推翻重来。两者优势,通过自然语言prompt生成爬虫脚本,既实现了零代码、极速上线,又保留了扩展性和代码级定制能力,更适合需快速扩展多域、追求极致效率与弹性的现代数据团队。之后出现弹框,我们可以直接创建自己的

文章图片
#人工智能#爬虫
别再手动筛选训练数据!Bright Data 智能处理,打造一流亚马逊电商AI推荐官

构建高质量训练集的关键方法与实例 摘要 本文探讨了构建高质量训练集的核心方法及其在电商AI推荐系统中的应用。文章首先强调了高质量数据对模型性能的决定性作用,并介绍了获取训练数据的多种途径,其中网络爬虫因能高效获取海量公开数据而成为主流手段。重点介绍了Bright Data工具的优势,包括其全球分布式IP网络和对反爬机制的规避能力,并通过构建亚马逊产品推荐AI的实例,详细演示了如何使用其网页抓取AP

文章图片
#人工智能#爬虫
JS中数组随机排序实现(原地算法sort/shuffle算法)

在谈sort之前,我们先了解一下原地算法,什么事原地算法呢?所谓**原地算法**就是说基于原有的数据结构进行一定的操作修改,而不借助额外的空间。使用原地算法时,其内存干净,空间复杂度是O(1),可以减少没必要的内存,避免造成内存浪费和冗余。当然,减小内存损耗会带来算法复杂度和时间消耗的增加,所以是一个Tradeoff。**Tradeoff** 是一种针对目标选择有效的路径的思维方式,需要对做的事情

文章图片
#javascript#排序算法
亚马逊云科技大语言模型加速OCR应用场景发展

大语言模型是一种基于神经网络的自然语言处理技术,它能够学习和预测自然语言文本中的规律和模式,可以理解和生成自然语言的人工智能程序。在大型语言模型中,神经网络模型可以通过学习大量的语言数据,自动提取自然语言文本中的特征和模式,以实现自然语言的理解和生成。OCR技术(Optical Character Recognition)是一种广泛应用的人工智能技术,在大语言模型基础上,能够从文档或图像中提取文本

文章图片
前端如何处理「并发」问题?

在项目中我们会遇到一次请求多个接口,当所有请求结束后进行操作,也会遇到多个请求(大量)同时进行请求资源,本文就并发问题通过axios对这两种现象进行优化处理,主要通过 axios中all、spread、请求拦截以及响应拦截进行处理。

文章图片
#前端#javascript#开发语言
window.performance(前端性能监控并进行上报)

Web Performance提供了可以通过的函数(performance 属性提供)测试当前网页或者 web应用的性能,获取更为精确的原始数据,以毫秒为单位。一般放在window.onload事件中读取各种数据,有些值必须在页面完全加载之后才能得出。

文章图片
#前端#性能优化#html
基于华为昇腾CANN的自定义算子开发

在大模型推理中,Attention机制通常由多个基础算子组成(MatMul、Softmax、Dropout等),导致频繁的内存读写。我们将开发一个融合Attention算子,减少内存访问,提升性能。本文从算子开发维度探索了华为昇腾CANN的创新实践。通过Ascend C实现融合Attention算子,将多个基础算子合并为单一计算单元,有效减少内存访问开销,最终实现了2.6倍的性能提升。作为昇腾AI

文章图片
#华为#CANN#语言模型
基于华为昇腾CANN的自定义算子开发

在大模型推理中,Attention机制通常由多个基础算子组成(MatMul、Softmax、Dropout等),导致频繁的内存读写。我们将开发一个融合Attention算子,减少内存访问,提升性能。本文从算子开发维度探索了华为昇腾CANN的创新实践。通过Ascend C实现融合Attention算子,将多个基础算子合并为单一计算单元,有效减少内存访问开销,最终实现了2.6倍的性能提升。作为昇腾AI

文章图片
#华为#CANN#语言模型
    共 111 条
  • 1
  • 2
  • 3
  • 12
  • 请选择