logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

SpringBoot重点详解--如何为Quartz的Job自动装配Spring容器Bean

目录SchedulerFactoryBeanTaskSchedulerFactory普通SpringMVC工程中配置方法在《SpringBoot重点详解--使用数据库配置Quartz定时任务》一文中我们通过将定时任务持久化到数据库实现了对定时任务的动态灵活配置,但存在一个非常严重的缺陷:定时任务Job的作业类中无法注入Service等由Spring容器所管理的Bean。例如下面这种...

Eureka服务注册中心搭建

目录关于SpringCloud版本单机模式Eureka注册中心搭建引入Eureka-Server依赖创建启动类添加配置高可用Eureka注册中心搭建双节点注册中心修改配置文件修改hosts文件启动测试多节点注册中心修改配置文件启动测试常见问题参考文章Spring Cloud是一系列框架的集合,它利用Spring Boot的开发便利性巧...

gitlab删除文件/目录

在github上只能删除仓库,却无法删除文件夹或文件, 所以只能通过命令来解决首先进入项目master文件夹下, Git Bash Here ,打开命令窗口$ git pull origin master# 将远程仓库里面的项目拉下来$ dir# 查看有哪些文件夹$ git rm -r --cached target# 删除tar...

#github#git
mongodb高级聚合查询

在工作中会经常遇到一些mongodb的聚合操作,特此总结下。mongo存储的可以是复杂类型,比如数组、对象等mysql不善于处理的文档型结构,并且聚合的操作也比mysql复杂很多。注:本文基于 mongodb v3.6目录mongo与mysql聚合类比aggregate简介aggregate语法aggregate常用pipeline stage介绍(本文核心)node操作mongo聚合查询(本文核

#数据库
SpringBoot使用mongodb查询时只返回某些字段值

springboot使用mongodb查询的时候会遇到服务器出口带宽压力大的情况,原因可能是查询mongodb的时候把整个对象给拖下来了,事实上我们只需要其中的某些字段,多余的字段返回的话会给小水管的带宽加上压力,也就是说我们的mongodb查询时只需要返回某些字段。看了很多人的各种文章感觉要么是哪里抄袭的要么是哪里拷贝的,根本不靠谱,自己去查询了下官方文档,实现方法很简单:直接使用mon...

#mongodb
前端vue中文件下载的几种方式

第一种方式是前端创建超链接,通过a标签的链接向后端服务发get请求,接收后端的文件流,非常简单:<a :href='"/user/downloadExcel"' >下载模板</a>另一种情况是创建div标签,动态创建a标签:<div name="downloadfile" "downloadExcel()">下载</div>fun...

vuecli3.0全局引入jquery

之前使用jquery都是每个组件引入import $ from 'jquery'这种方式需要在每个要使用jquery的组件里面引入一下,比较麻烦,分享一下全局引入的方法1.下载jquerynpm install jquery2.vue.config.js中webpack配置configureWebpack添加jquery插件vuecli3中修改webpack配置...

#jquery
SpringBoot spring-boot-maven-plugin 打包为可执行Jar方法。(已验证)

之前写的打包方式有问题,自已第二次用用那个方法都没成功,所以不能坑别人- - ,重新写一下。先写方法,再说为什么。打包方式用的是spring-boot-maven-plugin插件打包。<plugins><plugin><groupId>org.springframework.boot</groupId><artifactId>sprin

#maven#jar#java +1
数据可视化-Seaborn画图原来这么好看

matplotlib是python最常见的绘图包,强大之处不言而喻。然而在数据科学领域,可视化库-Seaborn也是重量级的存在。由于matplotlib比较底层,想要绘制漂亮的图非常麻烦,需要写大量的代码。Seaborn是在matplotlib基础上进行了高级API封装,图表装饰更加容易,你可以用更少的代码做出更美观的图。同时,Seaborn高度兼容了numy、pandas、scipy等...

使用URLConnection爬取评论

本文将示例如何使用 SpiderHttpUtils 来爬取某知名*猫平台的评论信息。以 https://detail.tmall.com/item.htm?id=18539499729 宝贝为例,使用Fiddler抓包工具获取到它的评论请求地址如下,其中的 currentPage 参数即为被爬取的评论的页码。pom.xml 文件中引入依赖包:<parent>...

#爬虫
    共 123 条
  • 1
  • 2
  • 3
  • 13
  • 请选择