logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

docker:ImportError: libcuda.so.1: cannot open shared object file: No such file or directory

docker中运行tensorflow出错:Traceback (most recent call last):File "run_classifier.py", line 24, in <module>import modelingFile "/home/work/adapter-bert/modeling.py", line 28, in &...

Linux下 对文件行数打乱(乱序排列)

  更新:2018-04-2713:25:25其实直接用shuf就行:trainname='_train'testname='_test'shufname='_shuf'path="/data/mt/haiouzhang/lang_all/clean/all_lang/all_clean_2/"for lang in ar bn km my ne tl ur hi kk he.

Python读写文件 中文正则匹配

读写文件 中文正则匹配 好麻烦 代码很短 错误调了很多#!/usr/bin/env python#encoding: utf-8import ref=open('10000.txt','r', encoding='UTF-8')f1=open('result.txt','w')for line in f.readlines():ss = line.split('||...

prolog使用一

找到的好看的prolog教程:http://fengdidi.github.io/blog/2011/11/15/qian-yan/  https://www.w3cschool.cn/pzuxsk/1624vozt.htmlhttp://www.cnblogs.com/magialmoon/p/3329647.htmlprolog和人工智能 拿到服务器密码,激动开始倒腾,...

Chinadaily双语新闻爬取

今天临时需要爬取一些双语资料(尚未清洗)需要充分利用下边代码是想拿到Chinadaily网页中每篇双语新闻的链接,首先研究这些网页的网址和网页结构,包括翻页一般是首页网址加上_2,_3...等等。所以以下代码只是拿到链接。#!/usr/bin/env python# -*- coding: utf-8 -*-"""File: bi_news.pyAuthor: Zha

nltk.download()

在自己电脑上安装python的nltk包之后,进入pythonimport nltknltk.download()然后选择下载所有,下载了四个多小时。。终于下载好了(显示:占用空间3.25 GB (3,495,780,352 字节))(之间几度以为他卡了,看了下载地址的文件包占用空间慢慢变大,知道他一直在下载而不是卡了,就一直等到他下载完) ...

到底了