关于startService的基本使用概述及其生命周期可参见博客《Android中startService的使用及Service生命周期》。本文通过批量下载文件的简单示例,演示startService以及stopService(startId)的使用流程。系统界面如下:
界面很简单,就一个按钮“批量下载文章”,通过该Activity上的按钮启动DownloadService。DownloadSer...
分类:
移动开发 时间:
2015-08-27 00:25:29
阅读次数:
261
ftp -v -d -i -n -g [主机名] ,其中-v 显示远程服务器的所有响应信息;-n 限制ftp的自动登录,即不使用;.n etrc文件;-d 使用调试方式;-g 取消全局文件名。http://blog.itpub.net/20943428/viewspace-630467/1. 脚本实...
分类:
系统相关 时间:
2015-08-17 23:33:21
阅读次数:
172
1.脚本实例 将以下脚本保存为getftp.sh #!/bin/bashdatesign=`date-d-95day+%Y%m%d`ftp-nv12.2.2.28<<!FTPRUNuseruser01user01promptbincdTXTlcd/app/info/getftpmget${date....
分类:
系统相关 时间:
2015-08-17 21:14:20
阅读次数:
156
问题提出
几天前,我在上一篇博客中写了如何使用urllib2模块来批量下载wallheaven上的图片资源,但是在我几次运行下来之后发现了一个非常严重的问题,如果下载图片数量非常多的话,程序需要运行很长时间。所以显然这样不是一个很好的解决方法,所以后来我在程序中加入了多线程,程序性能提升了何止数倍,下面是具体的解决过程。
问题解决
从我上一边的博客中不难看出,第...
分类:
编程语言 时间:
2015-08-15 20:01:43
阅读次数:
161
导航条上面有批量删除(onclick="delall()")和批量下载(onclick="downall()")两个按钮第一种情况:表单里面没有提交按钮(submit)js里面写:delall(){document.form1.action="__APP__/Document/Collect...
分类:
其他好文 时间:
2015-08-14 09:54:21
阅读次数:
107
这要从很早以前说起,那个时候是刚开始玩Ubuntu,但是ubuntu的壁纸不太好看,所以我就想方设法找到很漂亮的壁纸来替换原先的,但是我又想让壁纸像幻灯片一样播放,但是ubuntu不像windows,没有这样的功能,所以只能上网找办法来解决,最后终于在ubuntu论坛看到了variety这个东东,这个东西用起来确实很酷,可以自己编辑图片源,但是它本身默认带了几个源,而恰好其中就有wallheave...
分类:
编程语言 时间:
2015-08-10 14:56:41
阅读次数:
2091
首先说明:这个代码不是免费下载视频,需要你有vip账号
只是方便大家批量下载
不过体验vip也很好获得,有了体验机会赶紧用这个批量下载吧
完整代码在这:我的github
只需要修改最下面的存储地址和需要下载的页面,就可以将一个页面中的课程的所有视频批量下载到指定文件夹主要是登陆网站这一块废了些时间,简要说一下登陆模块:首先必须有下面这一部分代码,意思是给urlopen()函数加上coo...
分类:
其他好文 时间:
2015-08-08 00:04:25
阅读次数:
130
前面十章爬虫笔记陆陆续续记录了一些简单的Python爬虫知识,用来解决简单的贴吧下载,绩点运算自然不在话下。不过要想批量下载大量的内容,比如知乎的所有的问答,那便显得游刃不有余了点。于是乎,爬虫框架Scrapy就这样出场了!Scrapy = Scrach+Python,Scrach这个单词是抓取的意...
分类:
其他好文 时间:
2015-08-07 07:02:47
阅读次数:
175
总体功能:下载百度贴吧网页的图片
这个例子延续了上一个抓取贴吧楼主发布内容的例子,上一个例子是把图片剔除掉了,这边重新做了一个下载图片的demo,比较简单。
代码:
# -*- encoding:utf-8 -*-
# 下载贴吧的图片
import re
import urllib
import urllib2
#下载百度贴吧图片类
class DownloadIm...
分类:
其他好文 时间:
2015-08-02 11:49:21
阅读次数:
213
使用Pythonfind函数和urllib下载图片。#!/usr/bin/envpython
importtime
importurllib
i=0
url=[‘‘]*10
name=[‘‘]*10
con=urllib.urlopen(‘http://www.ithome.com/html/bizhi/164396.htm‘).read()
src=con.find(r‘/newsuploadfiles‘)
end=con.find(r‘.jpg‘,src)
name[0]=con[sr..
分类:
编程语言 时间:
2015-07-30 23:39:28
阅读次数:
206