‘壹’ 获取新浪微博里的相册图片可以在电脑上批量保存吗
这样的情况,当然可以,登录微博,然后把喜欢的图片保存到本地磁盘就可以的,可以批量下载保存的
‘贰’ 《一键搬图》软件可以批量下载微博相册的图片吗
我好几个 号用大仙一键搬图,不一会几千张相册都下载下来了。而且还是原图的。非常的快哈。
‘叁’ 可以批量抓取新浪微博相册图片吗
可以的啊,都是用(载图助手)去批量抓取相册的如图片能保留原图的像素,
‘肆’ 怎样用python爬新浪微博大V所有数据
我是个微博重度用户,工作学习之余喜欢刷刷timeline看看有什么新鲜事发生,也因此认识了不少高质量的原创大V,有分享技术资料的,比如好东西传送门;有时不时给你一点人生经验的,比如石康;有高产的段子手,比如银教授;有黄图黄段子小能手,比如阿良哥哥木木萝希木初犬饼…
好吧,我承认,爬黄图黄段子才是我的真实目的,前三个是掩人耳目的…(捂脸,跑开)
另外说点题外话,我一开始想使用Sina Weibo API来获取微博内容,但后来发现新浪微博的API限制实在太多,大家感受一下:
iTerm
小问题:在我的测试中,有的时候会出现图片下载失败的问题,具体原因还不是很清楚,可能是网速问题,因为我宿舍的网速实在太不稳定了,当然也有可能是别的问题,所以在程序根目录下面,我还生成了一个userid_imageurls的文本文件,里面存储了爬取的所有图片的下载链接,如果出现大片的图片下载失败,可以将该链接群一股脑导进迅雷等下载工具进行下载。
另外,我的系统是OSX EI Capitan10.11.2,Python的版本是2.7,依赖库用sudo pip install XXXX就可以安装,具体配置问题可以自行stackoverflow,这里就不展开讲了。
下面我就给出实现代码(严肃脸)
Python
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
#-*-coding:utf8-*-
import re
import string
import sys
import os
import urllib
import urllib2
from bs4 import BeautifulSoup
import requests
from lxml import etree
reload(sys)
sys.setdefaultencoding('utf-8')
if(len(sys.argv) >=2):
user_id = (int)(sys.argv[1])
else:
user_id = (int)(raw_input(u"请输入user_id: "))
cookie = {"Cookie": "#your cookie"}
url = 'd?filter=1&page=1'%user_id
html = requests.get(url, cookies = cookie).content
selector = etree.HTML(html)
pageNum = (int)(selector.xpath('//input[@name="mp"]')[0].attrib['value'])
result = ""
urllist_set = set()
word_count = 1
image_count = 1
print u'爬虫准备就绪...'
for page in range(1,pageNum+1):
#获取lxml页面
url = 'hu/%d?filter=1&page=%d'%(user_id,page)
lxml = requests.get(url, cookies = cookie).content
#文字爬取
selector = etree.HTML(lxml)
content = selector.xpath('//span[@class="ctt"]')
for each in content:
text = each.xpath('string(.)')
if word_count >= 4:
text = "%d :"%(word_count-3) +text+" "
else :
text = text+" "
result = result + text
word_count += 1
#图片爬取
soup = BeautifulSoup(lxml, "lxml")
urllist = soup.find_all('a',href=re.compile(r'^mblog/oripic',re.I))
first = 0
for imgurl in urllist:
urllist_set.add(requests.get(imgurl['href'], cookies = cookie).url)
image_count +=1
fo = open("/Users/Personals/%s"%user_id, "wb")
fo.write(result)
word_path=os.getcwd()+'/%d'%user_id
print u'文字微博爬取完毕'
link = ""
fo2 = open("/Users/Personals/%s_imageurls"%user_id, "wb")
for eachlink in urllist_set:
link = link + eachlink +" "
fo2.write(link)
print u'图片链接爬取完毕'
if not urllist_set:
print u'该页面中不存在图片'
else:
#下载图片,保存在当前目录的pythonimg文件夹下
image_path=os.getcwd()+'/weibo_image'
if os.path.exists(image_path) is False:
os.mkdir(image_path)
x=1
for imgurl in urllist_set:
temp= image_path + '/%s.jpg' % x
print u'正在下载第%s张图片' % x
try:
urllib.urlretrieve(urllib2.urlopen(imgurl).geturl(),temp)
except:
print u"该图片下载失败:%s"%imgurl
x+=1
print u'原创微博爬取完毕,共%d条,保存路径%s'%(word_count-4,word_path)
print u'微博图片爬取完毕,共%d张,保存路径%s'%(image_count-1,image_path)
‘伍’ 如何用python实现爬取微博相册所有图片
三种方案:
1.直接用Python的requests库直接爬取,不过这个需要手动做的事情就比较多了,基本上就看你的Python功力了
2.使用scrapy爬虫框架,这个框架如果不熟悉的话只能自己先去了解下这个框架怎么用
3.使用自动测试框架selemium模拟登录操作,及图片爬取,这个对于大多数会点Python编码的人来说是最好的选择了,他比较直观的能看到怎么去获取数据
每种方案的前提都是你必须有一定基础的编码能力才行,不是随便一个人就能用的
‘陆’ 有没有什么软件可以把微博的照片一次转到相册里的
点击你要删除的图片,进入之后,在图片的下方,有你发布这个图片时的时间,它显示为x月x日x时x分,鼠标移动上去可以直达你当时发布的这条微博。在【更多】里面选择删除就可以了。
步骤:点击微博相册进入--找到要删除的图片--点击图片发布日期--在【更多】里面选择删除。或者腾讯微薄的照片一般保存在空间相册里面的私密贴图相册,只要进入qq
空间,找到该相册,就能看到密发布的图片,点击删除,以前发布的微薄图片都可以删除了,微薄出会显示该图片已删除。第二:先关闭qq程序,在qq目录下找到wblog.dll文件,删除它,重新打开qq,微博就消失了。本人亲测,放心删吧〔〕。第三:点击qq面板左下方的系统设置(齿轮状按钮)--基本设置--常规,去掉
前的√。另外,建议你直接删除微薄内容。我尽力了,希望能够帮助你。
‘柒’ 缺个女朋友取什么id
要追女孩,首先需要个女孩,然而作为一名尽职尽责的程序员,加班才使你快乐,所以命里注定你没有搬个小马扎往大街上一坐看妹纸的闲情逸致。
那么如何去寻找另一半?坊间有云:外事问谷歌,内事问网络,房事问天涯。而且作为一名有逼格的程序员,广撒网多捞鱼的法子效率太低,一定要有的放矢。所以我们可以用Python编写个爬虫软件将网上美女的照片统统爬取下来呀。
第一步:获取这个网址的response,分页内容,解析后提取图集的地址。
第二步:获取这个网址的response,图集分页,解析后提取图片的下载地址。
第三步:下载图片(也就是获取二进制内容,然后在本地复刻一份)。
部分代码如下:
运行过程如下:
结果:
加载超时,点击重试
然后呢,将这些妹子的数据按星座、年龄、是否单身等进行过滤筛选,就可以在这群层层选拔后留下的精英妹子中找到你心目中的女神。
第三步
了解她的性格和爱好
兵法云,知己知彼百战不殆,于感情而言也一样适用。当我们确定了目标,就要了解她是一个怎样的人(适不适合追求)然后要了解她的兴趣和爱好,这一点很是重要,因为有共同话题是拉近男女关系的关键点。
那么问题来了,要如何去了解呢,总不能像猪哥一样腆着脸去问吧,那样人家不被吓跑也有了戒心,况且,这么low的法子怎么配得上我们高冷的程序员。
老子曾经曰过:这个世界上没有爬虫不能爬的数据。
所以,我们只需要用Python写一个网络爬虫,然后将她微信微博QQ空间的数据爬下来,进行数据统计分析就能够了解这一切啦。
(依旧不用担心侵权,因为这些数据本来就是可视,我们不过把它下载整合。)
简单介绍一下爬取微博数据的流程:
1、利用chrome浏览器,获取自己的cookie。
2、获取你要爬取的用户的微博User_id
3、将获得的两项内容填入到weibo.py中,替换代码中的YOUR_USER_ID和#YOUR_COOKIE,运行代码。
‘捌’ 微博照片批量下载到手机用什么软件
我是用固乔电商图片助手,复制相册链接,放到软件中。然后就可以批量下载到电脑上,然后发给手机就可以了。
‘玖’ 专门下载微博的视频和图片的软件
你去下载一个硕鼠,这个软件很好用,像56网,搜狐等等下载不需要下它们的客户端,直接在硕鼠里输入视频地址就可以下载了。
打开你要下载的微博视频,然后把它的地址栏的地址输入到硕鼠,就可以下载好了。
之后你会发现文件是BC文件,你把后缀.BC删掉,只保留mp4就行,大功告成。
文件会变成可观看的mp4文件