房价新走势?“限跌令”纷纷出台,及时获取房价变化
随着今年房价调控力度的加强,尤其是三道红线引发的紧信贷,使得房企的资金周转压力急剧增加,在一些三线和四线城市开始加大优惠折扣,昆明、岳阳、惠州、唐山等城市先后出台类似政策。这些城市面临去库存的压力,房价出现较强下行冲动,折射的是部分非热点三四线城市在强调控之下成交持续低迷。今后一段时间这种趋势会不会蔓延到其他热点三四线城市,甚至影响新一线城市的调控呢?可以通过爬取各地房价信息和成交量,随时关注房价新走势,观察楼市的周期变化。下面的程序只是完成信息的采集,可以完善数据分析作出趋势报表:
#! -*- encoding:utf-8 -*- import requests import random import requests.adapters # 要访问的目标页面 targetUrlList = [ "https://www.58.com/ershoufang/", "https://www.ke.com/ershoufang/", "https://www.anjuke.com/sale/?from=navigation", ] # 代理服务器(产品官网 www.16yun.cn) proxyHost = "t.16yun.cn" proxyPort = "31111" # 代理验证信息 proxyUser = "username" proxyPass = "password" proxyMeta = "http://%(user)s:%(pass)s@%(host)s:%(port)s" % { "host": proxyHost, "port": proxyPort, "user": proxyUser, "pass": proxyPass, } # 设置 http和https访问都是用HTTP代理 proxies = { "http": proxyMeta, "https": proxyMeta, } # 访问三次网站,使用相同的Session(keep-alive),均能够保持相同的外网IP s = requests.session() # 设置cookie # cookie_dict = {"JSESSION":"123456789"} # cookies = requests.utils.cookiejar_from_dict(cookie_dict, cookiejar=None, overwrite=True) # s.cookies = cookies for i in range(3): for url in targetUrlList: r = s.get(url, proxies=proxies) print r.text
房价新走势?“限跌令”纷纷出台,及时获取房价变化
laical
会员积分:2280
随着今年房价调控力度的加强,尤其是三道红线引发的紧信贷,使得房企的资金周转压力急剧增加,在一些三线和四线城市开始加大优惠折扣,昆明、岳阳、惠州、唐山等城市先后出台类似政策。这些城市面临去库存的压力,房价出现较强下行冲动,折射的是部分非热点三四线城市在强调控之下成交持续低迷。今后一段时间这种趋势会不会蔓延到其他热点三四线城市,甚至影响新一线城市的调控呢?可以通过爬取各地房价信息和成交量,随时关注房价新走势,观察楼市的周期变化。下面的程序只是完成信息的采集,可以完善数据分析作出趋势报表:
#! -*- encoding:utf-8 -*- import requests import random import requests.adapters # 要访问的目标页面 targetUrlList = [ "https://www.58.com/ershoufang/", "https://www.ke.com/ershoufang/", "https://www.anjuke.com/sale/?from=navigation", ] # 代理服务器(产品官网 www.16yun.cn) proxyHost = "t.16yun.cn" proxyPort = "31111" # 代理验证信息 proxyUser = "username" proxyPass = "password" proxyMeta = "http://%(user)s:%(pass)s@%(host)s:%(port)s" % { "host": proxyHost, "port": proxyPort, "user": proxyUser, "pass": proxyPass, } # 设置 http和https访问都是用HTTP代理 proxies = { "http": proxyMeta, "https": proxyMeta, } # 访问三次网站,使用相同的Session(keep-alive),均能够保持相同的外网IP s = requests.session() # 设置cookie # cookie_dict = {"JSESSION":"123456789"} # cookies = requests.utils.cookiejar_from_dict(cookie_dict, cookiejar=None, overwrite=True) # s.cookies = cookies for i in range(3): for url in targetUrlList: r = s.get(url, proxies=proxies) print r.text
21-09-10 14:59
1106
0
回复
暂无评论