应用Python来援救姑妈买房!Python“买”房比他要好买便宜二100000

2.二.三 布拉迪斯拉发房源数据模型

图片 1

 

有的是时候买房是个机会,不管刚需依然投资都以,蒙受合适的即将坚决的攻克才不至于懊悔。希望种种人都能正确过。

二.二.九 深圳房子内部指数量化雷达图模型

布拉迪斯拉发房子雷达图分析,程序首先会爬取到海量柏林(Berlin)待售的房产消息,等级差=(最高值-最低值)/十的主意把均价,实际使用率,梯户比例,楼层,楼间距等指标划分拾等分,然后用户输入本人向往的房子,程序将总括改房子的指标在海量房产中的雷达地点,辅助用户快速精晓心仪房产的参数配置。效果图如下:

图片 2

 

#雷达图显示房屋关注指标def drawRadarMap(chartName, arrLables, arrData, labelNum):
 #数据校验
 if labelNum < 0 or labelNum >10: return -1
 if len(arrLables) != labelNum or len(arrData) != labelNum: return -2
 #=======自己设置开始============
 #标签
 labels = np.array(arrLables) #数据
 data = np.array(arrData) #========自己设置结束============
 angles = np.linspace(0, 2*np.pi, labelNum, endpoint=False)
 data = np.concatenate((data, [data[0]])) # 闭合
 angles = np.concatenate((angles, [angles[0]])) # 闭合
 fig = plt.figure()
 ax = fig.add_subplot(111, polar=True) # polar参数!!
 ax.plot(angles, data, 'bo-', linewidth=2) # 画线
 ax.fill(angles, data, facecolor='r', alpha=0.25)# 填充
 ax.set_thetagrids(angles * 180/np.pi, labels, fontproperties="SimHei")
 ax.set_title(chartName, va='bottom', fontproperties="SimHei")
 ax.set_rlim(0,10)
 ax.grid(True)
 plt.show()

新生就直接据书上说A先生跟老婆随处去看房屋了,贵的买不起,便宜的看不上。就像此一边消极着1边看着。

二.2.1 布Rees班购房词云分析

依照链家爬取样319九条待售房源,买卖贰手房产大家最关系的参数指标词云图。如图所示大家最关怀的满伍牛,户型方正等。在购房的的时候我们得以按此词云图详细明白各种要求大家关切的参数目标,心有成竹。

图片 3

 

#词云图def drawWordCloud(fileName):

d = path.dirname(__file__) # Read the whole text.

text = open(path.join(d, fileName), encoding=’utf-8′).read() # Generate
a word cloud image 中文必须钦命地点粤语编码

wordcloud = WordCloud(font_path=”C:WindowsFontssimsun.ttc”, width=2400,
height=1800).generate(text) # Display the generated image:

plt.imshow(wordcloud)

plt.axis(“off”) # lower max_font_size

wordcloud = WordCloud(max_font_size=40).generate(text)

plt.figure()

plt.imshow(wordcloud)

plt.axis(“off”)

plt.show()

后来买房的时候只有二个人来了,没有错A太太没来,说是不想来听大家忽悠。选房的时候B先生当然更看好一个楼层更加高的户型的,但思虑到房价跟爱妻一商量就决定只怕选低几层的同三个户型。后来五人舒心的就交了钱把房定下来了。多人全程有商有量的令人11分羡慕,一贯讲的互助大概正是其一长相吧。而A先生则在边上好窝心。

2.贰.四 布拉迪斯拉发房源均价热力模型

如图展现布里斯班日内瓦房源均价热力模型。//TODO 待分析

图片 4

 

A先生最早来楼盘看的房屋,本地人首套房刚需客户。楼盘属于刚(Yu-Gang)开发的区域相近的配套不是那么完美,但价格是全体区域最便利的,再者学校跟医院菜商场那一个宗旨的生活配套依旧有,且离的挺近的。刚好当时的购房政策能够首付两成,所以任何都正好好。A先生载歌载舞的说回家跟老伴说,等开盘就来定房。

二.二.8 尼科西亚房源成交量和成交价Pearson全面

//TODO
总括Pearson周全,鲜明量价比关系,确认布拉迪斯拉发房源当前情景和预测接下去或然的景况(有价有市,有市无价,有价无市),判断当前是否改上车。

还有对客户有过之而无不如,也是士人先来看的屋宇,觉得各方面都恰到好处就控制要买,第叁带太太过来看,可那太太挑3拣4的正是不愿意买房,动不动还扯出以前生活中的争辩来说,搞的三人在售楼部就吵起来了,前边丢下一句不买了就回来了。过了三个星期三人又来了,说要买可是那时他俩看的那套从未了,有其他楼层相同的户型的实在也如出一辙,太太正是并非还非说是尘埃落定了跟他没缘,有钱还怕买不到房子就走了。后来据书上说照旧回家里盖了栋房屋。

二.二.陆 麦纳麦房源成交量热力模型

//TODO


2.二.7 麦纳麦房源成交量热力模型

过了2个多星期A先生再一次复苏售楼部,此次除开带了太太外还带了情侣B先生跟老伴。在摸底项指标主干景况的时候,B先生跟爱妻时不时的会用家长途电话聊几句,基本都以切磋地点合不对劲,他们的钱够不够付首付,小孩上学是或不是方便人民群众类似的题材。A先生因为后面来过比较通晓景况,有时候也会给她两介绍下。两家估量平日的关联都挺好的,后来坐下来聊的挺欢的,从老家的屋宇到昨日的娃上学的事都聊了个遍,后来说到买房的事,一向没怎么说话的A太太终于打开了话匣子:“大家家老A平素就不是有钱的命,从成婚到近日怎样不是靠的大家协调啊,这些你们也通晓家里根本靠不上。未来收看我们都到城里来买房了就也眼红了,那天回去就跟本身说哪哪的屋宇多少钱一平,要不大家也买到壹套来,反正自身是认为今后买不可信,家里还两幼儿正要开支的时候,二〇一七年大的就要上高级中学了,那手里不能够没点钱吧。而且这房子这么长年累月了哪有老是涨的道理啊,哪有那么三人要买房子的,还不是被她们炒起来的。”A先生刚想出口太太一个白眼瞪过来也不吱声了,临走的时候B太太主动加了本人的微信跟要了联系情势说是再次来到顾起有如何不懂的再来问我。

1、Python基础

Python是一种面向对象、解释型自由语言,语法简洁清晰、基础代码库丰富,覆盖网络、文件、GUI、数据库、文本等世界。并能和别的主流语言沟通协理制作。Python首要分为Cpython、Jpython、IronPython、PyPy等。解释型语言可移植行好,不过运转速度未有编写翻译型语言,其次解释型语言源码无法像编写翻译型那样编写翻译成贰进制串加密。

图片 5

 

洋洋时候大家都觉着有个别失去是因为及时的原则分歧意大概是外因的烦扰,但深究下去就会发觉装有的结果都以根源大家内心深处的选用。失去与收获都以决定的。

2.贰数码解析 //TODO

大数据时期的网络爬虫爬取到有效信息,必要通过再3清洗、加工、计算、分析、建立模型等拍卖措施。数据解析是组成有效消息并详尽研讨和归纳形成定论的长河。在实用中,数据解析可协助人们作出判断,以便利用适度行动。

距离B先生买房四个月后,有一天A士人突然跟本人联络,问楼盘是不是有房子了,带太太过来看,因为内人终于允许买房了。作者很惋惜的告诉A先生前日的首付款比例上调了一成而且那期的房价在上期的根底上上升了,要买真的要抓紧了。后来A太太就平素觉得温馨吃亏了,要多花钱买同3个小区的屋宇,遂作罢。

1.1.2 Linux

设置Python三.x.x,通过pip安装须求的第一方库。

二.2.贰 深圳房源维度分析

布Rees班房源按多维度剖析成交量/成交价趋势和Pearson周到分析;放盘量和反叛价分析;房源内部参数(如二.一.一)量化分析,房源外部参数量化分析等艺术。最后解释我们购房时相比关怀难题如怎么买的向往的好房,曾几何时是买房最佳的时机等。

图片 6

 

贰.贰.伍 卡拉奇房源均价涨速热力模型

//TODO
分明涨速最快,最具投资价值的区域,数据来源于官网尼科西亚房土地资金财产新闻种类:http://ris.szpl.gov.cn/default.aspx

二.一.二 Python教您买房框架

Python教您买房框架,首要分为伍块,分别为主程序模块、代理IP模块、地图服务模块、可视化服务模块、目的页面模块等。主程序为第三运行代理IP模块,抓取带来IP并透过测试可用代理IP存入到代理池,定时线程定时清洗带来并把无效的拉动IP剔除出代理池,代理IP模块并提供外部API获取代理IP。主程序通过代理服务走访并抓取外部网页的有效消息并在主程序模块通晓习HTML并写入到当和姑件。主程序会调用地图服务赢得经纬度新闻,并绘制热力图等。同时间可视化模块定时读取文件并转移可视化图形报表供业务侧分析应用。

图片 7

 

一、主服务模块

主程块通过Api提供给前端用户登录和取得用户交互输入,通过参数解析获取获得用户的要求组装请求,获取代理IP转载呼吁到指标地点获取指标数据,重临数据通过html解析得到实惠数据写入到文件地图服务和可视化服务生产本身的图片报表,辅佐得出Python教您买房的多少支撑。

二、IP代理服务模块

#!/usr/bin/env python3# -*- coding: utf-8 -*-# function:定时抓取免费代理IP,并检查可用性,可用proxy存入数据库供业务方调用获取# Author:elideng# date: 2017-11-11import requestsfrom bs4 import BeautifulSoupimport tracebackimport pymysqlimport threadingimport time'''
*@Function【爬取IpProxy】
*@Request: 请求 [in]
* param1 int iReqGetNum: 请求获取代理量
*@Response:响应 [out]
* param1 int iFinalGetNum: 最终获取代理量
*@Return:返回值 int : 0(成功) 其它失败
'''def GrabIpProxy():
 arrIpList = []
 User_Agent = 'Mozilla/5.0 (Windows NT 6.3; WOW64; rv:43.0) Gecko/20100101 Firefox/43.0'
 header = {}
 header['User-Agent'] = User_Agent #url = 'http://www.xicidaili.com/nn/1'
 url = 'http://www.baidu.com'
 res = requests.get(url, headers=header) if res.status_code == 200:
 info = {}
 soup = BeautifulSoup(res.text, 'lxml')
 ips = soup.findAll('tr') for x in range(1, len(ips)):
 ip = ips[x]
 tds = ip.findAll("td")
 ip_port = tds[1].contents[0] + ":" + tds[2].contents[0]
 arrIpList.append(ip_port) #后续加上代理可用校验,非可用踢出代理池
 #print(ip_port)
 #计算列表量
 return arrIpList'''
*@Function【测试ipProxy是否可用】
*@Request: 请求 [in]
* param1 String desUrl: 测试目的地址
* param2 String ipProxy:代理IP端口
* param3 int iTimeout:超时时间
* param4 String feature:目的地址特征
*@Response:响应 [out]
* param1 int iFinalGetNum: 最终获取代理量
*@Return:返回值 :成功返回代理Proxy 失败返回空
'''def checkProxyIP(desUrl, ipProxy, iTimeout=3, feature=""): #确认带来iPaddress 2秒内能否
 #desUrl = 'http://www.baidu.com'
 header = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.3; WOW64; rv:43.0) Gecko/20100101 Firefox/43.0'}
 proxies = {'http': 'http://' + ipProxy} #组装代理
 res = None # 声明
 exMsg = None
 try: #res = requests.get(url=desUrl, headers=header, proxies=proxies, timeout=iTimeout)
 res = requests.get(desUrl, proxies=proxies, timeout=iTimeout) # 代理方式请求,防止反爬虫
 soup = BeautifulSoup(res.text, 'lxml') #feature=""
 #print(soup.findAll(feature))
 except:
 exMsg = '* ' + traceback.format_exc() if exMsg: return -1
 if res.status_code != 200: return -1
 if res.text.find(feature) < 0: return -1
 return 0#更新代理池IPdef updateProxy(ipProxy, vaildFlag="N"):
 smysql = pymysql.connect(host='127.0.0.1', user='root', passwd='elideng', db='test')
 cursor = smysql.cursor() try:
 cursor.execute('update t_proxy set FvaildFlag="%s" where Fproxy="%s" limit 1' % (ipProxy, vaildFlag))
 smysql.commit() #提交执行
 except:
 smysql.rollback()
 smysql.close() return 0#新增代理池IPdef insertProxy(ipProxy, vaildFlag="Y"):
 smysql = pymysql.connect(host='127.0.0.1', user='root', passwd='elideng', db='test')
 cursor = smysql.cursor() try:
 cursor.execute('insert into t_proxy values("%s", "%s", now(), now())' % (ipProxy, vaildFlag))
 smysql.commit() #提交执行
 except:
 smysql.rollback()
 smysql.close() return 0#获取Proxydef getProxy(proxyNum):
 smysql = pymysql.connect(host='127.0.0.1', user='root', passwd='elideng', db='test')
 cursor = smysql.cursor()
 proxyList=[] try: if proxyNum == -1:
 cursor.execute('select Fproxy from t_proxy where FvaildFlag='Y'') else:
 cursor.execute('select Fproxy from t_proxy where FvaildFlag='Y' limit %s' % (proxyNum))
 results = cursor.fetchall() for row in results:
 proxyList.append(row[0]) except: # Rollback in case there is any error
 smysql.rollback()
 smysql.close() return proxyListdef CheckIpProxyTimer():
 arrIpList = []
 arrIpList = getProxy(-1) #获取代理池全量有效代理IP
 #测试地址
 #feature = 'xxx' #目标网页的特征码, 暂时不启用
 desUrl = "http://www.baidu.com"
 for ipProxy in arrIpList:
 iRes = checkProxyIP(desUrl, ipProxy) if iRes: #Proxy验证通过
 setProxy(ipProxy, "Y") else:
 setProxy(ipProxy, "N") #失效无效代理if __name__ == '__main__': #0、爬取免费代理IP
 GrabIpProxy() #1、启动定时线程,定时测试并清洗数据库代理IP
 timer = threading.Timer(3600, CheckIpProxyTimer)
 timer.start() #2、设置定时器失效时间
 time.sleep(5)
 timer.cancel() #5秒后停止定时器,程序可一直执行

三、地图服务模块

#!/usr/bin/env python3# -*- coding: utf-8 -*-# Author:elideng# date: 2017-11-08from urllib.request import urlopen, quoteimport jsonfrom bs4 import BeautifulSoupimport os#根据地址获取经纬度def getlnglat(address):
 url = 'http://api.map.baidu.com/geocoder/v2/'
 output = 'json'
 ak = 'ATzU2rqfrFoQcImvG9mvGm9bxchxjLYL'
 add = quote(address) #由于本文地址变量为中文,为防止乱码,先用quote进行编码
 uri = url + '?' + 'address=' + add + '&output=' + output + '&ak=' + ak
 req = urlopen(uri)
 res = req.read().decode()
 temp = json.loads(res)
 lat=0
 lng=0
 if 0 == temp['status']:
 lat=temp['result']['location']['lat']
 lng=temp['result']['location']['lng'] return lat,lng#根据两个经纬度计算距离def getPlaceDistance():
 return 0#根据两个地点计算各类交通时间def getPlaceTime():
 return 0def drawHeatChart(date):
 file = open("data.js", "a+") #data.js
 file.seek(3) # 定位到第0行
 file.writelines(date) #写入源数据到热力图源文件
 file.close() return 0if __name__ == '__main__':
 HeatChartSrcFile = input('输入热力图源文件:') #data.js
 drawHeatChart(HeatChartSrcFile)

<!DOCTYPE html><html><head>
 <meta http-equiv="Content-Type" content="text/html; charset=utf-8" />
 <meta name="viewport" content="initial-scale=1.0, user-scalable=no" />
 <script
 src="https://code.jquery.com/jquery-3.2.1.min.js"
 integrity="sha256-hwg4gsxgFZhOsEEamdOYGBf13FyQuiTwlAQgxVSNgt4="
 crossorigin="anonymous"></script>
 <script type="text/javascript" src="http://api.map.baidu.com/api?v=2.0&ak=DD279b2a90afdf0ae7a3796787a0742e"></script>
 <script type="text/javascript" src="http://api.map.baidu.com/library/Heatmap/2.0/src/Heatmap_min.js"></script>
 <script type="text/javascript" src="./data.js"></script>
 <title>热力图功能示例</title>
 <style type="text/css">  ul,li{list-style: none;margin:0;padding:0;float:left;}  html{height:100%}  body{height:100%;margin:0px;padding:0px;font-family:"微软雅黑";}  #container{height:500px;width:100%;}  #r-result{width:100%;} </style></head><body>
 <div id="container"></div>
 <div id="r-result">
  <input type="button" onclick="openHeatmap();" value="显示热力图"/><input type="button" onclick="closeHeatmap();" value="关闭热力图"/>
 </div></body><script type="text/javascript">
 var map = new BMap.Map("container"); // 创建地图实例
 var point = new BMap.Point(114.061087, 22.528578); //自定义地图中点
 map.centerAndZoom(point, 12); // 初始化地图,设置中心点坐标和地图级别
 map.enableScrollWheelZoom(); // 允许滚轮缩放
 if(!isSupportCanvas()){
  alert('热力图目前只支持有canvas支持的浏览器,您所使用的浏览器不能使用热力图功能~')
 }
 heatmapOverlay = new BMapLib.HeatmapOverlay({"radius":20});
 map.addOverlay(heatmapOverlay); var param = {data:window.points,max:100}; //读取data.js热力源数据并生成热力图
 console.log(param);
 heatmapOverlay.setDataSet(param); //是否显示热力图
 function openHeatmap(){
 heatmapOverlay.show();
 } function closeHeatmap(){
 heatmapOverlay.hide();
 setTimeout(function(){
 location.reload();
 }, 10000)
 }
 closeHeatmap(); function setGradient(){  var gradient = {};  var colors = document.querySelectorAll("input[type='color']");
  colors = [].slice.call(colors,0);
  colors.forEach(function(ele){
   gradient[ele.getAttribute("data-key")] = ele.value;
  });
 heatmapOverlay.setOptions({"gradient":gradient});
 } //判断浏览区是否支持canvas
 function isSupportCanvas(){ var elem = document.createElement('canvas'); return !!(elem.getContext && elem.getContext('2d'));
 }</script></html>

四、可视化模块

#!/usr/bin/env python3# -*- coding: utf-8 -*-# function:可视化服务# Author:elideng# date: 2017-11-05import pandas as pdimport numpy as npimport matplotlib.pyplot as pltimport plotlyimport plotly.plotly as pyimport plotly.graph_objs as go
plotly.tools.set_credentials_file(username='elideng', api_key='tsc3809760')#雷达图显示房屋关注指标def drawRadarMap(chartName, arrLables, arrData, labelNum):
 #数据校验
 if labelNum < 0 or labelNum >10: return -1
 if len(arrLables) != labelNum or len(arrData) != labelNum: return -2
 #=======自己设置开始============
 #标签
 labels = np.array(arrLables) #数据
 data = np.array(arrData) #========自己设置结束============
 angles = np.linspace(0, 2*np.pi, labelNum, endpoint=False)
 data = np.concatenate((data, [data[0]])) # 闭合
 angles = np.concatenate((angles, [angles[0]])) # 闭合
 fig = plt.figure()
 ax = fig.add_subplot(111, polar=True) # polar参数!!
 ax.plot(angles, data, 'bo-', linewidth=2) # 画线
 ax.fill(angles, data, facecolor='r', alpha=0.25)# 填充
 ax.set_thetagrids(angles * 180/np.pi, labels, fontproperties="SimHei")
 ax.set_title(chartName, va='bottom', fontproperties="SimHei")
 ax.set_rlim(0,10)
 ax.grid(True)
 plt.show()#皮尔逊作图def drawPearson():
 return 0

2.一.壹 Python教你买房维度目标体系

Python教您买房首先大家要求规定大家购房时最关怀的维度种类和指标连串。关切重点维度和主要性目的类别如图所示:

图片 8

 

Python教您买房,分为数据爬虫和大数量解析。首先通过爬虫方式赢得到阿布扎比房产交易网成功交易量和交易价格并搜查缉获蒙特利尔房价的自由化,得到最合适的购房时间段,确认最棒的上车时间。然后爬取链家网数据并按用户关怀维度深度解析帅选得出适宜的屋宇,做好一切上车的准备。

图片 9

 

1.2 Python库

Python为开发者提供丰裕代码库,开发者从不会从零起首开发,基础效能基本已经有现成的老道的框架或库援助,因而小幅的升官开发者的开发效用和拉长代码健壮性。

图片 10

 

Python很容易学!小编有弄3个沟通,互问互答,能源共享的调换学习集散地,假若你也是Python的学人只怕大腕都欢迎您来!㪊:54捌+37七+875!一起
学习共同升高!

图片 11

 

布Rees班房价飞涨,但也阻碍不住祖国内地人民来阿布扎比买房的欲望。卡拉奇房价动辄几百万,程序猿那种动物想在蒙得维的亚莱芜久安压力山大。所以买房必然是人生1最首要决定,必须货比3家。当前各样房产中介,各个开发商,种种楼盘。音信多到我们无能为力左右。因而程序猿就供给选拔标准的优势通过一些措施得到实惠数据,分析筛选最精良的房源。

2.二.10 柏林房屋外部指数量化雷达图模型

//TODO 量化外部目标参数(学位,大巴距离,公共交通具体,公园分布,商圈等)

因而,还不会Python的,想买房的,飞速来上学了!限时抢购哦!

贰.壹.三 Python教您买房连串

一、网页观望

率先鲜明爬取链家网阿布扎比房源,分明开场馆址http://sz.lianjia.com。通过上一页和下一页完整的URL比较组装符合筛选条件的房源链接。通过chrom的开发者工具的network,并把preserve
log勾选,清空Filter后刷新网页,旁观网页html代码。

二、网页爬取

透过Python三的requests库提供的HTTP请求Get/Post通用方法模拟浏览器请求生成全部符合规则的UQashqaiL放入到行列,并循环请求符合必要的房源消息。请求响应html通过BeautifulSoup解析html,并由此find_all合作正则表达式提取到html有效数据并写入到文件待分析。

3、多线程

爬虫最后目的正是爬取到越来越多符合用户要求的数量,假诺单线程执行,抓取功能有限,因而爬虫要求添加多线程机制。二10三十二线程的兑现情势有七种,如thread,threading,multithreading,当中thread偏底层,threading对thread进行了迟早打包。Python达成多线程的不二秘籍有二种函数或类包装。

 #多线程方式
 for i in generate_allurl(user_in_nub, user_in_city): #获取某城市
 print(i) for url in get_allurl(i):
 my_thread = threading.Thread(target=main, args=(url, arrIPList))
 my_thread.start() print(url)
 my_thread.join() print("current has %d threads" % (threading.activeCount() - 1)) #当前存活线程
 #线程池方式
 pool.map(main, [url for url in get_allurl(i)])

4、Headers设置

为回避反爬虫策略,后端请求须求效法用户平时用户从浏览器请求,由此须求添加请求头。设置方法如下:

header = {'Accept': '*/*', 'Accept-Language': 'en-US,en;q=0.8', 'Cache-Control': 'max-age=0', 'User-Agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/48.0.2564.116 Safari/537.36', 'Connection': 'keep-alive', 'Referer': 'http://www.baidu.com/'}
res = requests.get(url, headers=header)

5、Session设置

6、IP代理池

爬虫出现就出生了反爬虫,反爬虫的产出就催生了反反爬虫,翻译家黑格尔说过存在正是理所当然。因而不少技巧就是在伯仲之间中渐渐成长。链家网是有反爬虫IP封锁机制,为了预防反爬虫链接网限制爬取到越来越多多少样本协助与分析。因而使用IP代理池的点子,每一回请求都随意获得IP和端口访问外部网址。获取IP代理池的秘籍有付费的和免费的章程可自行网上抓取并分析。

proxies={"http":"http://10.14.36.109:8080"}res = requests.get(url, headers=header, proxies=proxies)

7、监控

爬虫抓取是二个耗费时间较长的工程,由此要求添加监察和控制,定时报告抓取进程到业务方,确认整个爬虫程序是还是不是健康执行。//TODO

发表评论

电子邮件地址不会被公开。 必填项已用*标注

网站地图xml地图