国产99久久精品_欧美日本韩国一区二区_激情小说综合网_欧美一级二级视频_午夜av电影_日本久久精品视频

最新文章專題視頻專題問答1問答10問答100問答1000問答2000關鍵字專題1關鍵字專題50關鍵字專題500關鍵字專題1500TAG最新視頻文章推薦1 推薦3 推薦5 推薦7 推薦9 推薦11 推薦13 推薦15 推薦17 推薦19 推薦21 推薦23 推薦25 推薦27 推薦29 推薦31 推薦33 推薦35 推薦37視頻文章20視頻文章30視頻文章40視頻文章50視頻文章60 視頻文章70視頻文章80視頻文章90視頻文章100視頻文章120視頻文章140 視頻2關鍵字專題關鍵字專題tag2tag3文章專題文章專題2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章專題3
問答文章1 問答文章501 問答文章1001 問答文章1501 問答文章2001 問答文章2501 問答文章3001 問答文章3501 問答文章4001 問答文章4501 問答文章5001 問答文章5501 問答文章6001 問答文章6501 問答文章7001 問答文章7501 問答文章8001 問答文章8501 問答文章9001 問答文章9501
當前位置: 首頁 - 科技 - 知識百科 - 正文

python爬取安居客二手房網站數據方法分享

來源:懂視網 責編:小OO 時間:2020-11-27 14:13:17
文檔

python爬取安居客二手房網站數據方法分享

現在開始正式進行爬蟲書寫首先,需要分析一下要爬取的網站的結構:作為一名河南的學生,那就看看鄭州的二手房信息吧。在上面這個頁面中,可以看到一條條的房源信息,由上可以看到網頁一條條的房源信息,點擊進去后就會發現。房源的詳細信息。OK。那么我們要干嘛呢,就是把鄭州這個地區的二手房房源信息都能拿到手,可以保存到數據庫中,用來干嘛呢,作為一個地理人,還是有點用處的,這次就不說了好,正式開始,首先我采用python3.6 中的requests,BeautifulSoup模塊來進行爬取頁面,首先由requests模塊進行請求。
推薦度:
導讀現在開始正式進行爬蟲書寫首先,需要分析一下要爬取的網站的結構:作為一名河南的學生,那就看看鄭州的二手房信息吧。在上面這個頁面中,可以看到一條條的房源信息,由上可以看到網頁一條條的房源信息,點擊進去后就會發現。房源的詳細信息。OK。那么我們要干嘛呢,就是把鄭州這個地區的二手房房源信息都能拿到手,可以保存到數據庫中,用來干嘛呢,作為一個地理人,還是有點用處的,這次就不說了好,正式開始,首先我采用python3.6 中的requests,BeautifulSoup模塊來進行爬取頁面,首先由requests模塊進行請求。
本文主要為大家帶來一篇python爬取安居客二手房網站數據(實例講解)。小編覺得挺不錯的,現在就分享給大家,也給大家做個參考。一起跟隨小編過來看看吧,希望能幫助到大家。

現在開始正式進行爬蟲書寫首先,需要分析一下要爬取的網站的結構:作為一名河南的學生,那就看看鄭州的二手房信息吧!

在上面這個頁面中,我們可以看到一條條的房源信息,由上可以看到網頁一條條的房源信息,點擊進去后就會發現:

房源的詳細信息。OK!那么我們要干嘛呢,就是把鄭州這個地區的二手房房源信息都能拿到手,可以保存到數據庫中,用來干嘛呢,作為一個地理人,還是有點用處的,這次就不說了好,正式開始,首先我采用python3.6 中的requests,BeautifulSoup模塊來進行爬取頁面,首先由requests模塊進行請求:

# 網頁的請求頭
header = {
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.113 Safari/537.36'
}
# url鏈接
url = 'https://zhengzhou.anjuke.com/sale/'
response = requests.get(url, headers=header)
print(response.text)

執行后就會得到這個網站的html代碼了

通過分析可以得到每個房源都在class="list-item"的 li 標簽中,那么我們就可以根據BeautifulSoup包進行提取

# 通過BeautifulSoup進行解析出每個房源詳細列表并進行打印
soup = BeautifulSoup(response.text, 'html.parser')
result_li = soup.find_all('li', {'class': 'list-item'})
for i in result_li:
 print(i)

通過打印就能進一步減少了code量,好,繼續提取

# 通過BeautifulSoup進行解析出每個房源詳細列表并進行打印
soup = BeautifulSoup(response.text, 'html.parser')
result_li = soup.find_all('li', {'class': 'list-item'})
# 進行循環遍歷其中的房源詳細列表
for i in result_li:
 # 由于BeautifulSoup傳入的必須為字符串,所以進行轉換
 page_url = str(i)
 soup = BeautifulSoup(page_url, 'html.parser')
 # 由于通過class解析的為一個列表,所以只需要第一個參數
 result_href = soup.find_all('a', {'class': 'houseListTitle'})[0]
 print(result_href.attrs['href'])

這樣,我們就能看到一個個的url了,是不是很喜歡

好了,按正常的邏輯就要進入頁面開始分析詳細頁面了,但是爬取完后如何進行下一頁的爬取呢所以,我們就需要先分析該頁面是否有下一頁

同樣的方法就可以發現下一頁同樣是如此的簡單,那么咱們就可以還是按原來的配方原來的味道繼續

# 進行下一頁的爬取
result_next_page = soup.find_all('a', {'class': 'aNxt'})
if len(result_next_page) != 0:
 print(result_next_page[0].attrs['href'])
else:
 print('沒有下一頁了')

因為當存在下一頁的時候,網頁中就是一個a標簽,如果沒有的話,就會成為i標簽了,所以這樣的就行,因此,我們就能完善一下,將以上這些封裝為一個函數

import requests
from bs4 import BeautifulSoup

# 網頁的請求頭
header = {
 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.113 Safari/537.36'
}

def get_page(url):
 response = requests.get(url, headers=header)

 # 通過BeautifulSoup進行解析出每個房源詳細列表并進行打印
 soup = BeautifulSoup(response.text, 'html.parser')
 result_li = soup.find_all('li', {'class': 'list-item'})

 # 進行下一頁的爬取
 result_next_page = soup.find_all('a', {'class': 'aNxt'})
 if len(result_next_page) != 0:
 # 函數進行遞歸
 get_page(result_next_page[0].attrs['href'])
 else:
 print('沒有下一頁了')

 # 進行循環遍歷其中的房源詳細列表
 for i in result_li:
 # 由于BeautifulSoup傳入的必須為字符串,所以進行轉換
 page_url = str(i)
 soup = BeautifulSoup(page_url, 'html.parser')
 # 由于通過class解析的為一個列表,所以只需要第一個參數
 result_href = soup.find_all('a', {'class': 'houseListTitle'})[0]
 # 先不做分析,等一會進行詳細頁面函數完成后進行調用
 print(result_href.attrs['href'])


if __name__ == '__main__':
 # url鏈接
 url = 'https://zhengzhou.anjuke.com/sale/'
 # 頁面爬取函數調用
 get_page(url)

好了,那么咱們就開始詳細頁面的爬取了

哎,怎么動不動就要斷電了,大學的坑啊,先把結果附上,閑了在補充,

import requests
from bs4 import BeautifulSoup

# 網頁的請求頭
header = {
 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.113 Safari/537.36'
}

def get_page(url):
 response = requests.get(url, headers=header)

 # 通過BeautifulSoup進行解析出每個房源詳細列表并進行打印
 soup_idex = BeautifulSoup(response.text, 'html.parser')
 result_li = soup_idex.find_all('li', {'class': 'list-item'})

 # 進行循環遍歷其中的房源詳細列表
 for i in result_li:
 # 由于BeautifulSoup傳入的必須為字符串,所以進行轉換
 page_url = str(i)
 soup = BeautifulSoup(page_url, 'html.parser')
 # 由于通過class解析的為一個列表,所以只需要第一個參數
 result_href = soup.find_all('a', {'class': 'houseListTitle'})[0]
 # 詳細頁面的函數調用
 get_page_detail(result_href.attrs['href'])


 # 進行下一頁的爬取
 result_next_page = soup_idex.find_all('a', {'class': 'aNxt'})
 if len(result_next_page) != 0:
 # 函數進行遞歸
 get_page(result_next_page[0].attrs['href'])
 else:
 print('沒有下一頁了')

# 進行字符串中空格,換行,tab鍵的替換及刪除字符串兩邊的空格刪除
def my_strip(s):
 return str(s).replace(" ", "").replace("
", "").replace("	", "").strip()
# 由于頻繁進行BeautifulSoup的使用,封裝一下,很雞肋
def my_Beautifulsoup(response):
 return BeautifulSoup(str(response), 'html.parser')



# 詳細頁面的爬取
def get_page_detail(url):
 response = requests.get(url, headers=header)
 if response.status_code == 200:
 soup = BeautifulSoup(response.text, 'html.parser')
 # 標題什么的一大堆,哈哈
 result_title = soup.find_all('h3', {'class': 'long-title'})[0]
 result_price = soup.find_all('span', {'class': 'light info-tag'})[0]
 result_house_1 = soup.find_all('p', {'class': 'first-col detail-col'})
 result_house_2 = soup.find_all('p', {'class': 'second-col detail-col'})
 result_house_3 = soup.find_all('p', {'class': 'third-col detail-col'})
 soup_1 = my_Beautifulsoup(result_house_1)
 soup_2 = my_Beautifulsoup(result_house_2)
 soup_3 = my_Beautifulsoup(result_house_3)
 result_house_tar_1 = soup_1.find_all('dd')
 result_house_tar_2 = soup_2.find_all('dd')
 result_house_tar_3 = soup_3.find_all('dd')
 '''
 文博公寓,省實驗中學,首付只需70萬,大三房,誠心賣,價可談 270萬
 宇泰文博公寓 金水-花園路-文博東路4號 2010年 普通住宅
 3室2廳2衛 140平方米 南北 中層(共32層)
 精裝修 19285元/m? 81.00萬
 '''
 print(my_strip(result_title.text), my_strip(result_price.text))
 print(my_strip(result_house_tar_1[0].text),
 my_strip(my_Beautifulsoup(result_house_tar_1[1]).find_all('p')[0].text),
 my_strip(result_house_tar_1[2].text), my_strip(result_house_tar_1[3].text))
 print(my_strip(result_house_tar_2[0].text), my_strip(result_house_tar_2[1].text),
 my_strip(result_house_tar_2[2].text), my_strip(result_house_tar_2[3].text))
 print(my_strip(result_house_tar_3[0].text), my_strip(result_house_tar_3[1].text),
 my_strip(result_house_tar_3[2].text))

if __name__ == '__main__':
 # url鏈接
 url = 'https://zhengzhou.anjuke.com/sale/'
 # 頁面爬取函數調用
 get_page(url)

由于自己邊寫博客,邊寫的代碼,所以get_page函數中進行了一些改變,就是下一頁的遞歸調用需要放在函數后面,以及進行封裝了兩個函數沒有介紹,

而且數據存儲到mysql也沒有寫,所以后期會繼續跟進的,thank you!!!

聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。TEL:177 7030 7066 E-MAIL:11247931@qq.com

文檔

python爬取安居客二手房網站數據方法分享

現在開始正式進行爬蟲書寫首先,需要分析一下要爬取的網站的結構:作為一名河南的學生,那就看看鄭州的二手房信息吧。在上面這個頁面中,可以看到一條條的房源信息,由上可以看到網頁一條條的房源信息,點擊進去后就會發現。房源的詳細信息。OK。那么我們要干嘛呢,就是把鄭州這個地區的二手房房源信息都能拿到手,可以保存到數據庫中,用來干嘛呢,作為一個地理人,還是有點用處的,這次就不說了好,正式開始,首先我采用python3.6 中的requests,BeautifulSoup模塊來進行爬取頁面,首先由requests模塊進行請求。
推薦度:
標簽: 數據 二手房 python
  • 熱門焦點

最新推薦

猜你喜歡

熱門推薦

專題
Top
主站蜘蛛池模板: 国产夜夜操 | 日韩欧美在线观看 | 91视频一区二区 | 国产精品高清久久久久久久 | 91chinese在线 | 亚洲日韩图片专区第1页 | 国产日韩欧美中文 | 久久九九国产 | 五月天婷婷视频 | 国产精品免费观看 | 久久久久久综合成人精品 | 国产一区在线看 | 九九爱精品视频 | 激情欧美在线 | 国产成人久久777777 | 最新国产在线观看 | 国产精品资源在线播放 | 亚洲国产精品一区二区三区 | 欧美色人阁 | 日本一区二区三区免费观看 | 五十路亲子中出在线观看 | 天天做夜夜做久久做狠狠 | 欧美精品在线一区 | 欧美一区二区不卡视频 | 国产精品合集一区二区三区 | 日韩欧美视频 | 久久九九99 | 香蕉视频免费在线 | 国产成人综合久久精品红 | 91国内精品久久久久影院优播 | 99久久综合国产精品免费 | 国产不卡视频在线观看 | xxx欧美888 | 亚洲欧美国产精品第1页 | 欧美在线视频在线观看 | 在线国产毛片 | 国产精品久久久久久久久久久不卡 | 久久久久久91精品色婷婷 | 欧美日韩国产一区二区三区播放 | 国产精品久久毛片蜜月 | 精品欧美一区二区在线观看 |