国产99久久精品_欧美日本韩国一区二区_激情小说综合网_欧美一级二级视频_午夜av电影_日本久久精品视频

最新文章專題視頻專題問答1問答10問答100問答1000問答2000關鍵字專題1關鍵字專題50關鍵字專題500關鍵字專題1500TAG最新視頻文章推薦1 推薦3 推薦5 推薦7 推薦9 推薦11 推薦13 推薦15 推薦17 推薦19 推薦21 推薦23 推薦25 推薦27 推薦29 推薦31 推薦33 推薦35 推薦37視頻文章20視頻文章30視頻文章40視頻文章50視頻文章60 視頻文章70視頻文章80視頻文章90視頻文章100視頻文章120視頻文章140 視頻2關鍵字專題關鍵字專題tag2tag3文章專題文章專題2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章專題3
問答文章1 問答文章501 問答文章1001 問答文章1501 問答文章2001 問答文章2501 問答文章3001 問答文章3501 問答文章4001 問答文章4501 問答文章5001 問答文章5501 問答文章6001 問答文章6501 問答文章7001 問答文章7501 問答文章8001 問答文章8501 問答文章9001 問答文章9501
當前位置: 首頁 - 科技 - 知識百科 - 正文

Node.js+jade+mongodb+mongoose實現爬蟲分離入庫與生成靜態文件的方法

來源:懂視網 責編:小采 時間:2020-11-27 22:29:17
文檔

Node.js+jade+mongodb+mongoose實現爬蟲分離入庫與生成靜態文件的方法

Node.js+jade+mongodb+mongoose實現爬蟲分離入庫與生成靜態文件的方法:接著這篇文章Node.js+jade抓取博客所有文章生成靜態html文件的實例繼續,在這篇文章中實現了采集與靜態文件的生成,在實際的采集項目中, 應該是先入庫再選擇性的生成靜態文件。 那么我選擇的數據庫是mongodb,為什么用這個數據庫,因為這個數據庫是基于集合,
推薦度:
導讀Node.js+jade+mongodb+mongoose實現爬蟲分離入庫與生成靜態文件的方法:接著這篇文章Node.js+jade抓取博客所有文章生成靜態html文件的實例繼續,在這篇文章中實現了采集與靜態文件的生成,在實際的采集項目中, 應該是先入庫再選擇性的生成靜態文件。 那么我選擇的數據庫是mongodb,為什么用這個數據庫,因為這個數據庫是基于集合,

接著這篇文章Node.js+jade抓取博客所有文章生成靜態html文件的實例繼續,在這篇文章中實現了采集與靜態文件的生成,在實際的采集項目中, 應該是先入庫再選擇性的生成靜態文件。

那么我選擇的數據庫是mongodb,為什么用這個數據庫,因為這個數據庫是基于集合,數據的操作基本是json,與dom模塊cheerio具有非常大的親和力,cheerio處理過濾出來的數據,可以直接插入mongodb,不需要經過任何的處理,非常的便捷,當然跟node.js的親和力那就不用說了,更重要的是,性能很棒。這篇文章我就不具體寫mongodb的基本用法,到時候會另起文章從0開始寫mongodb基本常用用法.先看下入庫的效果與生成靜態文件的效果:

我在這個階段,把爬蟲分離成2個模塊,采集入庫( crawler.js ), 生成靜態文件(makeHtml.js).

crawler.js:

var http = require('http');
var cheerio = require('cheerio');
var mongoose = require('mongoose');
mongoose.Promise = global.Promise;
var DB_URL = 'mongodb://localhost:27017/crawler';

var aList = []; //博客文章列表信息
var aUrl = []; //博客所有的文章url

var db = mongoose.createConnection(DB_URL);
db.on('connected', function (err) {
 if (err) {
 console.log(err);
 } else {
 console.log('db connected success');
 }
});
var Schema = mongoose.Schema;
var arcSchema = new Schema({
 id: Number, //文章id
 title: String, //文章標題
 url: String, //文章鏈接
 body: String, //文章內容
 entry: String, //摘要
 listTime: Date //發布時間
});
var Article = db.model('Article', arcSchema);

function saveArticle(arcInfo) {
 var arcModel = new Article(arcInfo);
 arcModel.save(function (err, result) {
 if (err) {
 console.log(err);
 } else {
 console.log(`${arcInfo['title']} 插入成功`);
 }
 });
}

function filterArticle(html) {
 var $ = cheerio.load(html);
 var arcDetail = {};
 var title = $("#cb_post_title_url").text();
 var href = $("#cb_post_title_url").attr("href");
 var re = /\/(\d+)\.html/;
 var id = href.match(re)[1];
 var body = $("#cnblogs_post_body").html();
 return {
 id: id,
 title: title,
 url: href,
 body: body
 };
}

function crawlerArc(url) {
 var html = '';
 var str = '';
 var arcDetail = {};
 http.get(url, function (res) {
 res.on('data', function (chunk) {
 html += chunk;
 });
 res.on('end', function () {
 arcDetail = filterArticle(html);
 saveArticle(arcDetail);
 if ( aUrl.length ) {
 setTimeout(function () {
 if (aUrl.length) {
 crawlerArc(aUrl.shift());
 }
 }, 100);
 }else {
 console.log( '采集任務完成' );
 return;
 }
 });
 });
}

function filterHtml(html) {
 var $ = cheerio.load(html);
 var arcList = [];
 var aPost = $("#content").find(".post-list-item");
 aPost.each(function () {
 var ele = $(this);
 var title = ele.find("h2 a").text();
 var url = ele.find("h2 a").attr("href");
 ele.find(".c_b_p_desc a").remove();
 var entry = ele.find(".c_b_p_desc").text();
 ele.find("small a").remove();
 var listTime = ele.find("small").text();
 var re = /\d{4}-\d{2}-\d{2}\s*\d{2}[:]\d{2}/;
 listTime = listTime.match(re)[0];

 arcList.push({
 title: title,
 url: url,
 entry: entry,
 listTime: listTime
 });
 });
 return arcList;
}

function nextPage(html) {
 var $ = cheerio.load(html);
 var nextUrl = $("#pager a:last-child").attr('href');
 if (!nextUrl) return getArcUrl(aList);
 var curPage = $("#pager .current").text();
 if (!curPage) curPage = 1;
 var nextPage = nextUrl.substring(nextUrl.indexOf('=') + 1);
 if (curPage < nextPage) crawler(nextUrl);
}

function crawler(url) {
 http.get(url, function (res) {
 var html = '';
 res.on('data', function (chunk) {
 html += chunk;
 });
 res.on('end', function () {
 aList.push(filterHtml(html));
 nextPage(html);
 });
 });
}

function getArcUrl(arcList) {
 for (var key in arcList) {
 for (var k in arcList[key]) {
 aUrl.push(arcList[key][k]['url']);
 }
 }
 crawlerArc(aUrl.shift());
}

var url = 'http://www.cnblogs.com/ghostwu/';
crawler(url);

其他的核心模塊沒有怎么改動,主要增加了數據庫連接,數據庫創建,集合創建( 集合相當于關系型數據庫中的表 ),Schema( 相當于關系型數據庫的表結構 ).

mongoose操作數據庫( save:插入數據 ).分離了文件生成模塊.

makeHtml.js文件

var fs = require('fs');
var jade = require('jade');

var mongoose = require('mongoose');
mongoose.Promise = global.Promise;
var DB_URL = 'mongodb://localhost:27017/crawler';

var allArc = [];
var count = 0;

var db = mongoose.createConnection(DB_URL);
db.on('connected', function (err) {
 if (err) {
 console.log(err);
 } else {
 console.log('db connected success');
 }
});
var Schema = mongoose.Schema;
var arcSchema = new Schema({
 id: Number, //文章id
 title: String, //文章標題
 url: String, //文章鏈接
 body: String, //文章內容
 entry: String, //摘要
 listTime: Date //發布時間
});
var Article = db.model('Article', arcSchema);

function makeHtml(arcDetail) {
 str = jade.renderFile('./views/layout.jade', arcDetail);
 ++count;
 fs.writeFile('./html/' + count + '.html', str, function (err) {
 if (err) {
 console.log(err);
 }
 console.log( `${arcDetail['id']}.html創建成功` + count );
 if ( allArc.length ){
 setTimeout( function(){
 makeHtml( allArc.shift() );
 }, 100 );
 }
 });
}

function getAllArc(){
 Article.find( {}, function( err, arcs ){
 allArc = arcs;
 makeHtml( allArc.shift() );
 } ).sort( { 'id' : 1 } );
}
getAllArc();

以上這篇Node.js+jade+mongodb+mongoose實現爬蟲分離入庫與生成靜態文件的方法就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支持腳本之家。

聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。TEL:177 7030 7066 E-MAIL:11247931@qq.com

文檔

Node.js+jade+mongodb+mongoose實現爬蟲分離入庫與生成靜態文件的方法

Node.js+jade+mongodb+mongoose實現爬蟲分離入庫與生成靜態文件的方法:接著這篇文章Node.js+jade抓取博客所有文章生成靜態html文件的實例繼續,在這篇文章中實現了采集與靜態文件的生成,在實際的采集項目中, 應該是先入庫再選擇性的生成靜態文件。 那么我選擇的數據庫是mongodb,為什么用這個數據庫,因為這個數據庫是基于集合,
推薦度:
標簽: js 實現的 爬蟲
  • 熱門焦點

最新推薦

猜你喜歡

熱門推薦

專題
Top
主站蜘蛛池模板: 日本孕妇与黑人xxxxxx | 欧美啊v在线观看 | 免费又黄又爽又猛大片午夜 | 欧美日韩精品一区二区三区四区 | 在线色站 | 欧美区一区二区三 | 国产精品日韩欧美一区二区三区 | 国产一区二区三区在线视频 | 国产va在线视频观看 | 国产淫语对白在线 | 国产成人影院 | 久久亚洲精品国产亚洲老地址 | 孕交videos小孕妇xx另类 | 另类专区另类专区亚洲 | 欧美激情国产日韩精品一区18 | 国产精品久久久久久一区二区 | 国产成人乱码一区二区三区在线 | 日韩有码第一页 | 国产区二区| 亚洲欧美日韩国产 | 久久久91精品国产一区二区 | 香蕉久久ac一区二区三区 | 91精品一区二区三区久久久久 | 日韩不卡一区二区 | 欧美日韩欧美日韩 | 一区免费在线观看 | 国产精品久久久久9999小说 | 热re91久久精品国产91热 | 婷婷久久综合 | 国产原创一区二区 | 欧美爱爱网址 | 亚洲高清视频一区 | 亚洲另类中文字幕 | 欧美一区二区三区在线视频 | 毛片免费观看成人 | 欧美日韩亚洲无线码在线观看 | 亚洲欧美精品成人久久91 | 国产 日韩欧美 | 亚洲国产欧美日韩精品一区二区三区 | 国产区在线视频 | 国产成人精品一区二区视频 |