一区二区久久-一区二区三区www-一区二区三区久久-一区二区三区久久精品-麻豆国产一区二区在线观看-麻豆国产视频

基于PHP的簡單采集數據入庫程序【續篇】

在上篇文章中,我們已經采集新聞信息頁的列表數據,接下來要做的操作就是從數據庫中讀取所需要采集的URL,進行頁面抓取就行

新建一個content表

不過需要注意的一點是,不能再采用采集URL這種id遞增的方法去采集,因為數據表中可能出現id斷續,比如id=9,id=11,當采集到id=10的時候,URL是空白的,這樣可能會導致采集到了空字段。

這里用到的一個技巧是數據庫的查詢語句,在我們采集完第一條數據的時候,判斷數據庫里是否還有大于此id的id編號,若有,讀取一條,查詢信息重復上面的工作。

具體代碼如下:

<?php    include_once("conn.php");  $id=(int)$_GET['id'];  $sql="select * from list where id=$id";  $result=mysql_query($sql);  $row=mysql_fetch_array($result);//取得對應的url地址  $content=file_get_contents($row['url']);  $pattern="/<dd class=/"dataWrap/">(.*)<//dd>/iUs";  preg_match($pattern, $content,$info);//獲取內容存放info  echo $title=$row[1]."<br/>";  echo $content=$info[0]."<hr/>";  //插入數據庫  $add="insert into content(title,content) value('$title','$content')";  mysql_query($add);  $sql2="select * from list where id>$id order by id asc limit 1";  $result2=mysql_query($sql2);  $row2=mysql_fetch_array($result2);//取得對應的url地址  if($row2['id']){    echo "<script>window.location='content.php?id=$row2[0]'</script>";  }?>

這樣子我們所要的新聞內容就采集入庫了,接下來只需要對數據的一些樣式進行整理就行了。

php技術基于PHP的簡單采集數據入庫程序【續篇】,轉載需保留來源!

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如作者信息標記有誤,請第一時間聯系我們修改或刪除,多謝。

主站蜘蛛池模板: 91在线精品老司机免费播放 | 在线观看国产小视频 | 久久国产精品99久久久久久老狼 | 久久久久国产一级毛片高清板 | 美女一级毛片毛片在线播放 | 精品在线视频免费 | 国产福利在线小视频 | 一区二区三区久久 | 美女免费黄网站 | 精品久久成人免费第三区 | 99精品视频在线播放2 | 日日噜噜噜噜人人爽亚洲精品 | 欧洲美女高清一级毛片 | 欧美中文字幕一区二区三区 | 深爱激动网婷婷狠狠五月 | 国内小情侣一二三区在线视频 | 三区在线观看 | 国产区二区 | 狠狠干天天爱 | 久久精品亚洲精品国产色婷 | 国产一区二区三区在线视频 | 四虎影视永久在线精品免费 | 色天天综合色天天碰 | 久久青青草原精品国产软件 | 一级做a爰片性色毛片黄书 一级做a爰片性色毛片男 | 久久婷婷伊人 | 黄视频网站大全 | 高清国产一区二区三区 | 国产精品日韩欧美久久综合 | 丝袜诱惑一区二区 | 亚洲全网成人资源在线观看 | 国产精品午夜国产小视频 | 婷婷99视频精品全部在线观看 | 色哟在线 | 99精品久久秒播无毒不卡 | 91视频最新地址 | 免费观看91视频 | 亚洲福利在线播放 | 国产福利免费观看 | www.日本视频 | 天天躁日日躁狠狠躁中文字幕老牛 |