湖北网站开发公司,网站建设实践收获,快速百度,wordpress 发布小偷程序其实就是利用了php中的一特定函数实现采集别人网站的内容#xff0c;然后通过正则分析把我们想要的内容保存到自己本地数据库了#xff0c;下面我来介绍php小偷程序的实现方法#xff0c;有需要的朋友可参考。 在下面采集数据过程中file_get_contents函数是关键了然后通过正则分析把我们想要的内容保存到自己本地数据库了下面我来介绍php小偷程序的实现方法有需要的朋友可参考。 在下面采集数据过程中file_get_contents函数是关键了下面我们来看看file_get_contents函数语法 string file_get_contents ( string $filename [, bool $use_include_path false [, resource $context [, int $offset -1 [, int $maxlen ]]]] ) 和 file() 一样只除了 file_get_contents() 把文件读入一个字符串。将在参数 offset 所指定的位置开始读取长度为 maxlen 的内容。如果失败 file_get_contents() 将返回 FALSE。 file_get_contents() 函数是用来将文件的内容读入到一个字符串中的首选方法。如果操作系统支持还会使用内存映射技术来增强性能。 例 代码如下复制代码 ?php $homepage file_get_contents(http://www.111cn.net/); echo $homepage; ? 这样$homepage就是我们采集网的内容给保存下来了好了说了这么多我们开始吧。 例 代码如下复制代码 ?php function fetch_urlpage_contents($url){ $cfile_get_contents($url); return $c; } //获取匹配内容 function fetch_match_contents($begin,$end,$c) { $beginchange_match_string($begin); $endchange_match_string($end); $p {$begin}(.*){$end}; if(eregi($p,$c,$rs)) { return $rs[1];} else { return ;} }//转义正则表达式字符串 function change_match_string($str){ //注意以下只是简单转义 //$oldarray(/,$); //$newarray(/,$); $strstr_replace($old,$new,$str); return $str; } //采集网页 function pick($url,$ft,$th) { $cfetch_urlpage_contents($url); foreach($ft as $key $value) { $rs[$key]fetch_match_contents($value[begin],$value[end],$c); if(is_array($th[$key])) { foreach($th[$key] as $old $new) { $rs[$key]str_replace($old,$new,$rs[$key]); } } } return $rs; } $urlhttp://www.111cn.net; //要采集的地址 $ft[title][begin]title; //截取的开始点 $ft[title][end]/title; //截取的结束点 $th[title][中山]广东; //截取部分的替换 $ft[body][begin]body; //截取的开始点 $ft[body][end]/body; //截取的结束点 $th[body][中山]广东; //截取部分的替换 $rspick($url,$ft,$th); //开始采集 echo $rs[title]; echo $rs[body]; //输出 ? 以下代码从上一面修改而来专门用于提取网页所有超链接邮箱或其他特定内容 代码如下复制代码 ?php function fetch_urlpage_contents($url){ $cfile_get_contents($url); return $c; } //获取匹配内容 function fetch_match_contents($begin,$end,$c) { $beginchange_match_string($begin); $endchange_match_string($end); $p #{$begin}(.*){$end}#iU;//i表示忽略大小写U禁止贪婪匹配 if(preg_match_all($p,$c,$rs)) { return $rs;} else { return ;} }//转义正则表达式字符串 function change_match_string($str){ //注意以下只是简单转义 $oldarray(/,$,?); $newarray(/,$,?); $strstr_replace($old,$new,$str); return $str; } //采集网页 function pick($url,$ft,$th) { $cfetch_urlpage_contents($url); foreach($ft as $key $value) { $rs[$key]fetch_match_contents($value[begin],$value[end],$c); if(is_array($th[$key])) { foreach($th[$key] as $old $new) { $rs[$key]str_replace($old,$new,$rs[$key]); } } } return $rs; } $urlhttp://www.111cn.net; //要采集的地址 $ft[a][begin]a; //截取的开始点br / $ft[a][end]; //截取的结束点 $rspick($url,$ft,$th); //开始采集 print_r($rs[a]); ? 小提示file_get_contents很是容易被防采集了我们可以使用curl来模仿用户对网站进行访问这算比上面要高级不少哦file_get_contents()效率稍低些常用失败的情况、curl()效率挺高的支持多线程不过需要开启下curl扩展。下面是curl扩展开启的步骤 1、将PHP文件夹下的三个文件php_curl.dll,libeay32.dll,ssleay32.dll复制到system32下; 2、将php.ini(c:WINDOWS目录下)中的;extensionphp_curl.dll中的分号去掉; 3、重启apache或者IIS。 简单的抓取页面函数,附带伪造 Referer 和 User_Agent 功能 代码如下复制代码 ?php function GetSources($Url,$User_Agent,$Referer_Url) //抓取某个指定的页面 { //$Url 需要抓取的页面地址 //$User_Agent 需要返回的user_agent信息 如“baiduspider”或“googlebot” $ch curl_init(); curl_setopt ($ch, CURLOPT_URL, $Url); curl_setopt ($ch, CURLOPT_USERAGENT, $User_Agent); curl_setopt ($ch, CURLOPT_REFERER, $Referer_Url); curl_setopt($ch, CURLOPT_FOLLOWLOCATION,1); curl_setopt ($ch, CURLOPT_RETURNTRANSFER, 1); $MySources curl_exec ($ch); curl_close($ch); return $MySources; } $Url http://www.111cn.net; //要获取内容的也没 $User_Agent baiduspider(http://www.baidu.com/search/spider.htm); $Referer_Url http://www.111cn.net/; echo GetSources($Url,$User_Agent,$Referer_Url); ?