×

php爬虫useragent

php爬虫useragent(php爬虫软件)

admin admin 发表于2023-03-28 14:23:09 浏览51 评论0

抢沙发发表评论

本文目录一览:

如何用php 编写网络爬虫

php不太适合用来写网络爬虫,因为几乎没有现成的框架,或者成熟的下载机制,也不太适合做并发处理.

下载页面的话除了一个curl,就是file_get_contents,或者curl_multi来做并发请求.curl可以代理端口,虚假ip,带cookie,带header请求目标页面,下载完成之后解析页面可以用queryList来解析html.写法类似jQuery.

提供给你我之前写的类:curl.php  希望可以帮到你.

QueryList.php和phpQuery.php由于文件太大了,没办法贴上来

?php

class Http {

    public function curlRequest($url, $postData = '', $timeOut = 10, $httpHeader = array()) {

        $handle = curl_init ();

        curl_setopt ( $handle, CURLOPT_URL, $url );

        if ($httpHeader) {

            curl_setopt($handle, CURLOPT_HTTPHEADER, $httpHeader);

        }

        curl_setopt ( $handle, CURLOPT_RETURNTRANSFER, true );

        curl_setopt ( $handle, CURLOPT_HEADER, 0 );                                                                curl_setopt ( $handle, CURLOPT_TIMEOUT, $timeOut );-php爬虫useragent

        curl_setopt ( $handle, CURLOPT_FOLLOWLOCATION, 1 );

        curl_setopt ( $handle, CURLOPT_SSL_VERIFYPEER, false );

        curl_setopt ( $handle, CURLOPT_SSL_VERIFYHOST, false );

        curl_setopt ( $handle, CURLOPT_USERAGENT, 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/27.0.1453.93 Safari/537.36');        curl_setopt ( $handle, CURLOPT_ENCODING, 'gzip,deflate,sdch');-php爬虫useragent

        if (! empty ( $postData )) {

            curl_setopt ( $handle, CURLOPT_POST, 1 );

            curl_setopt ( $handle, CURLOPT_POSTFIELDS, $postData);

        }

        $result['response'] = curl_exec ( $handle );

        $result['httpStatus'] = curl_getinfo ( $handle, CURLINFO_HTTP_CODE );

        $result['fullInfo'] = curl_getinfo ( $handle );

        $result['errorMsg'] = '';

        $result['errorNo'] = 0;

        if (curl_errno($handle)) {

            $result['errorMsg'] = curl_error($handle);

            $result['errorNo'] = curl_errno($handle);

        }

        curl_close ( $handle );

        return $result;

    }

}

?

php爬虫程序中怎么样伪造ip地址防止被封

1、国内ADSL是王道,多申请些线路,分布在多个不同的电信区局,能跨省跨市更好,自己写好断线重拨组件,自己写动态IP追踪服务,远程硬件重置(主要针对ADSL猫,防止其宕机),其余的任务分配,数据回收~-php爬虫useragent

2、1.IP必须需要,,ADSL。如果有条件,其实可以跟机房多申请外网IP。

2.在有外网IP的机器上,部署代理服务器。

3.你的程序,使用轮训替换代理服务器来访问想要采集的网站。

3、ADSL + 脚本,监测是否被封,然后不断切换 ip

设置查询频率限制

正统的做法是调用该网站提供的服务接口。

4、

1 user agent 伪装和轮换

2 使用代理 ip 和轮换

3 cookies 的处理,有的网站对登陆用户政策宽松些

友情提示:考虑爬虫给人家网站带来的负担,be a responsible crawler

5、

尽可能的模拟用户行为:

1、UserAgent经常换一换;

2、访问时间间隔设长一点,访问时间设置为随机数;

3、访问页面的顺序也可以随机着来

6、

1. 对爬虫抓取进行压力控制;

2. 可以考虑使用代理的方式访问目标站点。

-降低抓取频率,时间设置长一些,访问时间采用随机数

-频繁切换UserAgent(模拟浏览器访问)

-多页面数据,随机访问然后抓取数据

-更换用户IP

php如何排除网络爬虫,统计出访问量。

PHP可以通过$_SERVER['HTTP_USER_AGENT']函数来判断是否是蜘蛛以及是什么蜘蛛!

代码如下:$useragent=$_SERVER['HTTP_USER_AGENT'];

if(substr_count($useragent,"Baiduspider")){echo "百度蜘蛛";}还有就是从IIS或者APACHE的访问日志里的报头来判断,但是这样的话,必须用程序去只读日志文件,如果多的情况下,有可能产生的日志文件大小非常大,而每次读这个文件,基本上你服务器可以不干别的了!-php爬虫useragent

PHP判断来访是搜索引擎蜘蛛还是普通用户的代码小结

1、推荐的一种方法:php判断搜索引擎蜘蛛爬虫还是人为访问代码,摘自Discuz x3.2

?php

function checkrobot($useragent=''){

static $kw_spiders = array('bot', 'crawl', 'spider' ,'slurp', 'sohu-search', 'lycos', 'robozilla');-php爬虫useragent

static $kw_browsers = array('msie', 'netscape', 'opera', 'konqueror', 'mozilla');

$useragent = strtolower(empty($useragent) ? $_SERVER['HTTP_USER_AGENT'] : $useragent);

if(strpos($useragent, 'http://') === false dstrpos($useragent, $kw_browsers)) return false;

if(dstrpos($useragent, $kw_spiders)) return true;

return false;

}

function dstrpos($string, $arr, $returnvalue = false) {

if(empty($string)) return false;

foreach((array)$arr as $v) {

if(strpos($string, $v) !== false) {

$return = $returnvalue ? $v : true;

return $return;

}

}

return false;

}

if(checkrobot()){

echo '机器人爬虫';

}else{

echo '人';

}

?

实际应用中可以这样判断,直接不是搜索引擎才执行操作

?php

if(!checkrobot()){

//do something

}

?

2、第二种方法:

使用PHP实现蜘蛛访问日志统计

$useragent = addslashes(strtolower($_SERVER['HTTP_USER_AGENT']));

if (strpos($useragent, 'googlebot')!== false){$bot = 'Google';}

elseif (strpos($useragent,'mediapartners-google') !== false){$bot = 'Google Adsense';}

elseif (strpos($useragent,'baiduspider') !== false){$bot = 'Baidu';}

elseif (strpos($useragent,'sogou spider') !== false){$bot = 'Sogou';}

elseif (strpos($useragent,'sogou web') !== false){$bot = 'Sogou web';}

elseif (strpos($useragent,'sosospider') !== false){$bot = 'SOSO';}

elseif (strpos($useragent,'360spider') !== false){$bot = '360Spider';}

elseif (strpos($useragent,'yahoo') !== false){$bot = 'Yahoo';}

elseif (strpos($useragent,'msn') !== false){$bot = 'MSN';}

elseif (strpos($useragent,'msnbot') !== false){$bot = 'msnbot';}

elseif (strpos($useragent,'sohu') !== false){$bot = 'Sohu';}

elseif (strpos($useragent,'yodaoBot') !== false){$bot = 'Yodao';}

elseif (strpos($useragent,'twiceler') !== false){$bot = 'Twiceler';}

elseif (strpos($useragent,'ia_archiver') !== false){$bot = 'Alexa_';}

elseif (strpos($useragent,'iaarchiver') !== false){$bot = 'Alexa';}

elseif (strpos($useragent,'slurp') !== false){$bot = '雅虎';}

elseif (strpos($useragent,'bot') !== false){$bot = '其它蜘蛛';}

if(isset($bot)){

$fp = @fopen('bot.txt','a');

fwrite($fp,date('Y-m-d H:i:s')."\t".$_SERVER["REMOTE_ADDR"]."\t".$bot."\t".'http://'.$_SERVER['SERVER_NAME'].$_SERVER["REQUEST_URI"]."\r\n");-php爬虫useragent

fclose($fp);

}

第三种方法:

我们可以通过HTTP_USER_AGENT来判断是否是蜘蛛,搜索引擎的蜘蛛都有自己的独特标志,下面列取了一部分。

function is_crawler() {

$userAgent = strtolower($_SERVER['HTTP_USER_AGENT']);

$spiders = array(

'Googlebot', // Google 爬虫

'Baiduspider', // 百度爬虫

'Yahoo! Slurp', // 雅虎爬虫

'YodaoBot', // 有道爬虫

'msnbot' // Bing爬虫

// 更多爬虫关键字

);

foreach ($spiders as $spider) {

$spider = strtolower($spider);

if (strpos($userAgent, $spider) !== false) {

return true;

}

}

return false;

}

下面的php代码附带了更多的蜘蛛标识

function isCrawler() {

echo $agent= strtolower($_SERVER['HTTP_USER_AGENT']);

if (!empty($agent)) {

$spiderSite= array(

"TencentTraveler",

"Baiduspider+",

"BaiduGame",

"Googlebot",

"msnbot",

"Sosospider+",

"Sogou web spider",

"ia_archiver",

"Yahoo! Slurp",

"YoudaoBot",

"Yahoo Slurp",

"MSNBot",

"Java (Often spam bot)",

"BaiDuSpider",

"Voila",

"Yandex bot",

"BSpider",

"twiceler",

"Sogou Spider",

"Speedy Spider",

"Google AdSense",

"Heritrix",

"Python-urllib",

"Alexa (IA Archiver)",

"Ask",

"Exabot",

"Custo",

"OutfoxBot/YodaoBot",

"yacy",

"SurveyBot",

"legs",

"lwp-trivial",

"Nutch",

"StackRambler",

"The web archive (IA Archiver)",

"Perl tool",

"MJ12bot",

"Netcraft",

"MSIECrawler",

"WGet tools",

"larbin",

"Fish search",

);

foreach($spiderSite as $val) {

$str = strtolower($val);

if (strpos($agent, $str) !== false) {

return true;

}

}

} else {

return false;

}

}

if (isCrawler()){

echo "你好蜘蛛精!";

}

else{

echo "你不是蜘蛛精啊!";