php在线采集网页数据库 php采集系统( 二 )


//取消下在的注释extension=php_curldll
如果你是在Linux下面 那么 你需要重新编译你的PHP了 编辑时 你需要打开编译参数——在configure命令上加上 –with curl参数
一个小示例
如果一切就绪 下面是一个小例程
﹤?php// 初始化一个 cURL 对象$curl = curl_init();
// 设置你需要抓取的URLcurl_setopt($curlCURLOPT_URL//cocre);
// 设置headercurl_setopt($curlCURLOPT_HEADER);
// 设置cURL 参数 要求结果保存到字符串中还是输出到屏幕上 curl_setopt($curlCURLOPT_RETURNTRANSFER);
// 运行cURL 请求网页$data = https://www.04ip.com/post/curl_exec($curl);
// 关闭URL请求curl_close($curl);
// 显示获得的数据var_dump($data);
如何POST数据
上面是抓取网页的代码 下面则是向某个网页POST数据 假设我们有一个处理表单的网址// example /sendSMS php 其可以接受两个表单域 一个是电话号码 一个是短信内容
﹤?php$phoneNumber =;$message =This message was generated by curl and php;$curlPost =pNUMBER=urlencode($phoneNumber)MESSAGE=urlencode($message)SUBMIT=Send;$ch = curl_init();curl_setopt($chCURLOPT_URL//example/sendSMSphp);curl_setopt($chCURLOPT_HEADER);curl_setopt($chCURLOPT_RETURNTRANSFER);curl_setopt($chCURLOPT_POST);curl_setopt($chCURLOPT_POSTFIELDS$curlPost);$data = https://www.04ip.com/post/curl_exec();curl_close($ch);?﹥
从上面的程序我们可以看到 使用CURLOPT_POST设置HTTP协议的POST方法 而不是GET方法 然后以CURLOPT_POSTFIELDS设置POST的数据
关于代理服务器
下面是一个如何使用代理服务器的示例 请注意其中高亮的代码 代码很简单 我就不用多说了
﹤?php $ch = curl_init();curl_setopt($chCURLOPT_URL//example);curl_setopt($chCURLOPT_HEADER);curl_setopt($chCURLOPT_RETURNTRANSFER);curl_setopt($chCURLOPT_HTTPPROXYTUNNEL);curl_setopt($chCURLOPT_PROXYfakeproxy:);curl_setopt($chCURLOPT_PROXYUSERPWDuser:password);$data = https://www.04ip.com/post/curl_exec();curl_close($ch);?﹥关于SSL和Cookie
关于SSL也就是HTTPS协议 你只需要把CURLOPT_URL连接中的//变成//就可以了 当然 还有一个参数叫CURLOPT_SSL_VERIFYHOST可以设置为验证站点
关于Cookie 你需要了解下面三个参数
CURLOPT_COOKIE 在当面的会话中设置一个cookie
CURLOPT_COOKIEJAR 当会话结束的时候保存一个Cookie
CURLOPT_COOKIEFILE Cookie的文件
HTTP服务器认证
最后 我们来看一看HTTP服务器认证的情况
﹤?php $ch = curl_init();curl_setopt($chCURLOPT_URL// example);curl_setopt($chCURLOPT_RETURNTRANSFER);curl_setopt($chCURLOPT_HTTPAUTHCURLAUTH_BASIC);curl_setopt(CURLOPT_USERPWD[username]:[password] )
$data = https://www.04ip.com/post/curl_exec();curl_close($ch);?﹥
关于其它更多的内容 请参看相关的cURL手册lishixinzhi/Article/program/PHP/201311/21491
php中curl爬虫 怎么样通过网页获取所有链接本文承接上面两篇,本篇中的示例要调用到前两篇中的函数 , 做一个简单的URL采集 。一般php采集网络数据会用file_get_contents、file和cURL 。不过据说cURL会比file_get_contents、file更快更专业 , 更适合采集 。今天就试试用cURL来获取网页上的所有链接 。示例如下:
?php
/*
* 使用curl 采集hao123.com下的所有链接 。
*/
include_once('function.php');
$ch = curl_init();
curl_setopt($ch, CURLOPT_URL, '');
// 只需返回HTTP header
【php在线采集网页数据库 php采集系统】curl_setopt($ch, CURLOPT_HEADER, 1);
// 页面内容我们并不需要
// curl_setopt($ch, CURLOPT_NOBODY, 1);
// 返回结果,而不是输出它
curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1);
$html = curl_exec($ch);
$info = curl_getinfo($ch);
if ($html === false) {
echo "cURL Error: " . curl_error($ch);

推荐阅读