php大数据的处理 php 大数据

在PHP中怎么解决大量数据处理的问题mysql_query函数查询php大数据的处理的方式是查询出全部结果后缓存到内存中php大数据的处理,这样就会出现超内存的现象 , 使用另外一个函数mysql_unbuffered_query可以解决这个问题,mysql_unbuffered_query不会缓存结果集,而是查询出来数据后立马对结果集进行操作,也就是便查询边返回,这样就不会出现超出内存的现象,但是使用mysql_unbuffered_query的是时候不能使用 mysql_num_rows() 和 mysql_data_seek() 。并且向 MySQL 发送一条新的 SQL 查询之前 , 必须提取掉所有未缓存的 SQL 查询所产生的结果行 。例如:
使用缓存结果集的代码:
function selecttest()
{
try {
$pdo = new PDO("mysql:host=localhost;dbname=test", 'root', '123456');
//不使用缓存结果集方式
//$pdo-setAttribute(PDO::MYSQL_ATTR_USE_BUFFERED_QUERY, false);
$sth = $pdo-prepare('select * from test');
$sth-execute();
echo '最初占用内存大?。? . memory_get_usage() . "\n";
$i = 0;
while ($result = $sth-fetch(PDO::FETCH_ASSOC)) {
$i= 1;
if ($i10) {
break;
}
sleep(1);
print_r($result);
echo '占用内存大?。? . memory_get_usage() . "\n";
}
} catch (Exception $e) {
echo $e-getMessage();
}
}
执行时将会报超出内存的错误:
Fatal error: Allowed memory size of 134217728 bytes exhausted (tried to allocate 204800000 bytes) in E:\ProgramDevelopment\RuntimeEnvironment\xampp\htdocs\test\test.php on line 56
Call Stack:
0.00051353921. {main}() E:\ProgramDevelopment\RuntimeEnvironment\xampp\htdocs\test\test.php:0
0.00051355682. test-selecttest() E:\ProgramDevelopment\RuntimeEnvironment\xampp\htdocs\test\test.php:85
0.00501425283. PDOStatement-execute() E:\ProgramDevelopment\RuntimeEnvironment\xampp\htdocs\test\test.php:56
将上面代码中的$pdo-setAttribute(PDO::MYSQL_ATTR_USE_BUFFERED_QUERY, false);一行的注释去掉后将不在缓存结果集,这时运行该函数的结果如下:
最初占用内存大?。?44808
Array
(
[id] = 1
[a] = v
[b] = w
[c] = i
)
占用内存大?。?45544
Array
(
[id] = 2
[a] = b
[b] = l
[c] = q
)
占用内存大?。?45544
Array
(
[id] = 3
[a] = m
[b] = p
[c] = h
)
占用内存大?。?45536
Array
(
[id] = 4
[a] = j
[b] = i
[c] = b
)
占用内存大?。?45536
可以看到,这时返回一条数据内存占用非常的小,也就700多字节,这样就不会出现超出内存的错误php大数据的处理了 。
如何解决PHP查询大量数据内存耗尽的问题这个问题在PHP的官方网站上叫缓冲查询和非缓冲查询(Buffered and Unbuffered queries) 。PHP的查询缺省模式是缓冲模式 。也就是说,查询数据结果会一次全部提取到内存里供PHP程序处理 。这样给了PHP程序额外的功能,比如说,计算行数 , 将指针指向某一行等 。更重要的是程序可以对数据集反复进行二次查询和过滤等操作 。但这种缓冲查询模式的缺陷就是消耗内存,也就是用空间换速度 。
相对的,另外一种PHP查询模式是非缓冲查询,数据库服务器会一条一条的返回数据,而不是一次全部返回,这样的结果就是PHP程序消耗较少的内存,但却增加了数据库服务器的压力,因为数据库会一直等待PHP来取数据,一直到数据全部取完 。
很显然,缓冲查询模式适用于小数据量查询,而非缓冲查询适应于大数据量查询 。
PHP-大数据量怎么处理优化大数据php大数据的处理的话可以进行以下操作php大数据的处理:
减少对数据库的读取php大数据的处理 , 也就是减少调用数据库php大数据的处理 ,
进行数据缓存 ,
利用数据库的自身优化技术 , 如索引等
精确查询条件,有利于提高查找速度
php怎么导出大量数据的Excelphp导出大量数据Excel的具体操作步骤如下:
1、使用phpstudy搭建一个测试平台 , 直接访问数据库 。
2、下载的phpcms安装包拷贝到IIS目录 , 开通访问 , 即可搭建成功 。
3、登录网站后台,系统权限,文件目录以及数据库等功能,进行管理 。
4、在phpcms后台 , 扩展 , 数据库工具,数据库导出,程序池选择phpcmsv9,开始备份数据 。
5、打开IIS网站目录,在D:\wwwroot\kmxy\wwwroot\caches\bakup\default文件夹 , 查看导出的数据库文件 。
6、登录phpmyadmin , 选择数据库导出,选择Excel格式,即可导出 。
php 处理上百万条的数据库如何提高处理查询速度1.对查询进行优化 , 应尽量避免全表扫描,首先应考虑在 where 及 order by 涉及的列上建立索引 。
2.应尽量避免在 where 子句中对字段进行 null 值判断,否则将导致引擎放弃使用索引而进行全表扫描,如:
select id from t where num is null
可以在num上设置默认值0,确保表中num列没有null值,然后这样查询:
select id from t where num=0
3.应尽量避免在 where 子句中使用!=或操作符,否则将引擎放弃使用索引而进行全表扫描 。
4.应尽量避免在 where 子句中使用 or 来连接条件,否则将导致引擎放弃使用索引而进行全表扫描,如:
select id from t where num=10 or num=20
可以这样查询:
select id from t where num=10
union all
select id from t where num=20
5.in 和 not in 也要慎用,否则会导致全表扫描 , 如:
select id from t where num in(1,2,3)
对于连续的数值,能用 between 就不要用 in 了:
select id from t where num between 1 and 3
6.下面的查询也将导致全表扫描:
select id from t where name like '玞%'
若要提高效率,可以考虑全文检索 。
7.如果在 where 子句中使用参数,也会导致全表扫描 。因为SQL只有在运行时才会解析局部变量,但优化程序不能将访问计划的选择推迟到运行时;它必须在编译时进行选择 。然而,如果在编译时建立访问计划,变量的值还是未知的,因而无法作为索引选择的输入项 。如下面语句将进行全表扫描:
select id from t where num=@num
可以改为强制查询使用索引:
select id from t with(index(索引名)) where num=@num
8.应尽量避免在 where 子句中对字段进行表达式操作,这将导致引擎放弃使用索引而进行全表扫描 。如:
select id from t where num/2=100
应改为:
select id from t where num=100*2
9.应尽量避免在where子句中对字段进行函数操作,这将导致引擎放弃使用索引而进行全表扫描 。如:
select id from t where substring(name,1,3)='abc'--name以abc开头的id
select id from t where datediff(day,createdate,'2005-11-30')=0--‘2005-11-30'生成的id
应改为:
select id from t where name like 'abc%'
select id from t where createdate='2005-11-30' and createdate'2005-12-1'
10.不要在 where 子句中的“=”左边进行函数、算术运算或其他表达式运算 , 否则系统将可能无法正确使用索引 。
11.在使用索引字段作为条件时,如果该索引是复合索引,那么必须使用到该索引中的第一个字段作为条件时才能保证系统使用该索引,否则该索引将不会被使用,并且应尽可能的让字段顺序与索引顺序相一致 。
12.不要写一些没有意义的查询,如需要生成一个空表结构:
select col1,col2 into #t from t where 1=0
这类代码不会返回任何结果集,但是会消耗系统资源的,应改成这样:
create table #t(...)
13.很多时候用 exists 代替 in 是一个好的选择:
select num from a where num in(select num from b)
用下面的语句替换:
select num from a where exists(select 1 from b where num=a.num)
14.并不是所有索引对查询都有效,SQL是根据表中数据来进行查询优化的 , 当索引列有大量数据重复时,SQL查询可能不会去利用索引 , 如一表中有字段sex,male、female几乎各一半,那么即使在sex上建了索引也对查询效率起不了作用 。
15.索引并不是越多越好 , 索引固然可以提高相应的 select 的效率,但同时也降低了 insert 及 update 的效率,因为 insert 或 update 时有可能会重建索引 , 所以怎样建索引需要慎重考虑,视具体情况而定 。一个表的索引数最好不要超过6个,若太多则应考虑一些不常使用到的列上建的索引是否有必要 。
16.应尽可能的避免更新 clustered 索引数据列,因为 clustered 索引数据列的顺序就是表记录的物理存储顺序,一旦该列值改变将导致整个表记录的顺序的调整,会耗费相当大的资源 。若应用系统需要频繁更新 clustered 索引数据列,那么需要考虑是否应将该索引建为 clustered 索引 。
17.尽量使用数字型字段,若只含数值信息的字段尽量不要设计为字符型 , 这会降低查询和连接的性能,并会增加存储开销 。这是因为引擎在处理查询和连接时会逐个比较字符串中每一个字符,而对于数字型而言只需要比较一次就够了 。
18.尽可能的使用 varchar/nvarchar 代替 char/nchar , 因为首先变长字段存储空间?。梢越谑〈娲⒖占洌?其次对于查询来说,在一个相对较小的字段内搜索效率显然要高些 。
19.任何地方都不要使用 select * from t ,用具体的字段列表代替“*”,不要返回用不到的任何字段 。
20.尽量使用表变量来代替临时表 。如果表变量包含大量数据,请注意索引非常有限(只有主键索引) 。
21.避免频繁创建和删除临时表,以减少系统表资源的消耗 。
22.临时表并不是不可使用,适当地使用它们可以使某些例程更有效,例如,当需要重复引用大型表或常用表中的某个数据集时 。但是,对于一次性事件,最好使用导出表 。
23.在新建临时表时,如果一次性插入数据量很大,那么可以使用 select into 代替 create table,避免造成大量 log , 以提高速度;如果数据量不大,为了缓和系统表的资源,应先create table,然后insert 。
24.如果使用到了临时表,在存储过程的最后务必将所有的临时表显式删除,先 truncate table , 然后 drop table,这样可以避免系统表的较长时间锁定 。
25.尽量避免使用游标,因为游标的效率较差,如果游标操作的数据超过1万行,那么就应该考虑改写 。
26.使用基于游标的方法或临时表方法之前,应先寻找基于集的解决方案来解决问题,基于集的方法通常更有效 。
27.与临时表一样 , 游标并不是不可使用 。对小型数据集使用 FAST_FORWARD 游标通常要优于其他逐行处理方法,尤其是在必须引用几个表才能获得所需的数据时 。在结果集中包括“合计”的例程通常要比使用游标执行的速度快 。如果开发时间允许,基于游标的方法和基于集的方法都可以尝试一下,看哪一种方法的效果更好 。
28.在所有的存储过程和触发器的开始处设置 SET NOCOUNT ON , 在结束时设置 SET NOCOUNT OFF。无需在执行存储过程和触发器的每个语句后向客户端发送 DONE_IN_PROC 消息 。
【php大数据的处理 php 大数据】29.尽量避免大事务操作,提高系统并发能力 。
30.尽量避免向客户端返回大数据量 , 若数据量过大,应该考虑相应需求是否合理 。
php采集大数据的方案1、建议你读写数据和下载图片分开 , 各用不同的进程完成 。
比如说,取数据用get-data.php,下载图片用get-image.php 。
2、多进程的话 , php可以简单的用pcntl_fork() 。这样可以并发多个子进程 。
但是我不建议你用fork,我建议你安装一个gearman worker 。这样你要并发几个,就启几个worker,写代码简单 , 根本不用在代码里考虑thread?。?process等等 。
3、综上 , 解决方案这样:
(1)安装gearman worker 。
(2)写一个get-data.php,在crontab里设置它每5分钟执行一次,只负责读数据,然后把读回来的数据一条一条的扔到 gearman worker的队列里;
然后再写一个处理数据的脚本作为worker,例如叫process-data.php,这个脚本常驻内存 。它作为worker从geraman 队列里读出一条一条的数据 , 然后跟你的数据库老数据比较,进行你的业务逻辑 。如果你要10个并发,那就启动10个process-data.php好了 。处理完后,如果图片地址有变动需要下载图片,就把图片地址扔到 gearman worker的另一个队列里 。
(3)再写一个download-data.php,作为下载图片的worker,同样,你启动10个20个并发随便你 。这个进程也常驻内存运行,从gearman worker的图片数据队列里取数据出来 , 下载图片
4、常驻进程的话,就是在代码里写个while(true)死循环,让它一直运行好了 。如果怕内存泄露啥的,你可以每循环10万次退出一下 。然后在crontab里设置,每分钟检查一下进程有没有启动,比如说这样启动3个process-data worker进程:
* * * * * flock -xn /tmp/process-data.1.lock -c '/usr/bin/php /process-data.php/dev/null 21'
* * * * * flock -xn /tmp/process-data.2.lock -c '/usr/bin/php /process-data.php/dev/null 21'
* * * * * flock -xn /tmp/process-data.3.lock -c '/usr/bin/php /process-data.php/dev/null 21'
不知道你明白了没有
php大数据的处理的介绍就聊到这里吧,感谢你花时间阅读本站内容,更多关于php 大数据、php大数据的处理的信息别忘了在本站进行查找喔 。

    推荐阅读