php如何解决百万数据 php处理百万数据方案

如何利用php数组对百万数据进行排重如果你已经使用了一段时间PHP的话,那么,你应该已经对它的数组比较熟悉了——这种数据结构允许你在单个变量中存储多个值,并且可以把它们作为一个集合进行操作 。
经常,开发人员发现在PHP中使用这种数据结构对值或者数组元素进行排序非常有用 。PHP提供了一些适合多种数组的排序函数,这些函数允许你在数组内部对元素进行排列 , 也允许用很多不同的方法对它们进行重新排序 。在这篇文章中我们将讨论该排序中最重要的几个函数 。
简单排序
首先,让我们来看看最简单的情况:将一个数组元素从低到高进行简单排序,这个函数既可以按数字大小排列也可以按字母顺序排列 。PHP的sort()函数实现了这个功能 , 如Listing A所示:
Listing A
?php
? $data = https://www.04ip.com/post/array(5,8,1,7,2);
? sort($data);
? print_r($data);
? ?
输出结果如下所示:
Array ([0] = 1
[1] = 2
[2] = 5
[3] = 7
[4] = 8
)
在PHP中怎么解决大量数据处理的问题mysql_query函数查询的方式是查询出全部结果后缓存到内存中,这样就会出现超内存的现象 , 使用另外一个函数mysql_unbuffered_query可以解决这个问题,mysql_unbuffered_query不会缓存结果集 , 而是查询出来数据后立马对结果集进行操作,也就是便查询边返回,这样就不会出现超出内存的现象,但是使用mysql_unbuffered_query的是时候不能使用 mysql_num_rows() 和 mysql_data_seek() 。并且向 MySQL 发送一条新的 SQL 查询之前,必须提取掉所有未缓存的 SQL 查询所产生的结果行 。例如:
使用缓存结果集的代码:
function selecttest()
{
try {
$pdo = new PDO("mysql:host=localhost;dbname=test", 'root', '123456');
//不使用缓存结果集方式
//$pdo-setAttribute(PDO::MYSQL_ATTR_USE_BUFFERED_QUERY, false);
$sth = $pdo-prepare('select * from test');
【php如何解决百万数据 php处理百万数据方案】$sth-execute();
echo '最初占用内存大?。? . memory_get_usage() . "\n";
$i = 0;
while ($result = $sth-fetch(PDO::FETCH_ASSOC)) {
$i= 1;
if ($i10) {
break;
}
sleep(1);
print_r($result);
echo '占用内存大?。? . memory_get_usage() . "\n";
}
} catch (Exception $e) {
echo $e-getMessage();
}
}
执行时将会报超出内存的错误:
Fatal error: Allowed memory size of 134217728 bytes exhausted (tried to allocate 204800000 bytes) in E:\ProgramDevelopment\RuntimeEnvironment\xampp\htdocs\test\test.php on line 56
Call Stack:
0.00051353921. {main}() E:\ProgramDevelopment\RuntimeEnvironment\xampp\htdocs\test\test.php:0
0.00051355682. test-selecttest() E:\ProgramDevelopment\RuntimeEnvironment\xampp\htdocs\test\test.php:85
0.00501425283. PDOStatement-execute() E:\ProgramDevelopment\RuntimeEnvironment\xampp\htdocs\test\test.php:56
将上面代码中的$pdo-setAttribute(PDO::MYSQL_ATTR_USE_BUFFERED_QUERY, false);一行的注释去掉后将不在缓存结果集,这时运行该函数的结果如下:
最初占用内存大?。?44808
Array
(
[id] = 1
[a] = v
[b] = w
[c] = i
)
占用内存大?。?45544
Array
(
[id] = 2
[a] = b
[b] = l
[c] = q
)
占用内存大?。?45544
Array
(
[id] = 3
[a] = m
[b] = p
[c] = h
)
占用内存大?。?45536
Array
(
[id] = 4
[a] = j
[b] = i
[c] = b
)
占用内存大?。?45536
可以看到,这时返回一条数据内存占用非常的小,也就700多字节,这样就不会出现超出内存的错误了 。
php mysql 如何优化千万级数据模糊查询加快关于mysql处理百万级以上的数据时如何提高其查询速度的方法
最近一段时间由于工作需要,开始关注针对Mysql数据库的select查询语句的相关优化方法 。
由于在参与的实际项目中发现当mysql表的数据量达到百万级时,普通SQL查询效率呈直线下降 , 而且如果where中的查询条件较多时,其查询速度简直无法容忍 。曾经测试对一个包含400多万条记录(有索引)的表执行一条条件查询,其查询时间竟然高达40几秒,相信这么高的查询延时,任何用户都会抓狂 。因此如何提高sql语句查询效率,显得十分重要 。以下是网上流传比较广泛的30种SQL查询语句优化方法:
1、应尽量避免在 where 子句中使用!=或操作符 , 否则将引擎放弃使用索引而进行全表扫描 。
2、对查询进行优化 , 应尽量避免全表扫描,首先应考虑在 where 及 order by 涉及的列上建立索引 。
3、应尽量避免在 where 子句中对字段进行 null 值判断,否则将导致引擎放弃使用索引而进行全表扫描,如:
select id from t where num is null
可以在num上设置默认值0,确保表中num列没有null值,然后这样查询:
select id from t where num=0
4、尽量避免在 where 子句中使用 or 来连接条件 , 否则将导致引擎放弃使用索引而进行全表扫描,如:
select id from t where num=10 or num=20
可以这样查询:
select id from t where num=10
union all
select id from t where num=20
5、下面的查询也将导致全表扫描:(不能前置百分号)
select id from t where name like ‘%c%’
若要提高效率,可以考虑全文检索 。
6、in 和 not in 也要慎用,否则会导致全表扫描 , 如:
select id from t where num in(1,2,3)
对于连续的数值,能用 between 就不要用 in 了:
select id from t where num between 1 and 3
7、如果在 where 子句中使用参数,也会导致全表扫描 。因为SQL只有在运行时才会解析局部变量,但优化程序不能将访问计划的选择推迟到运行时;它必须在编译时进行选择 。然 而,如果在编译时建立访问计划,变量的值还是未知的,因而无法作为索引选择的输入项 。如下面语句将进行全表扫描:
select id from t where num=@num
可以改为强制查询使用索引:
select id from t with(index(索引名)) where num=@num
8、应尽量避免在 where 子句中对字段进行表达式操作,这将导致引擎放弃使用索引而进行全表扫描 。如:
select id from t where num/2=100
应改为:
select id from t where num=100*2
9、应尽量避免在where子句中对字段进行函数操作,这将导致引擎放弃使用索引而进行全表扫描 。如:
select id from t where substring(name,1,3)=’abc’–name以abc开头的id
select id from t where datediff(day,createdate,’2005-11-30′)=0–’2005-11-30′生成的id
应改为:
select id from t where name like ‘abc%’
select id from t where createdate=’2005-11-30′ and createdate’2005-12-1′
10、不要在 where 子句中的“=”左边进行函数、算术运算或其他表达式运算,否则系统将可能无法正确使用索引 。
11、在使用索引字段作为条件时 , 如果该索引是复合索引,那么必须使用到该索引中的第一个字段作为条件时才能保证系统使用该索引,否则该索引将不会被使 用 , 并且应尽可能的让字段顺序与索引顺序相一致 。
12、不要写一些没有意义的查询,如需要生成一个空表结构:
select col1,col2 into #t from t where 1=0
这类代码不会返回任何结果集,但是会消耗系统资源的,应改成这样:
create table #t(…)
13、很多时候用 exists 代替 in 是一个好的选择:
select num from a where num in(select num from b)
用下面的语句替换:
select num from a where exists(select 1 from b where num=a.num)
14、并不是所有索引对查询都有效 , SQL是根据表中数据来进行查询优化的,当索引列有大量数据重复时,SQL查询可能不会去利用索引,如一表中有字段 sex,male、female几乎各一半 , 那么即使在sex上建了索引也对查询效率起不了作用 。
15、索引并不是越多越好,索引固然可以提高相应的 select 的效率,但同时也降低了 insert 及 update 的效率,因为 insert 或 update 时有可能会重建索引,所以怎样建索引需要慎重考虑 , 视具体情况而定 。一个表的索引数最好不要超过6个,若太多则应考虑一些不常使用到的列上建的索引是否有 必要 。
16.应尽可能的避免更新 clustered 索引数据列,因为 clustered 索引数据列的顺序就是表记录的物理存储顺序,一旦该列值改变将导致整个表记录的顺序的调整,会耗费相当大的资源 。若应用系统需要频繁更新 clustered 索引数据列,那么需要考虑是否应将该索引建为 clustered 索引 。
17、尽量使用数字型字段,若只含数值信息的字段尽量不要设计为字符型,这会降低查询和连接的性能,并会增加存储开销 。这是因为引擎在处理查询和连接时会 逐个比较字符串中每一个字符,而对于数字型而言只需要比较一次就够了 。
18、尽可能的使用 varchar/nvarchar 代替 char/nchar,因为首先变长字段存储空间?。梢越谑〈娲⒖占? ,其次对于查询来说,在一个相对较小的字段内搜索效率显然要高些 。
19、任何地方都不要使用 select * from t,用具体的字段列表代替“*”,不要返回用不到的任何字段 。
20、尽量使用表变量来代替临时表 。如果表变量包含大量数据 , 请注意索引非常有限(只有主键索引) 。
21、避免频繁创建和删除临时表,以减少系统表资源的消耗 。
22、临时表并不是不可使用,适当地使用它们可以使某些例程更有效,例如,当需要重复引用大型表或常用表中的某个数据集时 。但是,对于一次性事件,最好使 用导出表 。
23、在新建临时表时 , 如果一次性插入数据量很大,那么可以使用 select into 代替 create table,避免造成大量 log,以提高速度;如果数据量不大,为了缓和系统表的资源,应先create table , 然后insert 。
24、如果使用到了临时表,在存储过程的最后务必将所有的临时表显式删除,先 truncate table,然后 drop table ,这样可以避免系统表的较长时间锁定 。
25、尽量避免使用游标 , 因为游标的效率较差,如果游标操作的数据超过1万行,那么就应该考虑改写 。
26、使用基于游标的方法或临时表方法之前,应先寻找基于集的解决方案来解决问题,基于集的方法通常更有效 。
27、与临时表一样 , 游标并不是不可使用 。对小型数据集使用 FAST_FORWARD 游标通常要优于其他逐行处理方法,尤其是在必须引用几个表才能获得所需的数据时 。在结果集中包括“合计”的例程通常要比使用游标执行的速度快 。如果开发时 间允许 , 基于游标的方法和基于集的方法都可以尝试一下,看哪一种方法的效果更好 。
28、在所有的存储过程和触发器的开始处设置 SET NOCOUNT ON ,在结束时设置 SET NOCOUNT OFF。无需在执行存储过程和触发器的每个语句后向客户端发送 DONE_IN_PROC 消息 。
29、尽量避免向客户端返回大数据量,若数据量过大,应该考虑相应需求是否合理 。
30、尽量避免大事务操作,提高系统并发能力 。
PHP如何解决网站的大数据大流量与高并发使用缓存,比如memcache,redis,因为它们是在内存中运行,所以处理数据,返回数据非常快,所以可以应对高并发 。
2.增加带宽和机器性能 , 1M的带宽同时处理的流量肯定有限,所以在资源允许的情况下 , 大带宽,多核cpu,高内存是一个解决方案 。
3.分布式 , 让多个访问分到不同的机器上去处理,每个机器处理的请求就相对减少了 。
简单说些常用技术 , 负载均衡,限流,加速器等
PHP效率问题,上万条数据一次性取出?还是分开取出处理?显示数据还是更新(update)数据,都是先处理一部分数据,完成后再处理下一步数据 更有效率 。
显示数据取出部分数据的方法最常用的是分页方式,分页是仅读取前面的几十页信息,读取数据库是很快的,可以比较一下10条和100条的显示速度 , 差很远 。
更新(update)数据也不能一次性处理大量数据,那样经常会出现页面死定的情况,可以设置更新一定数据后跳转到下一步再更新一定数据,大多数cms更新数据都是采用这种方式 。
无需显示直接读取表内所有数据生成HTML页面时,不论是取出全部数据直接生成有效率 , 还是一次取出一部分,分别处理有效率 。
php如何解决百万数据的介绍就聊到这里吧,感谢你花时间阅读本站内容,更多关于php处理百万数据方案、php如何解决百万数据的信息别忘了在本站进行查找喔 。

    推荐阅读