扫码关注官方订阅号
有个需求在一台服务器上查询出一些数据,然后推送到另一台服务器上。查询出的数据大概一万多条,用浏览器执行php curl的时候,过一段时间浏览器就跳到--无法显示该页--上,curl的过期时间还有php脚本执行时间都调的很大,应该不是这两个到期了。如果数据量小就没问题,求解这是什么原因
走同样的路,发现不同的人生
curl有两个超时参数--connect-timeout <seconds> 尝试连接的最大时长-m/--max-time <seconds> 处理的最大时长另外也可能是数据量大小的问题,需要在php.ini里设置max_input_time 每个PHP页面接收数据所需的最大时间memory_limit 每个PHP页面所吃掉的最大内存
你要看是哪里查询的问题还是推送的问题。。
php脚本执行时间调再长都没用 因为通常php超时是由于php-fpm超时引起的 尝试修改php-fpm超时时间
一般网络传输都有一个量的限制,比如文件下载,很多都是用了类似断点续传的道理,请求也是,看看你自己的业务需求,怎么多次获取数据,比如常用的分页等等。在量能正常操作的时候,一次性处理当然是最经济的。
你一次推送的数据太多了,还是做个队列,从里面取出一定的数据,然后post到另一台服务上吧,改大参数但是执行起来还是很耗时间和资源的
这个问题几年前遇到过,PHP post数据貌似超过了64M(印象中)post就没办法把数据传输过去,所以你的数据最好做一下分段。
微信扫码关注PHP中文网服务号
QQ扫码加入技术交流群
Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号
PHP学习
技术支持
返回顶部
curl有两个超时参数
--connect-timeout <seconds> 尝试连接的最大时长
-m/--max-time <seconds> 处理的最大时长
另外也可能是数据量大小的问题,需要在php.ini里设置
max_input_time 每个PHP页面接收数据所需的最大时间
memory_limit 每个PHP页面所吃掉的最大内存
你要看是哪里查询的问题还是推送的问题。。
php脚本执行时间调再长都没用
因为通常php超时是由于php-fpm超时引起的 尝试修改php-fpm超时时间
一般网络传输都有一个量的限制,比如文件下载,很多都是用了类似断点续传的道理,请求也是,看看你自己的业务需求,怎么多次获取数据,比如常用的分页等等。在量能正常操作的时候,一次性处理当然是最经济的。
你一次推送的数据太多了,还是做个队列,从里面取出一定的数据,然后post到另一台服务上吧,改大参数但是执行起来还是很耗时间和资源的
这个问题几年前遇到过,PHP post数据貌似超过了64M(印象中)post就没办法把数据传输过去,所以你的数据最好做一下分段。