扫码关注官方订阅号
写了一个api数据采集的php程序放到服务器,但是数据量巨大,总是会采集超时。请问可以有什么解决方案?有没有办法设置超时之后自动刷新,从断点重新开始运行程序?
认证高级PHP讲师
采集工作不要使用浏览器进行程序访问 , 使用命令行模式没有超时的情况, 但是使用命令行模式要注意内存的释放,否则会有存在内存溢出的错误, 如果使用浏览器进行程序执行入口 需要增加分页跳转功能, 采集完几个地址后自动跳转一下, 这样就避免超时了 set_time_limit 如果可以调的话可以调的大一点 (补充一点:超时后自动刷新这个没办法实现,超时了程序就已经终止了,只能认为刷新, 从断点开始继续采集这个是有办法的, 每次采集开始时记录一下当前采集链接,结束时把当前采集链接状态设为完成状态,重新开始采集的时候程序自动检测一下这个日志,从有记录的地方开始采集就可以了)
微信扫码关注PHP中文网服务号
QQ扫码加入技术交流群
Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号
PHP学习
技术支持
返回顶部
采集工作不要使用浏览器进行程序访问 , 使用命令行模式没有超时的情况, 但是使用命令行模式要注意内存的释放,否则会有存在内存溢出的错误, 如果使用浏览器进行程序执行入口 需要增加分页跳转功能, 采集完几个地址后自动跳转一下, 这样就避免超时了 set_time_limit 如果可以调的话可以调的大一点
(补充一点:超时后自动刷新这个没办法实现,超时了程序就已经终止了,只能认为刷新, 从断点开始继续采集这个是有办法的, 每次采集开始时记录一下当前采集链接,结束时把当前采集链接状态设为完成状态,重新开始采集的时候程序自动检测一下这个日志,从有记录的地方开始采集就可以了)