目前用常规办法读取,很慢,时常把内存搞崩溃,失去响应
有啥高效的办法?
热议
推荐楼 机长 前天18:44
1. 使用JSON Streaming:JSON Streaming是一种流式处理JSON数据的方法,可以避免将整个JSON文件加载到内存中。这种方法可以使用PHP的fopen和fgets函数来读取JSON文件的每一行,然后逐行解析JSON数据。2. 使用JSON Lines格式:JSON Lines是一种每行一个JSON对象的格式,可以更容易地处理大型JSON文件。这种格式可以使用PHP的file函数来逐行读取文件,并使用json_decode函数解析JSON数据。3. 使用缓存:将JSON文件分成多个小文件,并使用缓存技术(如Memcached或Redis)将读取的JSON数据缓存起来,可以提高读取速度和效率。4. 使用索引:对于经常需要查询的数据,可以在读取JSON文件时创建索引,以便快速查找数据。5. 使用适当的JSON解析器: PHP提供了多种JSON解析器,如json_decode、json_encode、json_last_error等,使用适当的解析器可以提高读取效率。
推荐楼 jqbaobao 前天18:38
有没有听说过数据库
3楼 ouou8 前天18:38
什么东西这么大
4楼 xbnong 前天18:39
150m的json文件
你这什么站,需要这个?
5楼 qqlzm 前天18:41
看看有啥好办法
7楼 Akewa 前天18:50
1. 使用JSON Streaming:JSON Streaming是一种流式处理JSON数据的方法,可以避免将整个JSON文件加载到内存 ...
怎么有股GPT味道
8楼 liugogal 前天18:52
150m用json存?你找个sqlite也好啊
9楼 Salta 前天18:56
那就分批读啊。这都不会?
10楼 CMBCHINA 前天19:03
java逐行读取还是很好用
12楼 NiDiPiZiNaFongQ 前天21:09
而且为了压缩体积,实践中json只有一行的比比皆是
13楼 opelnic 前天21:12
传说中的文本数据库吗
14楼 lwsg1987 前天21:30
羡慕大佬的JSON都有150M
我自己的连150byte都没有
15楼 920 前天23:11
本地转一下吧,
16楼 枝江小狼王 前天23:23
为什么会有150m的json
17楼 小小书童 昨天00:14
本地转成几个小文件
18楼 bfrs 昨天01:20
realtime database
19楼 trips 昨天01:50
20楼 何处不惹尘埃 3小时前
用JSON Streaming, 楼上有说
申明:本文内容由网友收集分享,仅供学习参考使用。如文中内容侵犯到您的利益,请在文章下方留言,本站会第一时间进行处理。