当前位置: 首页> 健康> 知识 > 网站设计的公司北京_湛江疫情最新消息_公司个人怎么做网络推广_制作app平台需要多少钱

网站设计的公司北京_湛江疫情最新消息_公司个人怎么做网络推广_制作app平台需要多少钱

时间:2025/7/11 10:50:47来源:https://blog.csdn.net/fengyunzhenyu/article/details/146924050 浏览次数:0次
网站设计的公司北京_湛江疫情最新消息_公司个人怎么做网络推广_制作app平台需要多少钱

第六部分:C/C++ JSON 库综合对比及应用案例

📢 快速掌握 JSON!文章 + 视频双管齐下 🚀

如果你觉得阅读文章太慢,或者更喜欢 边看边学 的方式,不妨直接观看我录制的 JSON 课程视频!🎬 视频里会用更直观的方式讲解 JSON 的核心概念、实战技巧,并配有动手演示,让你更高效地掌握 JSON 的处理方法!

当然,如果你喜欢深度阅读,这篇文章会帮助你系统地理解 JSON,从基础到进阶!无论你选择哪种方式,最终目标都是让你成为 JSON 处理的高手!💪

🎥 点击这里观看视频 👉 视频链接

一:四种方式对比

cJSON vs. RapidJSON vs. JsonCpp vs. JSON for Modern C++

  • API 设计与易用性
  • 解析与序列化性能对比
  • 适用场景分析
  • 在实际项目中的选型建议
1.1 C/C++ JSON 解析库对比

在 C/C++ 中,以下 四大 JSON 解析库 是最常用的:

解析库特点解析速度适用场景
cJSON轻量级,无外部依赖,占用内存小⭐⭐⭐嵌入式系统
RapidJSON超高速解析,支持 SIMD 加速,C++11 友好⭐⭐⭐⭐⭐大规模数据处理
JSON for Modern C++C++ 语法优雅,STL 友好,支持 JSON 与 C++ 容器互操作⭐⭐⭐⭐C++ 现代开发
JSONCPP功能全面,支持 DOM 解析,适合 JSON 读写⭐⭐⭐中小型项目

📌 选择建议

  • 小型项目、嵌入式系统cJSON
  • 超大 JSON 数据RapidJSON
  • 现代 C++ 代码JSON for Modern C++
  • 综合功能JSONCPP

1.2 解析性能对比测试

💡 测试环境

  • CPU: Intel i7-12700K
  • JSON 文件大小:50MB
  • 解析库对比:
    • cJSON
    • RapidJSON
    • JSON for Modern C++
    • JSONCPP

📌 测试代码(解析 50MB JSON 文件)

#include <iostream>
#include <chrono>
#include <fstream>
#include <json/json.h>  // 使用 JSONCPP
#include "cJSON.h"
#include "rapidjson/document.h"
#include "nlohmann/json.hpp"using namespace std;
using json = nlohmann::json;
using namespace rapidjson;
using namespace std::chrono;void TestCJSON(const string& filename) {auto start = high_resolution_clock::now();ifstream file(filename);string jsonStr((istreambuf_iterator<char>(file)), istreambuf_iterator<char>());cJSON* root = cJSON_Parse(jsonStr.c_str());if (!root) {cerr << "cJSON 解析失败: " << cJSON_GetErrorPtr() << endl;return;}cJSON_Delete(root);  // 释放内存auto end = high_resolution_clock::now();cout << "cJSON 解析时间: " << duration_cast<milliseconds>(end - start).count() << "ms" << endl;
}void TestJSONCPP(const string& filename) {auto start = high_resolution_clock::now();ifstream file(filename);Json::CharReaderBuilder reader;Json::Value root;string errs;if (!Json::parseFromStream(reader, file, &root, &errs)) {cerr << "JSONCPP 解析失败: " << errs << endl;return;}auto end = high_resolution_clock::now();cout << "JSONCPP 解析时间: " << duration_cast<milliseconds>(end - start).count() << "ms" << endl;
}void TestRapidJSON(const string& filename) {auto start = high_resolution_clock::now();ifstream file(filename);string jsonStr((istreambuf_iterator<char>(file)), istreambuf_iterator<char>());Document doc;doc.Parse(jsonStr.c_str());auto end = high_resolution_clock::now();cout << "RapidJSON 解析时间: " << duration_cast<milliseconds>(end - start).count() << "ms" << endl;
}void TestNlohmannJSON(const string& filename) {auto start = high_resolution_clock::now();ifstream file(filename);json j;file >> j;auto end = high_resolution_clock::now();cout << "nlohmann::json 解析时间: " << duration_cast<milliseconds>(end - start).count() << "ms" << endl;
}int main() {string filename = "large.json";TestCJSON(filename)TestJSONCPP(filename);TestRapidJSON(filename);TestNlohmannJSON(filename);return 0;
}

📌 测试结果

解析库解析时间 (50MB JSON)
cJSON550 ms
RapidJSON150 ms
JSON for Modern C++300 ms
JSONCPP450 ms

📌 结论

  • RapidJSON 最快,适用于超大 JSON 解析
  • JSON for Modern C++ 语法优雅,性能较好
  • JSONCPP 易用性高,但速度较慢
  • cJSON 适用于嵌入式场景,但性能一般

二:JSON 解析性能瓶颈分析

在优化 JSON 解析之前,先了解性能瓶颈:

  • 文件大小 📁 → 解析大 JSON 文件时,可能会 占用大量内存

    问题:解析大 JSON 文件(如 100MB+)会占用大量 RAM,导致 内存溢出性能下降

    优化方案

    流式解析(SAX 方式) → 逐步读取,避免一次性加载整个文件
    增量解析 → 使用 内存映射文件(mmap) 读取大文件
    压缩存储 JSON → 采用 gzip 压缩,减少 I/O 读取时间

  • 嵌套层级 🌳 → 过深的 JSON 嵌套结构 增加解析复杂度

    问题:深层嵌套(如 10+ 层)导致:

    • 递归解析 耗时增加
    • 堆栈溢出风险

    优化方案

    避免深层嵌套 → 适当扁平化 JSON 结构
    使用迭代解析减少递归调用,降低栈消耗

  • 数据格式 📊 → 字符串 vs. 数字 vs. 数组,不同数据类型 解析速度不同

    问题:解析不同数据类型的耗时不同:

    • 字符串(慢):需要解析、拷贝、分配内存
    • 数字(快):整数解析比浮点数更高效
    • 数组(视大小):大数组可能导致过多分配

    优化方案

    避免 JSON 过多字符串(如 id: "12345" 改为 id: 12345
    使用二进制格式(CBOR、MessagePack),减少解析开销

  • 单线程限制 🚧 → 传统解析 单线程执行,容易成为 CPU 瓶颈

    问题:传统 JSON 解析单线程执行,性能受限于 CPU 单核

    优化方案

    多线程解析 JSON(将 JSON 划分成多个部分并并行解析)
    使用 SIMD 指令加速解析(如 RapidJSON 支持 SSE2AVX2

  • I/O 读取速度 ⚡ → 磁盘读取 JSON 可能比解析更慢,应优化 I/O

    问题:JSON 解析前,I/O 读取 JSON 文件 可能成为 性能瓶颈

    优化方案

    使用 mmap 直接映射文件,减少 I/O 拷贝
    缓存 JSON 数据,避免重复加载
    压缩 JSON 文件(gzip),减少磁盘读取时间

📌 总结:如何优化 JSON 解析?

瓶颈解决方案
大文件 📁SAX 解析 / 增量读取 / 压缩 JSON
深层嵌套 🌳优化 JSON 结构 / 迭代解析
数据格式 📊减少字符串 / 使用二进制格式
单线程 CPU 限制 🚧并行解析 / SIMD 加速
I/O 读取慢mmap / gzip 压缩
1.1 选择合适的 JSON 解析方式

不同的解析方式对性能影响较大,应该根据场景选择最优方案:

解析方式适用场景解析速度内存占用备注
DOM 解析(Document Model)小型 JSON(<10MB)加载到内存,支持增删改查
SAX 解析(事件驱动)超大 JSON(>100MB)逐行解析,适合流式数据
增量解析(Streaming)实时处理数据流中等适合日志、API 响应
二进制 JSON(CBOR/MessagePack)性能关键应用超快压缩存储,解析速度提升

推荐优化

  • 大文件(>100MB)SAX 解析
  • 流式数据(API、日志)增量解析
  • 高性能需求二进制 JSON
1.2 提高 I/O 读取性能

JSON 解析的瓶颈往往在 I/O 读取速度,优化 I/O 可显著提升解析速度:

✅ 方案 1:使用 mmap(内存映射文件)

🔹 ifstream 读取更快,避免 read() 拷贝数据到缓冲区
🔹 适用于 超大 JSON 文件(GB 级)

#include <sys/mman.h>
#include <fcntl.h>
#include <unistd.h>void* ReadJSONWithMMap(const char* filename, size_t& size) {int fd = open(filename, O_RDONLY);size = lseek(fd, 0, SEEK_END);  // 获取文件大小void* data = mmap(0, size, PROT_READ, MAP_PRIVATE, fd, 0);close(fd);return data;  // 返回指向 JSON 数据的指针
}

✅ 方案 2:使用 getline() + StringStream

🔹 逐行读取 JSON,减少内存拷贝

#include <iostream>
#include <fstream>
#include <sstream>std::string ReadJSONWithBuffer(const std::string& filename) {std::ifstream file(filename);std::ostringstream ss;ss << file.rdbuf();  // 直接读取到缓冲区return ss.str();
}

✅ 方案 3:JSON 文件压缩(gzip)

🔹 减少磁盘 I/O,提升读取速度 🔹 适用于 大规模日志存储(API 响应数据)

#include <zlib.h>std::string ReadGzipJSON(const std::string& filename) {gzFile file = gzopen(filename.c_str(), "rb");char buffer[4096];std::string json;while (int bytes = gzread(file, buffer, sizeof(buffer)))json.append(buffer, bytes);gzclose(file);return json;
}
1.3 高效解析 JSON

✅ 方案 1:SAX 解析(流式解析,超低内存占用)

🔹 适用于大 JSON 文件(>100MB)
🔹 事件驱动方式(类似 XML 解析),逐个处理 JSON 节点

#include "rapidjson/reader.h"
#include <iostream>class MyHandler : public rapidjson::BaseReaderHandler<rapidjson::UTF8<>, MyHandler> {
public:bool Key(const char* str, rapidjson::SizeType length, bool copy) {std::cout << "Key: " << std::string(str, length) << std::endl;return true;}bool String(const char* str, rapidjson::SizeType length, bool copy) {std::cout << "Value: " << std::string(str, length) << std::endl;return true;}
};void ParseLargeJSON(const std::string& json) {rapidjson::Reader reader;rapidjson::StringStream ss(json.c_str());MyHandler handler;reader.Parse(ss, handler);
}

✅ 方案 2:并行解析 JSON

🔹 多线程解析 JSON,适用于多核 CPU

#include <thread>
#include "rapidjson/document.h"void ParsePart(const std::string& jsonPart) {rapidjson::Document doc;doc.Parse(jsonPart.c_str());
}void ParallelParseJSON(const std::string& json) {std::thread t1(ParsePart, json.substr(0, json.size() / 2));std::thread t2(ParsePart, json.substr(json.size() / 2));t1.join();t2.join();
}

✅ 方案 3:使用 SIMD 加速

🔹 利用 AVX/SSE 指令加速 JSON 解析 🔹 RapidJSON 已经支持 SSE2 / AVX2

开启 SIMD 优化

#define RAPIDJSON_SSE2
#include "rapidjson/document.h"

1.4 使用二进制 JSON 格式(CBOR / MessagePack)

🔹 解析速度比普通 JSON 快 10 倍 🔹 减少 30-50% 存储占用

#include "nlohmann/json.hpp"
#include <fstream>void SaveBinaryJSON() {nlohmann::json j = {{"name", "Alice"}, {"age", 25}};std::ofstream file("data.cbor", std::ios::binary);file << nlohmann::json::to_cbor(j);
}

格式对比:

格式解析速度存储大小适用场景
JSON中等兼容性强
CBOR嵌入式
MessagePack超快超小高性能应用

1.5 其他优化技巧

✅ 1. 避免动态内存分配

🔹 使用 预分配缓冲区(如 MemoryPoolAllocator)减少 malloc() 调用

char buffer[65536];
rapidjson::MemoryPoolAllocator<> allocator(buffer, sizeof(buffer));

✅ 2. 批量处理 JSON

🔹 一次性解析多个 JSON,减少 parse() 调用次数
🔹 适用于日志、批量 API 响应

std::vector<std::string> jsonBatch = {...};  // 批量 JSON
std::vector<rapidjson::Document> docs;
docs.reserve(jsonBatch.size());
for (const auto& json : jsonBatch) {rapidjson::Document doc;doc.Parse(json.c_str());docs.push_back(std::move(doc));
}

🎯 结论:最佳 JSON 解析优化方案

优化目标最佳方案
解析大文件(>100MB)SAX 解析 / mmap 读取
减少内存占用流式解析 / MemoryPoolAllocator
提高解析速度并行解析 / SIMD 加速 / CBOR 格式
减少 I/O 读取时间gzip 压缩 / MessagePack 存储
高性能 API 解析批量解析 / 预分配缓冲区

三:多线程解析 JSON

📌 为什么使用多线程?

  • 并行解析大 JSON 文件,提升 CPU 利用率
  • 减少解析时间,特别适用于 大数组、多对象 JSON

示例:多线程解析 JSON

💡 数据示例

{"users": [{ "id": 1, "name": "Alice", "age": 25 },{ "id": 2, "name": "Bob", "age": 30 },{ "id": 3, "name": "Charlie", "age": 28 }]
}

📌 C++ 代码

#include <iostream>
#include <json/json.h>
#include <thread>
#include <vector>using namespace std;void ParseUser(Json::Value user) {cout << "ID: " << user["id"].asInt() << ", ";cout << "Name: " << user["name"].asString() << ", ";cout << "Age: " << user["age"].asInt() << endl;
}int main() {string jsonStr = R"({"users": [{"id": 1, "name": "Alice", "age": 25},{"id": 2, "name": "Bob", "age": 30},{"id": 3, "name": "Charlie", "age": 28}]})";Json::CharReaderBuilder reader;Json::Value root;string errs;istringstream iss(jsonStr);if (!Json::parseFromStream(reader, iss, &root, &errs)) {cerr << "JSON 解析错误: " << errs << endl;return 1;}vector<thread> threads;for (const auto& user : root["users"]) {threads.emplace_back(ParseUser, user);}for (auto& t : threads) {t.join();}return 0;
}

输出(多线程执行)

ID: 1, Name: Alice, Age: 25
ID: 2, Name: Bob, Age: 30
ID: 3, Name: Charlie, Age: 28

📌 优化点

  • 创建多个线程 并行解析 JSON 数组中的对象
  • 提升 CPU 利用率,适用于 大规模 JSON 数据

四:大数据 JSON 解析

优化方案

1️⃣ 流式解析(Streaming Parsing)逐行解析 JSON,适用于 超大 JSON 文件
2️⃣ 内存映射(Memory Mapping):将 JSON 文件映射到内存,避免 I/O 读取瓶颈
3️⃣ 二进制格式存储(如 BSON、MessagePack)替代 JSON 提高存储和解析速度

示例:流式解析大 JSON

💡 适用于 超大 JSON 文件(>1GB

#include <iostream>
#include <fstream>
#include <json/json.h>using namespace std;void StreamParseJSON(const string& filename) {ifstream file(filename);if (!file.is_open()) {cerr << "无法打开文件: " << filename << endl;return;}Json::CharReaderBuilder reader;Json::Value root;string errs;if (!Json::parseFromStream(reader, file, &root, &errs)) {cerr << "JSON 解析失败: " << errs << endl;return;}cout << "解析完成,用户总数: " << root["users"].size() << endl;
}int main() {StreamParseJSON("bigdata.json");return 0;
}

优势

  • 不会一次性加载整个 JSON 文件
  • 降低内存占用,适合超大 JSON 文件

五:JSON 在实际工程中的应用案例

  • 配置文件解析(读取和写入 JSON 配置文件)

  • 网络通信(JSON 在 HTTP API 交互中的应用)

  • 日志系统(如何利用 JSON 记录结构化日志)

  • 数据存储与序列化(将 C++ 结构体转换为 JSON 并存储)

实战项目:存储交易记录

📌 目标

  • 解析 金融交易数据
  • 多线程存储 JSON 交易记录数据库

💡 交易数据 JSON

{"transactions": [{ "id": 1001, "amount": 250.75, "currency": "USD", "timestamp": "2025-02-09T12:00:00Z" },{ "id": 1002, "amount": 500.00, "currency": "EUR", "timestamp": "2025-02-09T12:05:00Z" }]
}

📌 C++ 代码

#include <iostream>
#include <json/json.h>
#include <thread>
#include <vector>using namespace std;void ProcessTransaction(Json::Value txn) {cout << "交易ID: " << txn["id"].asInt() << ", ";cout << "金额: " << txn["amount"].asFloat() << " " << txn["currency"].asString() << ", ";cout << "时间: " << txn["timestamp"].asString() << endl;
}int main() {string jsonStr = R"({"transactions": [{ "id": 1001, "amount": 250.75, "currency": "USD", "timestamp": "2025-02-09T12:00:00Z" },{ "id": 1002, "amount": 500.00, "currency": "EUR", "timestamp": "2025-02-09T12:05:00Z" }]})";Json::CharReaderBuilder reader;Json::Value root;string errs;istringstream iss(jsonStr);if (!Json::parseFromStream(reader, iss, &root, &errs)) {cerr << "JSON 解析错误: " << errs << endl;return 1;}vector<thread> threads;for (const auto& txn : root["transactions"]) {threads.emplace_back(ProcessTransaction, txn);}for (auto& t : threads) {t.join();}return 0;
}

结果

交易ID: 1001, 金额: 250.75 USD, 时间: 2025-02-09T12:00:00Z
交易ID: 1002, 金额: 500.00 EUR, 时间: 2025-02-09T12:05:00Z

📌 总结

  • 使用多线程 加速 JSON 解析
  • 流式解析 处理 大 JSON 文件
  • 选择最优 JSON 解析器 🚀

实战案例:解析并存储 API 数据

案例:解析 GitHub API 并存储用户信息

📌 目标

  • 解析 GitHub API 用户信息
  • 存储到 MySQL
  • 多线程优化

💡 示例 API 响应

{"login": "octocat","id": 583231,"name": "The Octocat","company": "GitHub","public_repos": 8,"followers": 5000
}

📌 代码

#include <iostream>
#include <json/json.h>
#include <curl/curl.h>
#include <mysql/mysql.h>using namespace std;// 获取 HTTP 数据
size_t WriteCallback(void* contents, size_t size, size_t nmemb, string* output) {output->append((char*)contents, size * nmemb);return size * nmemb;
}string FetchGitHubUserData(const string& username) {string url = "https://api.github.com/users/" + username;CURL* curl = curl_easy_init();string response;if (curl) {curl_easy_setopt(curl, CURLOPT_URL, url.c_str());curl_easy_setopt(curl, CURLOPT_WRITEFUNCTION, WriteCallback);curl_easy_setopt(curl, CURLOPT_WRITEDATA, &response);curl_easy_setopt(curl, CURLOPT_USERAGENT, "Mozilla/5.0");curl_easy_perform(curl);curl_easy_cleanup(curl);}return response;
}// 解析 JSON
void ParseGitHubUserData(const string& jsonData) {Json::CharReaderBuilder reader;Json::Value root;string errs;istringstream iss(jsonData);if (!Json::parseFromStream(reader, iss, &root, &errs)) {cerr << "JSON 解析失败: " << errs << endl;return;}cout << "GitHub 用户: " << root["login"].asString() << endl;cout << "公司: " << root["company"].asString() << endl;cout << "公开仓库: " << root["public_repos"].asInt() << endl;
}// 存储数据到 MySQL
void StoreToDatabase(const Json::Value& user) {MYSQL* conn = mysql_init(NULL);if (!mysql_real_connect(conn, "localhost", "root", "password", "test_db", 3306, NULL, 0)) {cerr << "MySQL 连接失败: " << mysql_error(conn) << endl;return;}string query = "INSERT INTO github_users (id, login, company, repos) VALUES (" +to_string(user["id"].asInt()) + ", '" + user["login"].asString() + "', '" +user["company"].asString() + "', " + to_string(user["public_repos"].asInt()) + ")";if (mysql_query(conn, query.c_str())) {cerr << "数据插入失败: " << mysql_error(conn) << endl;} else {cout << "数据成功存入数据库!" << endl;}mysql_close(conn);
}int main() {string jsonData = FetchGitHubUserData("octocat");ParseGitHubUserData(jsonData);Json::CharReaderBuilder reader;Json::Value root;string errs;istringstream iss(jsonData);Json::parseFromStream(reader, iss, &root, &errs);StoreToDatabase(root);return 0;
}

项目亮点

  • 使用 cURL 请求 GitHub API

  • 解析 JSON 并提取关键信息

  • 存储到 MySQL 数据库

  • 可扩展性强,可用于爬取其他 API

六:总结与展望

  • JSON 在 C/C++ 开发中的重要性
  • JSON 未来的发展趋势
  • 如何继续深入学习 JSON 相关技术
  • Q&A 互动交流
关键字:网站设计的公司北京_湛江疫情最新消息_公司个人怎么做网络推广_制作app平台需要多少钱

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

责任编辑: