Python使用clickhouse-local和MySQL表函数实现从MySQL到ClickHouse数据同步

news2025/6/7 12:31:06

下面是一个使用clickhouse-local和MySQL表函数实现从MySQL到ClickHouse数据同步的Python解决方案,包含全量同步、增量同步和测试用例。

此解决方案提供了生产级数据同步所需的核心功能,可根据具体场景扩展更多高级特性如:数据转换、字段映射、类型转换等。

设计思路

  1. 全量同步:首次运行时将MySQL表完整导入ClickHouse
  2. 增量同步:基于增量字段(如自增ID或时间戳)同步新增数据
  3. 状态管理:使用JSON文件记录同步位置
  4. 错误处理:完善的日志和异常处理机制
import subprocess
import json
import os
import logging
from configparser import ConfigParser

# 配置日志
logging.basicConfig(
    level=logging.INFO,
    format='%(asctime)s - %(levelname)s - %(message)s',
    handlers=[logging.StreamHandler()]
)
logger = logging.getLogger(__name__)

class MySQLToClickHouseSync:
    def __init__(self, config_path='config.ini'):
        self.config = self._load_config(config_path)
        self.state_file = self.config['state_file']
        self.last_state = self._load_state()

    def _load_config(self, path):
        """加载配置文件"""
        config = ConfigParser()
        config.read(path)
        return {
            'mysql': dict(config['mysql']),
            'clickhouse': dict(config['clickhouse']),
            'state_file': config['general']['state_file']
        }

    def _load_state(self):
        """加载同步状态"""
        try:
            if os.path.exists(self.state_file):
                with open(self.state_file, 'r') as f:
                    return json.load(f)
            return {'last_id': 0, 'last_timestamp': '1970-01-01 00:00:00'}
        except Exception as e:
            logger.error(f"加载状态失败: {e}")
            return {'last_id': 0, 'last_timestamp': '1970-01-01 00:00:00'}

    def _save_state(self, state):
        """保存同步状态"""
        try:
            with open(self.state_file, 'w') as f:
                json.dump(state, f)
            logger.info(f"状态已保存: {state}")
        except Exception as e:
            logger.error(f"保存状态失败: {e}")

    def run_clickhouse_command(self, query):
        """执行clickhouse-local命令"""
        cmd = [
            'clickhouse-local',
            '--query', query
        ]
        try:
            result = subprocess.run(
                cmd,
                stdout=subprocess.PIPE,
                stderr=subprocess.PIPE,
                text=True,
                check=True
            )
            logger.debug(f"命令执行成功: {cmd}\n输出: {result.stdout}")
            return True
        except subprocess.CalledProcessError as e:
            logger.error(f"命令执行失败: {cmd}\n错误: {e.stderr}")
            return False

    def full_sync(self):
        """全量数据同步"""
        mysql = self.config['mysql']
        ch = self.config['clickhouse']
        
        query = f"""
        CREATE TABLE {ch['table']} ENGINE = MergeTree ORDER BY id AS
        SELECT *
        FROM mysql('{mysql['host']}:{mysql['port']}', 
                   '{mysql['database']}', 
                   '{mysql['table']}', 
                   '{mysql['user']}', 
                   '{mysql['password']}')
        """
        
        logger.info("开始全量同步...")
        if self.run_clickhouse_command(query):
            # 获取最新ID作为增量起点
            max_id_query = f"""
            SELECT max(id) 
            FROM mysql('{mysql['host']}:{mysql['port']}', 
                      '{mysql['database']}', 
                      '{mysql['table']}', 
                      '{mysql['user']}', 
                      '{mysql['password']}')
            """
            cmd = ['clickhouse-local', '--query', max_id_query]
            result = subprocess.run(cmd, capture_output=True, text=True)
            if result.returncode == 0:
                new_state = {'last_id': int(result.stdout.strip())}
                self._save_state(new_state)
                self.last_state = new_state
            logger.info("全量同步完成")
            return True
        return False

    def incremental_sync(self):
        """增量数据同步"""
        mysql = self.config['mysql']
        ch = self.config['clickhouse']
        last_id = self.last_state.get('last_id', 0)
        
        query = f"""
        INSERT INTO {ch['table']}
        SELECT *
        FROM mysql('{mysql['host']}:{mysql['port']}', 
                   '{mysql['database']}', 
                   '{mysql['table']}', 
                   '{mysql['user']}', 
                   '{mysql['password']}')
        WHERE id > {last_id}
        """
        
        logger.info(f"开始增量同步, 最后ID: {last_id}")
        if self.run_clickhouse_command(query):
            # 获取新增的最大ID
            new_max_query = f"""
            SELECT max(id) 
            FROM mysql('{mysql['host']}:{mysql['port']}', 
                      '{mysql['database']}', 
                      '{mysql['table']}', 
                      '{mysql['user']}', 
                      '{mysql['password']}')
            WHERE id > {last_id}
            """
            cmd = ['clickhouse-local', '--query', new_max_query]
            result = subprocess.run(cmd, capture_output=True, text=True)
            if result.returncode == 0 and result.stdout.strip():
                new_id = int(result.stdout.strip())
                if new_id > last_id:
                    self._save_state({'last_id': new_id})
                    self.last_state = {'last_id': new_id}
                    logger.info(f"增量同步完成, 新最后ID: {new_id}")
                else:
                    logger.info("没有新数据需要同步")
            return True
        return False

# 配置文件示例 (config.ini)
"""
[general]
state_file = sync_state.json

[mysql]
host = 127.0.0.1
port = 3306
database = test_db
table = source_table
user = root
password = mysqlpass

[clickhouse]
table = default.target_table
"""

if __name__ == "__main__":
    sync = MySQLToClickHouseSync()
    
    # 首次运行全量同步
    if not sync.last_state.get('last_id'):
        sync.full_sync()
    
    # 后续增量同步
    sync.incremental_sync()

测试用例

import unittest
import sqlite3
from unittest.mock import patch, MagicMock
import tempfile
import os
import json

class TestMySQLToClickHouseSync(unittest.TestCase):
    def setUp(self):
        self.config = {
            'state_file': 'test_state.json',
            'mysql': {
                'host': '127.0.0.1',
                'port': '3306',
                'database': 'test_db',
                'table': 'source_table',
                'user': 'root',
                'password': 'pass'
            },
            'clickhouse': {
                'table': 'target_table'
            }
        }
        
        # 创建临时状态文件
        self.state_file = tempfile.NamedTemporaryFile(delete=False)
        self.config['state_file'] = self.state_file.name
        
    def tearDown(self):
        os.unlink(self.state_file.name)
    
    def test_full_sync(self):
        """测试全量同步"""
        with patch.object(MySQLToClickHouseSync, '_load_config', return_value=self.config), \
             patch.object(MySQLToClickHouseSync, '_load_state', return_value={'last_id': 0}), \
             patch('subprocess.run') as mock_run:
            
            # 模拟clickhouse-local成功执行
            mock_run.return_value = MagicMock(returncode=0, stdout="100")
            
            sync = MySQLToClickHouseSync()
            result = sync.full_sync()
            
            # 验证命令执行
            self.assertTrue(mock_run.called)
            self.assertTrue(result)
            
            # 验证状态更新
            with open(self.state_file.name) as f:
                state = json.load(f)
                self.assertEqual(state['last_id'], 100)

    def test_incremental_sync(self):
        """测试增量同步"""
        # 初始状态
        with open(self.state_file.name, 'w') as f:
            json.dump({'last_id': 50}, f)
        
        with patch.object(MySQLToClickHouseSync, '_load_config', return_value=self.config), \
             patch('subprocess.run') as mock_run:
            
            # 模拟获取新最大ID为75
            mock_run.side_effect = [
                MagicMock(returncode=0),  # INSERT执行
                MagicMock(returncode=0, stdout="75")  # SELECT max(id)
            ]
            
            sync = MySQLToClickHouseSync()
            result = sync.incremental_sync()
            
            # 验证命令执行
            self.assertEqual(mock_run.call_count, 2)
            self.assertTrue(result)
            
            # 验证状态更新
            with open(self.state_file.name) as f:
                state = json.load(f)
                self.assertEqual(state['last_id'], 75)

    def test_no_new_data(self):
        """测试无新数据的情况"""
        with open(self.state_file.name, 'w') as f:
            json.dump({'last_id': 100}, f)
        
        with patch.object(MySQLToClickHouseSync, '_load_config', return_value=self.config), \
             patch('subprocess.run') as mock_run:
            
            # 模拟返回空结果
            mock_run.side_effect = [
                MagicMock(returncode=0),
                MagicMock(returncode=0, stdout="")
            ]
            
            sync = MySQLToClickHouseSync()
            result = sync.incremental_sync()
            
            self.assertTrue(result)
            # 状态应保持不变
            self.assertEqual(sync.last_state['last_id'], 100)

    def test_command_failure(self):
        """测试命令执行失败"""
        with patch.object(MySQLToClickHouseSync, '_load_config', return_value=self.config), \
             patch('subprocess.run') as mock_run:
            
            mock_run.side_effect = subprocess.CalledProcessError(
                1, "cmd", output="", stderr="Error"
            )
            
            sync = MySQLToClickHouseSync()
            result = sync.full_sync()
            
            self.assertFalse(result)

if __name__ == '__main__':
    unittest.main()

使用说明

  1. 安装依赖:
pip install configparser
  1. 准备配置文件 (config.ini):
[general]
state_file = sync_state.json

[mysql]
host = 127.0.0.1
port = 3306
database = your_db
table = source_table
user = root
password = your_mysql_password

[clickhouse]
table = default.target_table
  1. 创建ClickHouse表 (自动创建):
-- 首次运行时会自动创建表
-- 表结构自动从MySQL继承
  1. 运行同步:
# 首次运行(全量同步)
python sync.py

# 后续运行(增量同步)
python sync.py

关键特性

  1. 高效同步

    • 使用clickhouse-local直接管道传输,无需中间存储
    • 批量数据加载,避免逐行插入
  2. 增量同步机制

    • 基于自增ID的增量检测
    • 支持时间戳字段(需修改WHERE条件)
  3. 状态管理

    • JSON文件记录最后同步位置
    • 支持异常恢复
  4. 错误处理

    • 详细日志记录
    • 子进程错误捕获
    • 状态文件异常处理
  5. 配置驱动

    • 所有参数通过配置文件管理
    • 敏感信息与代码分离

性能优化建议

  1. 大表分批次同步
# 在全量同步中增加分页逻辑
BATCH_SIZE = 100000
for offset in range(0, total_count, BATCH_SIZE):
    query = f"SELECT * FROM ... LIMIT {BATCH_SIZE} OFFSET {offset}"
  1. 使用时间戳增量
# 修改增量查询条件
WHERE update_time > '{last_timestamp}'
  1. 并行处理
# 使用ThreadPoolExecutor并行处理不同数据分区
from concurrent.futures import ThreadPoolExecutor
  1. 压缩传输
# 在命令中添加压缩选项
clickhouse-local --query "..." | gzip | clickhouse-client --query "INSERT ..."

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2402894.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Linux文件系统详解:从入门到精通

无论是开发高性能应用还是进行系统级编程,文件系统都是我们必须掌握的基础知识。今天,我将带大家深入浅出地了解Linux文件系统的核心概念和工作原理。 一、Linux文件系统概述 Linux文件系统是操作系统中负责管理持久存储设备上数据的子系统。它不仅仅是…

Electron Fiddle使用笔记

文章目录 下载界面示意图保存和打开项目save 和 save as forge project 其他文档打包报错 RequestError: read ECONNRESET 想要打包前端程序,奈何本地环境总是报错,意外发现可以通过electron fiddle直接调试代码。 下载 百度网盘地址: 首次…

企业培训学习考试系统源码 ThinkPHP框架+Uniapp支持多终端适配部署

在数字化转型浪潮下,企业对高效培训与精准考核的需求日益迫切。一套功能完备、多终端适配且易于定制的培训学习考试系统,成为企业提升员工能力、检验培训成果的关键工具。本文给大家分享一款基于 ThinkPHP 框架与 Uniapp 开发的企业培训学习考试系统&…

SpringBoot手动实现流式输出方案整理以及SSE规范输出详解

背景: 最近做流式输出时,一直使用python实现的,应需求方的要求,需要通过java应用做一次封装并在java侧完成系统鉴权、模型鉴权等功能后才能真正去调用智能体应用,基于此调研java实现流式输出的几种方式,并…

深入解析I²C总线接口:从基础到应用

IC总线概述与基本概念 一句话概述:本章节将介绍IC总线的历史、定义及其在嵌入式系统中的作用,帮助读者建立对IC的基本理解。 IC(Inter-Integrated Circuit)总线是一种广泛应用于嵌入式系统中的串行通信协议,最初由飞利…

Sklearn 机器学习 缺失值处理 检测数据每列的缺失值

💖亲爱的技术爱好者们,热烈欢迎来到 Kant2048 的博客!我是 Thomas Kant,很开心能在代码与灵感交织的数字世界里和大家相遇~💖 ✨ 在这个技术浪潮奔涌的时代,我们既是探索者,也是分享者。我始终相信,每一行代码都是通往创新的钥匙,而分享则能让这把钥匙照亮更多人的…

STL解析——list的使用

目录 1.简介 2.构造函数 3.迭代器 3.1封装 3.2迭代器分类 4.排序性能 4.1链式与数组 4.2缓存读取 1.简介 STL容器中提供的list容器也是一种顺序容器,底层实现方式是带头双向链表,这种实现方式能比单链表更高效的访问数据。 下面围绕部分重要接口…

MQTTX连接阿里云的物联网配置

本文的目标是通过MQTTX的客户端,连接到阿里云的物联网的平台,发送温度信息,在阿里云的平台中显示出来。阿里云免费注册,免费有一个MQTT的服务器。有数量限制,但是对于测试来讲,已经足够。 1、注册阿里云的物…

20250606-C#知识:匿名函数、Lambda表达式与闭包

C#知识&#xff1a;匿名方法、Lambda表达式与闭包 闭包乍一听感觉很复杂&#xff0c;其实一点也不简单 1、匿名方法 没有方法名的方法一般用于委托和事件 Func<int, int, int> myAction delegate(int a, int b) { return a b; }; Console.WriteLine( myAction(1, 2)…

衡量嵌入向量的相似性的方法

衡量嵌入向量的相似性的方法 一、常见相似性计算方法对比 方法核心原理公式优点缺点适用场景余弦相似度计算向量夹角的余弦值,衡量方向相似性,与向量长度无关。$\text{cos}\theta = \frac{\mathbf{a} \cdot \mathbf{b}}{\mathbf{a}\mathbf{b}欧氏距离计算向量空间中的直线距离…

API是什么意思?如何实现开放API?

目录 一、API 是什么 &#xff08;一&#xff09;API 的定义 &#xff08;二&#xff09;API 的作用 二、API 的类型 &#xff08;一&#xff09;Web API 1. RESTful API 2. SOAP API &#xff08;二&#xff09;操作系统 API &#xff08;三&#xff09;数据库 API …

Python训练第四十六天

DAY 46 通道注意力(SE注意力) 知识点回顾&#xff1a; 不同CNN层的特征图&#xff1a;不同通道的特征图什么是注意力&#xff1a;注意力家族&#xff0c;类似于动物园&#xff0c;都是不同的模块&#xff0c;好不好试了才知道。通道注意力&#xff1a;模型的定义和插入的位置通…

第2天:认识LSTM

&#x1f368; 本文为&#x1f517;365天深度学习训练营 中的学习记录博客&#x1f356; 原作者&#xff1a;K同学啊 目标 具体实现 &#xff08;一&#xff09;环境 语言环境&#xff1a;Python 3.10 编 译 器: PyCharm 框 架: pytorch &#xff08;二&#xff09;具体步骤…

自动化提示生成框架(AutoPrompt)

自动化提示生成框架(AutoPrompt) 一、核心创新点 自动化提示生成框架(AutoPrompt) 创新本质:提出基于梯度引导搜索的自动化提示生成方法,替代人工设计模板的传统模式。技术路径: 将提示视为可训练的离散token序列,通过优化提示向量(prompt embedding)搜索语义空间。利…

中国首套1公里高分辨率大气湿度指数数据集(2003~2020)

时间分辨率&#xff1a;月空间分辨率&#xff1a;100m - 1km共享方式&#xff1a;开放获取数据大小&#xff1a;34.79 GB数据时间范围&#xff1a;2003-01-01 — 2020-12-31元数据更新时间&#xff1a;2023-07-26 数据集摘要 中国首套1公里高分辨率大气湿度指数数据集&#xf…

计算机视觉顶刊《International Journal of Computer Vision》2025年5月前沿热点可视化分析

追踪计算机视觉领域的前沿热点是把握技术发展方向、推动创新落地的关键&#xff0c;分析这些热点&#xff0c;不仅能洞察技术趋势&#xff0c;更能为科研选题和工程实践提供重要参考。本文对计算机视觉顶刊《International Journal of Computer Vision》2025年5月前沿热点进行了…

python学习打卡day45

DAY 45 Tensorboard使用介绍 知识点回顾&#xff1a; tensorboard的发展历史和原理tensorboard的常见操作tensorboard在cifar上的实战&#xff1a;MLP和CNN模型 效果展示如下&#xff0c;很适合拿去组会汇报撑页数&#xff1a; 作业&#xff1a;对resnet18在cifar10上采用微调策…

Verilog编程技巧01——如何编写三段式状态机

前言 Verilog编程技巧系列文章将聚焦于介绍Verilog的各种编程范式或者说技巧&#xff0c;编程技巧和编程规范有部分重合&#xff0c;但并非完全一样。规范更注重编码的格式&#xff0c;像变量命名、缩进、注释风格等&#xff0c;而编程技巧则更偏重更直观易读、更便于维护、综合…

智启未来:当知识库遇见莫奈的调色盘——API工作流重构企业服务美学

目录 引言 一、初识蓝耘元生代MaaS平台 1.1 平台架构 1.2 平台的优势 1.3 应用场景 二、手把手教你如何在蓝耘进行注册 &#xff08;1&#xff09;输入手机号&#xff0c;将验证码正确填入即可快速完成注册 &#xff08;2&#xff09;进入下面的页面表示已经成功注册&…

如何在 Windows 11 中永久更改默认浏览器:阻止 Edge 占据主导地位

在 Windows 11 中更改默认浏览器对于新手或技术不太熟练的用户来说可能会令人沮丧。 为什么要在 Windows 11 中更改默认浏览器? 这是一个重要的问题:你为什么要从 Microsoft Edge 切换过来? 生态系统集成:如果你已经在广泛使用 Google 服务,Chrome 可以提供无缝集成。同…