简介:MySQL数据库与ElasticSearch全文检索的同步,通过binlog的设置对MySQL数据库操作的日志进行记录,利用Python模块对日志进行操作,再利用kafka的生产者消费者模式进行订阅,最终实现MySQL与ElasticSearch间数据的同步。
视频地址:
- mysql与elasticsearch同步1-数据库binlog的设置及python读取
- mysql与elasticsearch同步2-kafka生产者消费者模式消费binlog
- mysql与elasticsearch同步3-elasticsearch的增删改同步数据库
博客地址:
目录
mysql -u root -p
show global variables like "%binlog%";
show binlog events;
set global binlog_format="ROW";
create database readerBinlog default charset=utf8;
use readerBinlog;
create table mytable(id int(11), name varchar(20));
insert into table mytable values(1, "孙大圣");
mysql> use readerbinlog;
Database changed
mysql> select * from mytable;
+------+------+
| id | name |
+------+------+
| 1 | sds |
| 2 | zbj |
+------+------+
2 rows in set (0.00 sec)
![]()
pip3 install mysql-replication
【MySQL】Server-id导致Slave_IO_Running: No主从复制故障_ITPUB博客
(1236, 'Misconfigured master - server id was not set')
- mysql> SET GLOBAL server_id=3028;
- Query OK, 0 rows affected (0.00 sec)
from pymysqlreplication import BinLogStreamReader
from pymysqlreplication.row_event import (
DeleteRowsEvent,
UpdateRowsEvent,
WriteRowsEvent,
)
import json
import sys
MYSQL_SETTINGS = {
"host": "localhost",
"user": "root",
"password": "root"
}
stream = BinLogStreamReader(connection_settings=MYSQL_SETTINGS,
server_id=2,
blocking=True,
only_schemas="readerbinlog",
only_events=[WriteRowsEvent, UpdateRowsEvent, DeleteRowsEvent])
print(stream)
for binlogstream in stream:
for row in binlogstream.rows:
print("========================")
print(row)
zookeeper下载地址:Index of /zookeeper
kafka下载地址:Apache Kafka
cd windows
dir
kafka-server-start
kafka-server-start ..\..\config\server.properties
kafka-console-producer --broker-list localhost:9092 --topic test
kafka-console-consumer --bootstrap-server localhost:9092 --topic test
pip3 install kafka-python
from kafka import KafkaConsumer
consumer = KafkaConsumer("message", bootstrap_servers=["localhost:9092"])
for mess in consumer:
print(mess.value.decode("utf8"))
from kafka import KafkaProducer
# 实例化生产者
producer = KafkaProducer(bootstrap_servers=["localhost:9092"])
producer.send("message", "kafka信息".encode())
producer.close()
from kafka import KafkaProducer
import json
# 实例化生产者
producer = KafkaProducer(bootstrap_servers=["localhost:9092"])
from pymysqlreplication import BinLogStreamReader
from pymysqlreplication.row_event import (
DeleteRowsEvent,
UpdateRowsEvent,
WriteRowsEvent,
)
MYSQL_SETTINGS = {
"host": "localhost",
"user": "root",
"password": "root"
}
stream = BinLogStreamReader(connection_settings=MYSQL_SETTINGS,
server_id=4,
blocking=True,
only_schemas="readerbinlog",
only_events=[WriteRowsEvent, UpdateRowsEvent, DeleteRowsEvent])
# print(stream)
for binlogstream in stream:
for row in binlogstream.rows:
# print("========================")
# print(row)
row_json = json.dumps(row, ensure_ascii=False)
producer.send("message", row_json.encode())
producer.close()
import pymysql
from elasticsearch import Elasticsearch
def get_data():
# 连接数据库
conn = pymysql.connect(host="localhost", port=3306, user="root", password="root", database="readerbinlog")
# 设置游标
cursor = conn.cursor()
# 执行sql语句,查找数据库中的所有的记录
sql = "select * from mytable"
cursor.execute(sql)
# 获取执行sql语句后的所有结果
results = cursor.fetchall()
# 返回从数据库中取出的数据
return results
def write_elasticsearch():
# es = Elasticsearch()
es = Elasticsearch(['http://localhost:9100'])
try:
results = get_data()
for row in results:
print(row)
res = {
"id": row[0],
"name": row[1]
}
# es.index(index="westjourney", doc_type="test-type", id=row[0], body=res)
es.index(index="westjourney", doc_type="test-type", id=row[0], body=res)
except Exception as e:
print(e)
if __name__ == "__main__":
# print(get_data())
write_elasticsearch()
pip3 install elasticsearch
谷歌浏览器es head插件。
import pymysql
from elasticsearch import Elasticsearch
def get_data():
# 连接数据库
conn = pymysql.connect(host="localhost", port=3306, user="root", password="root", database="readerbinlog")
# 设置游标
cursor = conn.cursor()
# 执行sql语句,查找数据库中的所有的记录
sql = "select * from mytable"
cursor.execute(sql)
# 获取执行sql语句后的所有结果
results = cursor.fetchall()
# 返回从数据库中取出的数据
return results
def write_elasticsearch():
# es = Elasticsearch()
es = Elasticsearch(['http://localhost:9100'])
try:
results = get_data()
for row in results:
print(row)
res = {
"id": row[0],
"name": row[1]
}
# es.index(index="westjourney", doc_type="test-type", id=row[0], body=res)
es.index(index="westjourney", doc_type="test-type", id=row[0], body=res)
except Exception as e:
print(e)
if __name__ == "__main__":
# print(get_data())
write_elasticsearch()
from kafka import KafkaConsumer
import json
from elasticsearch import Elasticsearch
consumer = KafkaConsumer("message", bootstrap_servers=["localhost:9092"])
es = Elasticsearch()
for mess in consumer:
# print(mess.value.decode("utf8"))
# 传进来的数据需要进行json转换
result = json.loads(mess.value.decode("utf8"))
# print(event["event"])
event = result["event"]
if event == "insert":
result_values = result["values"]
es.index(index="westjourney", doc_type="test-type", id=result_values["id"], body=result_values)
print("添加数据成功!")
elif event == "update":
# 注意更新操作,body内容要加入一个doc键,指示的内容就是要修改的内容
result_values = result["after_values"]
es.update(index="westjourney", doc_type="test-type", id=result_values["id"], body={"doc": result_values})
print("更新数据成功!")
elif event == "delete":
result_id = result["values"]["id"]
es.delete(index="westjourney", doc_type="test-type", id=result_id)
print("删除数据成功!")
from kafka import KafkaProducer
# 实例化生产者
producer = KafkaProducer(bootstrap_servers=["localhost:9092"])
producer.send("message", "kafka信息".encode())
producer.close()
from kafka import KafkaProducer
import json
# 实例化生产者
producer = KafkaProducer(bootstrap_servers=["localhost:9092"])
from pymysqlreplication import BinLogStreamReader
from pymysqlreplication.row_event import (
DeleteRowsEvent,
UpdateRowsEvent,
WriteRowsEvent,
)
MYSQL_SETTINGS = {
"host": "localhost",
"user": "root",
"password": "root"
}
stream = BinLogStreamReader(connection_settings=MYSQL_SETTINGS,
server_id=4,
blocking=True,
only_schemas="readerbinlog",
only_events=[WriteRowsEvent, UpdateRowsEvent, DeleteRowsEvent])
# print(stream)
for binlogstream in stream:
for row in binlogstream.rows:
# print("========================")
# print(row)
if isinstance(binlogstream, WriteRowsEvent):
row["event"] = "insert"
elif isinstance(binlogstream, UpdateRowsEvent):
row["event"] = "update"
elif isinstance(binlogstream, DeleteRowsEvent):
row["event"] = "delete"
row_json = json.dumps(row, ensure_ascii=False)
producer.send("message", row_json.encode())
producer.close()
import pymysql
from elasticsearch import Elasticsearch
def get_data():
# 连接数据库
conn = pymysql.connect(host="localhost", port=3306, user="root", password="root", database="readerbinlog")
# 设置游标
cursor = conn.cursor()
# 执行sql语句,查找数据库中的所有的记录
sql = "select * from mytable"
cursor.execute(sql)
# 获取执行sql语句后的所有结果
results = cursor.fetchall()
# 返回从数据库中取出的数据
return results
def write_elasticsearch():
# es = Elasticsearch()
es = Elasticsearch(['http://localhost:9100'])
try:
results = get_data()
for row in results:
print(row)
res = {
"id": row[0],
"name": row[1]
}
# es.index(index="westjourney", doc_type="test-type", id=row[0], body=res)
es.index(index="westjourney", doc_type="test-type", id=row[0], body=res)
except Exception as e:
print(e)
if __name__ == "__main__":
# print(get_data())
write_elasticsearch()
/*
SQLyog Ultimate v12.08 (64 bit)
MySQL - 5.5.40-log : Database - readerbinlog
*********************************************************************
*/
/*!40101 SET NAMES utf8 */;
/*!40101 SET SQL_MODE=''*/;
/*!40014 SET @OLD_UNIQUE_CHECKS=@@UNIQUE_CHECKS, UNIQUE_CHECKS=0 */;
/*!40014 SET @OLD_FOREIGN_KEY_CHECKS=@@FOREIGN_KEY_CHECKS, FOREIGN_KEY_CHECKS=0 */;
/*!40101 SET @OLD_SQL_MODE=@@SQL_MODE, SQL_MODE='NO_AUTO_VALUE_ON_ZERO' */;
/*!40111 SET @OLD_SQL_NOTES=@@SQL_NOTES, SQL_NOTES=0 */;
CREATE DATABASE /*!32312 IF NOT EXISTS*/`readerbinlog` /*!40100 DEFAULT CHARACTER SET utf8 */;
USE `readerbinlog`;
/*Table structure for table `mytable` */
DROP TABLE IF EXISTS `mytable`;
CREATE TABLE `mytable` (
`id` int(11) DEFAULT NULL,
`name` varchar(20) DEFAULT NULL
) ENGINE=InnoDB DEFAULT CHARSET=utf8;
/*Data for the table `mytable` */
insert into `mytable`(`id`,`name`) values (1,'sds'),(2,'zbj'),(3,'lsls'),(4,'shdjsh'),(5,'宋壹');
/*!40101 SET SQL_MODE=@OLD_SQL_MODE */;
/*!40014 SET FOREIGN_KEY_CHECKS=@OLD_FOREIGN_KEY_CHECKS */;
/*!40014 SET UNIQUE_CHECKS=@OLD_UNIQUE_CHECKS */;
/*!40111 SET SQL_NOTES=@OLD_SQL_NOTES */;
ヾ(◍°∇°◍)ノ゙加油~
我主要使用Ruby来执行此操作,但到目前为止我的攻击计划如下:使用gemsrdf、rdf-rdfa和rdf-microdata或mida来解析给定任何URI的数据。我认为最好映射到像schema.org这样的统一模式,例如使用这个yaml文件,它试图描述数据词汇表和opengraph到schema.org之间的转换:#SchemaXtoschema.orgconversion#data-vocabularyDV:name:namestreet-address:streetAddressregion:addressRegionlocality:addressLocalityphoto:i
有时我需要处理键/值数据。我不喜欢使用数组,因为它们在大小上没有限制(很容易不小心添加超过2个项目,而且您最终需要稍后验证大小)。此外,0和1的索引变成了魔数(MagicNumber),并且在传达含义方面做得很差(“当我说0时,我的意思是head...”)。散列也不合适,因为可能会不小心添加额外的条目。我写了下面的类来解决这个问题:classPairattr_accessor:head,:taildefinitialize(h,t)@head,@tail=h,tendend它工作得很好并且解决了问题,但我很想知道:Ruby标准库是否已经带有这样一个类? 最佳
我正在尝试使用Curbgem执行以下POST以解析云curl-XPOST\-H"X-Parse-Application-Id:PARSE_APP_ID"\-H"X-Parse-REST-API-Key:PARSE_API_KEY"\-H"Content-Type:image/jpeg"\--data-binary'@myPicture.jpg'\https://api.parse.com/1/files/pic.jpg用这个:curl=Curl::Easy.new("https://api.parse.com/1/files/lion.jpg")curl.multipart_form_
无论您是想搭建桌面端、WEB端或者移动端APP应用,HOOPSPlatform组件都可以为您提供弹性的3D集成架构,同时,由工业领域3D技术专家组成的HOOPS技术团队也能为您提供技术支持服务。如果您的客户期望有一种在多个平台(桌面/WEB/APP,而且某些客户端是“瘦”客户端)快速、方便地将数据接入到3D应用系统的解决方案,并且当访问数据时,在各个平台上的性能和用户体验保持一致,HOOPSPlatform将帮助您完成。利用HOOPSPlatform,您可以开发在任何环境下的3D基础应用架构。HOOPSPlatform可以帮您打造3D创新型产品,HOOPSSDK包含的技术有:快速且准确的CAD
本教程将在Unity3D中混合Optitrack与数据手套的数据流,在人体运动的基础上,添加双手手指部分的运动。双手手背的角度仍由Optitrack提供,数据手套提供双手手指的角度。 01 客户端软件分别安装MotiveBody与MotionVenus并校准人体与数据手套。MotiveBodyMotionVenus数据手套使用、校准流程参照:https://gitee.com/foheart_1/foheart-h1-data-summary.git02 数据转发打开MotiveBody软件的Streaming,开始向Unity3D广播数据;MotionVenus中设置->选项选择Unit
文章目录一、概述简介原理模块二、配置Mysql使用版本环境要求1.操作系统2.mysql要求三、配置canal-server离线下载在线下载上传解压修改配置单机配置集群配置分库分表配置1.修改全局配置2.实例配置垂直分库水平分库3.修改group-instance.xml4.启动监听四、配置canal-adapter1修改启动配置2配置映射文件3启动ES数据同步查询所有订阅同步数据同步开关启动4.验证五、配置canal-admin一、概述简介canal是Alibaba旗下的一款开源项目,Java开发。基于数据库增量日志解析,提供增量数据订阅&消费。Git地址:https://github.co
我正在尝试在Rails上安装ruby,到目前为止一切都已安装,但是当我尝试使用rakedb:create创建数据库时,我收到一个奇怪的错误:dyld:lazysymbolbindingfailed:Symbolnotfound:_mysql_get_client_infoReferencedfrom:/Library/Ruby/Gems/1.8/gems/mysql2-0.3.11/lib/mysql2/mysql2.bundleExpectedin:flatnamespacedyld:Symbolnotfound:_mysql_get_client_infoReferencedf
文章目录1.开发板选择*用到的资源2.串口通信(个人理解)3.代码分析(注释比较详细)1.主函数2.串口1配置3.串口2配置以及中断函数4.注意问题5.源码链接1.开发板选择我用的是STM32F103RCT6的板子,不过代码大概在F103系列的板子上都可以运行,我试过在野火103的霸道板上也可以,主要看一下串口对应的引脚一不一样就行了,不一样的就更改一下。*用到的资源keil5软件这里用到了两个串口资源,采集数据一个,串口通信一个,板子对应引脚如下:串口1,TX:PA9,RX:PA10串口2,TX:PA2,RX:PA32.串口通信(个人理解)我就从串口采集传感器数据这个过程说一下我自己的理解,
SPI接收数据左移一位问题目录SPI接收数据左移一位问题一、问题描述二、问题分析三、探究原理四、经验总结最近在工作在学习调试SPI的过程中遇到一个问题——接收数据整体向左移了一位(1bit)。SPI数据收发是数据交换,因此接收数据时从第二个字节开始才是有效数据,也就是数据整体向右移一个字节(1byte)。请教前辈之后也没有得到解决,通过在网上查阅前人经验终于解决问题,所以写一个避坑经验总结。实际背景:MCU与一款芯片使用spi通信,MCU作为主机,芯片作为从机。这款芯片采用的是它规定的六线SPI,多了两根线:RDY和INT,这样从机就可以主动请求主机给主机发送数据了。一、问题描述根据从机芯片手
前言一般来说,前端根据后台返回code码展示对应内容只需要在前台判断code值展示对应的内容即可,但要是匹配的code码比较多或者多个页面用到时,为了便于后期维护,后台就会使用字典表让前端匹配,下面我将在微信小程序中通过wxs的方法实现这个操作。为什么要使用wxs?{{method(a,b)}}可以看到,上述代码是一个调用方法传值的操作,在vue中很常见,多用于数据之间的转换,但由于微信小程序诸多限制的原因,你并不能优雅的这样操作,可能有人会说,为什么不用if判断实现呢?但是if判断的局限性在于如果存在数据量过大时,大量重复性操作和if判断会让你的代码显得异常冗余。wxswxs相当于是一个独立