| IP地址 | HOSTNAME | NodeID | 角色 |
| 172.16.16.241 | incubator-test-dc-001 | presto-cdh01 | coordinator |
| 172.16.16.246 | incubator-test-dc-002 | presto-cdh02 | worker |
| 172.16.16.250 | incubator-test-dc-003 | presto-cdh03 | worker |
| 172.16.16.242 | incubator-test-dc-004 | presto-cdh04 | worker |
| 172.16.16.249 | incubator-test-dc-005 | presto-cdh05 | worker |
配置项说明:coordinator:指定是否运维Presto实例作为一个coordinator(接收来自客户端的查询情切管理每个查询的执行过程)。node-scheduler.include-coordinator:是否允许在coordinator服务中进行调度工作。对于大型的集群,在一个节点上的Presto server即作为coordinator又作为worke将会降低查询性能。因为如果一个服务器作为worker使用,那么大部分的资源都不会被worker占用,那么就不会有足够的资源进行关键任务调度、管理和监控查询执行。http-server.http.port:指定HTTP server的端口。Presto 使用 HTTP进行内部和外部的所有通讯。discovery.uri:Discoveryserver的URI。由于启用了Prestocoordinator内嵌的Discovery 服务,因此这个uri就是Prestocoordinator的uri。修改example.net:80,根据你的实际环境设置该URI。注意:这个URI一定不能以“/“结尾。
/opt/cloudera/parcels/presto/bin/launcher stop停止
3.修改presto的jvm.config,在配置文件中增加Presto访问HDFS的用户名vim /opt/cloudera/parcels/presto/etc/jvm.config添加-DHADOOP_USER_NAME=presto
4.上面的配置中指定了presto用户作为访问HDFS的用户,需要在集群所有节点添加presto用户useradd presto
修改完后重启presto/opt/cloudera/parcels/presto/bin/launcher restart(所有集群机器执行)
3.集群启用了Sentry,这里我们使用presto用户访问Hive所以为presto用户授权default库的所有权限
打开配置-添加分区
Ctrl+S保存重启服务[root@incubator-test-dc-002 presto_hue]# /etc/init.d/apacheds-2.0.0.AM25-default restartStopping ApacheDS - default...Stopped ApacheDS - default.Starting ApacheDS - default...[root@incubator-test-dc-002 presto_hue]#
添加组
添加
#添加用户

/var/lib/apacheds-2.0.0.AM25/default/conf/ads.keystore
#测试presto-ldapscd /data/presto-server-0.228/etc/opt/jdk1.8.0_181/bin/keytool -genkeypair -alias presto -keyalg RSA -keystore presto.jks修改config.properties,添加http-server.authentication.type=PASSWORDhttp-server.https.enabled=truehttp-server.https.port=8443http-server.https.keystore.path=/data/presto-server-0.228/etc/presto.jkshttp-server.https.keystore.key=testCDH123!
vim alluxio-site.properties更新conf/alluxio-site.properties中的alluxio.master.hostname为你将运行Alluxio Master的机器的主机名。添加所有worker节点的IP地址到conf/workers文件alluxio.home=/opt/cloudera/parcels/alluxio/alluxio-2.0.1alluxio.work.dir=/opt/cloudera/parcels/alluxio/alluxio-2.0.1alluxio.conf.dir=${alluxio.home}/confalluxio.logs.dir=${alluxio.home}/logsalluxio.master.mount.table.root.ufs=hdfs://incubator-test-dc-001:8020/alluxio#hdfs挂载地址alluxio.metrics.conf.file=${alluxio.conf.dir}/metrics.propertiesalluxio.master.hostname=incubator-test-dc-001alluxio.underfs.address=hdfs://incubator-test-dc-001:8020/alluxioalluxio.underfs.hdfs.configuration=/etc/hadoop/conf/core-site.xmlalluxio.master.bind.host=172.16.16.241alluxio.master.journal.folder=/opt/cloudera/parcels/alluxio/alluxio-2.0.1/journalalluxio.master.web.bind.host=172.16.16.241alluxio.master.web.hostname=incubator-test-dc-001alluxio.master.web.port=6661alluxio.worker.bind.host=0.0.0.0alluxio.worker.memory.size=2048MBalluxio.worker.tieredstore.levels=1alluxio.worker.tieredstore.level0.alias=MEMalluxio.worker.tieredstore.level0.dirs.path=/mnt/ramdiskJAVA_HOME=/usr/java/jdk1.8.0_181-clouderaalluxio.user.network.netty.timeout.ms=600000alluxio.master.security.impersonation.presto.users=*
vim workers172.16.16.246172.16.16.250172.16.16.242172.16.16.249
vim masters
cd /opt/cloudera/parcels/alluxio/alluxio-2.0.1/binvim alluxio-masters.sh添加-p 53742
cd /opt/cloudera/parcels/alluxio/alluxio-2.0.1/binvim alluxio-workers.sh搜索ssh添加-p 53742
[root@incubator-test-dc-001 bin]# ln -s /opt/jdk1.8.0_181/bin/java /usr/bin/java[root@incubator-test-dc-001 bin]# /usr/bin/java -versionjava version "1.8.0_181"Java(TM) SE Runtime Environment (build 1.8.0_181-b13)Java HotSpot(TM) 64-Bit Server VM (build 25.181-b13, mixed mode)[root@incubator-test-dc-001 bin]#
cd /opt/cloudera/parcels/alluxio/alluxio-2.0.1/bin[root@incubator-test-dc-001 bin]# ./alluxio formatExecuting the following command on all worker nodes and logging to /opt/cloudera/parcels/alluxio/alluxio-2.0.1/logs/task.log: /opt/cloudera/parcels/alluxio/alluxio-2.0.1/bin/alluxio formatWorkerWaiting for tasks to finish...All tasks finishedExecuting the following command on all master nodes and logging to /opt/cloudera/parcels/alluxio/alluxio-2.0.1/logs/task.log: /opt/cloudera/parcels/alluxio/alluxio-2.0.1/bin/alluxio formatJournalWaiting for tasks to finish...All tasks finished
cd /opt/cloudera/parcels/alluxio/alluxio-2.0.1/bin#alluxio文件固化到HDFS./alluxio fs persist /1.txthadoop fs -ls /alluxio
#创建表create EXTERNAL table rating_alluxio(userId INT,movieId INT,rating FLOAT,timestamps STRING)row format delimited fields terminated by ','LOCATION 'alluxio://incubator-test-dc-001:19998/ml-100k';
需要关联java包,否则会报错使用 Presto 查询表,关联java包,重启服务cp -rf /opt/cloudera/parcels/alluxio/alluxio-2.0.1/client/alluxio-2.0.1-client.jar /opt/cloudera/parcels/presto/lib/chmod 777 /opt/cloudera/parcels/presto/lib/alluxio-2.0.1-client.jar#复制客户端到presto-hive里面复制Alluxio client jar cp -rf /opt/cloudera/parcels/alluxio/alluxio-2.0.1/client/alluxio-2.0.1-client.jar /opt/cloudera/parcels/presto/plugin/hive-hadoop2/重启presto/opt/cloudera/parcels/presto/bin/launcher restart#查询表 ./presto --server localhost:6660 --execute "use default;select * from u_user limit 10;" --catalog hive --debug
正确显示
#impala新建;jdbc_impaladefault.driver = org.apache.hive.jdbc.HiveDriverdefault.url = jdbc:hive2://incubator-test-dc-003:21050/default;auth=noSasl(验证模式是NOSASL才能正常使用impala,但是这个会让impala查询数据时,跳过rander中设置的掩码规则)default.user = zeppelinurl 的 NOSASL模式需要任意一个用户名(如Hive),不需要密码,不填写用户名会报错。Dependencies artifact exclude org.apache.hive:hive-jdbc:2.1.1 hive-jdbc-2.1.1-cdh6.3.0.jar org.apache.hadoop:hadoop-common:3.0.0 hadoop-common-3.0.0-cdh6.3.0.jar mysql:mysql-connector-java:5.1.47 mysql-connector-java-5.1.47.jar #impala测试 %impalaselect * from nation limit 10
#修改hdfs参数dfs.permissions.superusergroup=supergroup,root
%sqlshow databases
组:ou=Group,dc=test,dc=com用户:ou=People,dc=test,dc=com域:172.16.16.245端口:389#设置常规服务器: 172.16.16.245:389TLS: No服务账号: cn=Manager,dc=test,dc=comConnection Timeout: 1000毫秒用户搜索起点: ou=People,dc=test,dc=com对象分类: posixAccount登录字段: uid名称字段: givenName搜索字段: uid启用字段:禁用位掩码: 0组搜索起点:对象分类: posixGroup名称字段: cn搜索字段: cn
必须创建api
重启服务把新密码使用md5加密后放入进去
我主要使用Ruby来执行此操作,但到目前为止我的攻击计划如下:使用gemsrdf、rdf-rdfa和rdf-microdata或mida来解析给定任何URI的数据。我认为最好映射到像schema.org这样的统一模式,例如使用这个yaml文件,它试图描述数据词汇表和opengraph到schema.org之间的转换:#SchemaXtoschema.orgconversion#data-vocabularyDV:name:namestreet-address:streetAddressregion:addressRegionlocality:addressLocalityphoto:i
有时我需要处理键/值数据。我不喜欢使用数组,因为它们在大小上没有限制(很容易不小心添加超过2个项目,而且您最终需要稍后验证大小)。此外,0和1的索引变成了魔数(MagicNumber),并且在传达含义方面做得很差(“当我说0时,我的意思是head...”)。散列也不合适,因为可能会不小心添加额外的条目。我写了下面的类来解决这个问题:classPairattr_accessor:head,:taildefinitialize(h,t)@head,@tail=h,tendend它工作得很好并且解决了问题,但我很想知道:Ruby标准库是否已经带有这样一个类? 最佳
如何检查Ruby文件是否是通过“require”或“load”导入的,而不是简单地从命令行执行的?例如:foo.rb的内容:puts"Hello"bar.rb的内容require'foo'输出:$./foo.rbHello$./bar.rbHello基本上,我想调用bar.rb以不执行puts调用。 最佳答案 将foo.rb改为:if__FILE__==$0puts"Hello"end检查__FILE__-当前ruby文件的名称-与$0-正在运行的脚本的名称。 关于ruby-检查是否
我正在尝试使用Curbgem执行以下POST以解析云curl-XPOST\-H"X-Parse-Application-Id:PARSE_APP_ID"\-H"X-Parse-REST-API-Key:PARSE_API_KEY"\-H"Content-Type:image/jpeg"\--data-binary'@myPicture.jpg'\https://api.parse.com/1/files/pic.jpg用这个:curl=Curl::Easy.new("https://api.parse.com/1/files/lion.jpg")curl.multipart_form_
无论您是想搭建桌面端、WEB端或者移动端APP应用,HOOPSPlatform组件都可以为您提供弹性的3D集成架构,同时,由工业领域3D技术专家组成的HOOPS技术团队也能为您提供技术支持服务。如果您的客户期望有一种在多个平台(桌面/WEB/APP,而且某些客户端是“瘦”客户端)快速、方便地将数据接入到3D应用系统的解决方案,并且当访问数据时,在各个平台上的性能和用户体验保持一致,HOOPSPlatform将帮助您完成。利用HOOPSPlatform,您可以开发在任何环境下的3D基础应用架构。HOOPSPlatform可以帮您打造3D创新型产品,HOOPSSDK包含的技术有:快速且准确的CAD
matlab打开matlab,用最简单的imread方法读取一个图像clcclearimg_h=imread('hua.jpg');返回一个数组(矩阵),往往是a*b*cunit8类型解释一下这个三维数组的意思,行数、数和层数,unit8:指数据类型,无符号八位整形,可理解为0~2^8的数三个层数分别代表RGB三个通道图像rgb最常用的是24-位实现方法,即RGB每个通道有256色阶(2^8)。基于这样的24-位RGB模型的色彩空间可以表现256×256×256≈1670万色当imshow传入了一个二维数组,它将以灰度方式绘制;可以把图像拆分为rgb三层,可以以灰度的方式观察它figure(1
本教程将在Unity3D中混合Optitrack与数据手套的数据流,在人体运动的基础上,添加双手手指部分的运动。双手手背的角度仍由Optitrack提供,数据手套提供双手手指的角度。 01 客户端软件分别安装MotiveBody与MotionVenus并校准人体与数据手套。MotiveBodyMotionVenus数据手套使用、校准流程参照:https://gitee.com/foheart_1/foheart-h1-data-summary.git02 数据转发打开MotiveBody软件的Streaming,开始向Unity3D广播数据;MotionVenus中设置->选项选择Unit
文章目录一、概述简介原理模块二、配置Mysql使用版本环境要求1.操作系统2.mysql要求三、配置canal-server离线下载在线下载上传解压修改配置单机配置集群配置分库分表配置1.修改全局配置2.实例配置垂直分库水平分库3.修改group-instance.xml4.启动监听四、配置canal-adapter1修改启动配置2配置映射文件3启动ES数据同步查询所有订阅同步数据同步开关启动4.验证五、配置canal-admin一、概述简介canal是Alibaba旗下的一款开源项目,Java开发。基于数据库增量日志解析,提供增量数据订阅&消费。Git地址:https://github.co
我正在尝试在Rails上安装ruby,到目前为止一切都已安装,但是当我尝试使用rakedb:create创建数据库时,我收到一个奇怪的错误:dyld:lazysymbolbindingfailed:Symbolnotfound:_mysql_get_client_infoReferencedfrom:/Library/Ruby/Gems/1.8/gems/mysql2-0.3.11/lib/mysql2/mysql2.bundleExpectedin:flatnamespacedyld:Symbolnotfound:_mysql_get_client_infoReferencedf
文章目录1.开发板选择*用到的资源2.串口通信(个人理解)3.代码分析(注释比较详细)1.主函数2.串口1配置3.串口2配置以及中断函数4.注意问题5.源码链接1.开发板选择我用的是STM32F103RCT6的板子,不过代码大概在F103系列的板子上都可以运行,我试过在野火103的霸道板上也可以,主要看一下串口对应的引脚一不一样就行了,不一样的就更改一下。*用到的资源keil5软件这里用到了两个串口资源,采集数据一个,串口通信一个,板子对应引脚如下:串口1,TX:PA9,RX:PA10串口2,TX:PA2,RX:PA32.串口通信(个人理解)我就从串口采集传感器数据这个过程说一下我自己的理解,