WIN+R输入CMD进行命令行界面,如下: 右击窗口点击属性,可以为cmd命令窗口设置文字与背景样式 注意:所有命令不记得后面参数都可以使用XXX/?,会提示参数以及解释如下图所示:文件夹相关命令:网络相关命令必备命令: 1、shutdown-s-t60一分钟后关机2、Shutdown-a取消关机计划3.chkdsk(检查磁盘,默认为C盘)常用命令:ipconfig:功能:查询本机ip信息xxx/?提示2.nslookup功能:查询网站ip地址。格式:nslookup网站域名。3.Ping功能:测试网络连通性格式:ping域名/ip地址(参数)4.netstat功能:查询网络
报错场景:机器linux-centos7.6,自带的python2.7因为spark对环境的要求所以安装了Anaconda,生成的pyspark环境。但是在执行任务时提示如下报错,网上的方法试了很多,跟我这个不太一样。然后就仔细看了下报错信息,分析一下就是找不到python3执行环境。然后到/usr/bin/目录下查看了下有没有python3文件,发现果然没有,然后就做了一个软连接跟安装的Anaconda环境中的python进行连接。具体执行脚本就是:ln-s/home/anaconda3/envs/pyspark/bin/python3.8/usr/bin/python3也就是【ln-san
目录数据库常用命令数据库的创建数据表的操作表数据的增删查改分组与函数查询运算符:数学运算符连接查询多表查询修改语句删除语句字符查询likeMySQL练习总结感谢每一个认真阅读我文章的人!!!重点:配套学习资料和视频教学数据库常用命令进入数据库,在win系统下,打开cmd,切换用户权限,进入root。沒權限,用root登錄:mysql -uroot如果root有密碼:mysql -uroot -p数据库的创建查询所有数据库:showdatabases;创建数据库:createdatabase ;删除数据库:dropdatabase ;进入数据库:use ;数据表的操作1)查询数据库下表:show
一、基本常用命令1.1案例需求 存放文章评论的数据存放到MongoDB中,数据结构参考如下,其中数据库为articledb,专栏文章评论comment字段名称字段含义字段类型备注_idIDObjectId或StringMongo的主键的字段articleid文章IDStringcontent评论内容Stringuserid评论人IDStringnickname评论人昵称Stringcreatedatetime评论的日期时间Datelikenum点赞数Int32replynum回复数Int32state状态String0:不可见;1:可见;parentid上级IDString如果为
kafka常用命令,自己记录自己用的,如果安装有kafkamanager或者kafkaeagle可以不用熟悉一下命令:–提示--zookeeper的命令可能需要在后面加入/kafka因为一般企业都会建节点的时候建个父目录kafka常用命令相关概念Brokerkafka节点,多个broker组成kafka集群。Topic即主题,kafka通过Topic对消息进行分类,发布到kafka的消息都需要指定Topic。Producer即消息生产者,向Broker发送消息的客户端。Consumer即消息消费者,从Broker消费消息的客户端。ConsumerGroup即消费者组,消费者隶属于消费者组,同一
目录ADB引言1、查看adb版本信息2、查看是否连接到设备3、安装第三方apk应用4、查看所有已安装应用包名5、查看安装的第三方应用包名6、关键字模糊查询包名7、查看当前打开的应用包名8、打开系统设置界面9、关闭当前设备打开的应用10、查看当前设备GPS定位是否开启11、开启和关闭系统WiFi12、查看设备电池电量信息13、查看设备系统的Android版本14、打印输出日志文件15、打开特殊模式16、查看设备屏幕分辨率17、截屏并保存到本机指定文件夹内18、录制屏幕并保存到本机指定文件夹内ADB引言ADB全称为【AndroidDebugBridge】,就是起到调试桥的作用,它是Android开
原创/朱季谦接触kafka开发已经两年多,也看过关于kafka的一些书,但一直没有怎么对它做总结,借着最近正好在看《ApacheKafka实战》一书,同时自己又搭建了三台kafka服务器,正好可以做一些总结记录。本文主要是记录如何在kafka集群服务器上创建topic,查看topic列表、分区、副本详情,删除topic,测试topic发送与消费,算是最基础的操作了,当然,不同版本其实指令是有所差异的,本文只针对kafka2.x版本。虽然这些指令都很简单,但久不用了,很容易就会忘记,所谓好记性不如烂笔头,记录下来会更好。主要写给一些刚接触kafka的小白,大神请自行绕路。最后,推荐两本写kafk
前言Dockerfile是Docker用来构建镜像的文本文件,它包含了构建镜像的所有的指令以及对应的说明,有自定义的指令和格式,可以通过dockerbuild命令从Dockerfile中构建镜像。Dockerfile制作原则容器与Dockerfile制作相关的规则如下:基础镜像尽量首先使用官方镜像中的镜像;FROM指令应该包含参数tag;编写指令时应该充分利用指令生成镜像层的原理,尽量安排相同的不变的放在前面;ADD和COPY指令很相近,但推荐用COPY,ADD可以下载URL和自动下载文件解压并保留原文件,ADD指令用RUNwget或RUNcurl代替;RUN指令不要在一行中单独使用RUNap
hadoop-env.sh配置hadoop中的hadoop-env.sh(后边很多框架配置环境都是xxx.env.sh)配置hadoop的环境变量的,一般有Javahome,hadoopconfdir等这些软件、配置目录,有运行过程中使用的变量,如hadoop栈大小配置,java运行内存大小配置等等。用工具直接打开进行配置即可;默认是已经开启的,如果前面有#,只需要去掉即可;core-site.xml配置hadoop的访问目录(配置ip主机和端口号;提供出来进行访问);修改配置文件etc/hadoop/core-site.xml用于定义系统级别的参数,如HDFSURL、Hadoop的临时目录
准备工作本文简述Flink在Linux中安装步骤,和示例程序的运行。需要安装JDK1.8及以上版本。下载地址:下载Flink的二进制包点进去后,选择如下链接:解压flink-1.10.1-bin-scala_2.12.tgz,我这里解压到soft目录[root@hadoop1softpackage]#tar-zxvfflink-1.10.1-bin-scala_2.12.tgz-C../soft/单节点安装解压后进入Flink的bin目录执行如下脚本即可[root@hadoop1bin]#./start-cluster.shStartingcluster.Startingstandalones