Docker阳哥系列2—Docker高级(全)
本文最后更新于 460 天前,如有失效请评论区留言。

1、复杂安装详说

1.1 Mysql主从复制

1.1.1 主从复制原理

image-20240927150735686

它的主要执行流程如下:

  • 主数据库接收到一个写操作(如 INSERT、UPDATE、DELETE)时,会将这个操作记录到二进制日志(Binary Log)中,将数据修改的操作按顺序记录下来。

  • 从数据库 IO 线程会自动连接主服务,从二进制中读取同步数据,记录到中继日志(Relay Log)中。

  • 从数据库的 SQL 线程会定期从中继日志中获取同步数据,写入到从数据库中。

1.1.2 新建主服务器容器示例(port:3307)

docker run -p 3307:3306 --name mysql-master \
-v /root/yss/mysql-master/log:/var/log/mysql \
-v /root/yss/mysql-master/data:/var/lib/mysql \
-v /root/yss/mysql-master/conf:/etc/mysql \
-e MYSQL_ROOT_PASSWORD=root  \
-id mysql:5.7

在宿主机卷映射目录,新建my.cnf配置文件

vim my.cnf
[mysqld]
## 设置server_id,同一局域网中需要唯一
server_id=101 
## 指定不需要同步的数据库名称
binlog-ignore-db=mysql  
## 开启二进制日志功能
log-bin=mall-mysql-bin  
## 设置二进制日志使用内存大小(事务)
binlog_cache_size=1M  
## 设置使用的二进制日志格式(mixed,statement,row)
binlog_format=mixed  
## 二进制日志过期清理时间。默认值为0,表示不自动清理。
expire_logs_days=7  
## 跳过主从复制中遇到的所有错误或指定类型的错误,避免slave端复制中断。## 如:1062错误是指一些主键重复,1032错误是因为主从数据库数据不一致
slave_skip_errors=1062

vim my.cnf
[mysqld]
server_id=101 
binlog-ignore-db=mysql  
log-bin=mall-mysql-bin  
binlog_cache_size=1M  
binlog_format=mixed  
expire_logs_days=7  
slave_skip_errors=1062

修改完配置后重启master实例

docker restart msyql-master

进入mysql-master容器

docker exec -it mysql-master /bin/bash
mysql -uroot -proot

master容器实例内创建数据同步用户

CREATE USER 'slave'@'%' IDENTIFIED BY '123456';
GRANT REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'slave'@'%';

1.1.3 新建从服务器容器示例(port:3308)

docker run -p 3308:3306 --name mysql-slave \
-v /root/yss/mysql-slave/log:/var/log/mysql \
-v /root/yss/mysql-slave/data:/var/lib/mysql \
-v /root/yss/mysql-slave/conf:/etc/mysql \
-e MYSQL_ROOT_PASSWORD=root  \
-id mysql:5.7

在宿主机卷映射目录,新建my.cnf配置文件

[mysqld]
## 设置server_id,同一局域网中需要唯一
server_id=102
## 指定不需要同步的数据库名称
binlog-ignore-db=mysql  
## 开启二进制日志功能,以备Slave作为其它数据库实例的Master时使用
log-bin=mall-mysql-slave1-bin  
## 设置二进制日志使用内存大小(事务)
binlog_cache_size=1M  
## 设置使用的二进制日志格式(mixed,statement,row)
binlog_format=mixed  
## 二进制日志过期清理时间。默认值为0,表示不自动清理。
expire_logs_days=7  
## 跳过主从复制中遇到的所有错误或指定类型的错误,避免slave端复制中断。
## 如:1062错误是指一些主键重复,1032错误是因为主从数据库数据不一致
slave_skip_errors=1062  
## relay_log配置中继日志
relay_log=mall-mysql-relay-bin  
## log_slave_updates表示slave将复制事件写进自己的二进制日志
log_slave_updates=1  
## slave设置为只读(具有super权限的用户除外)
read_only=1

[mysqld]
server_id=102
binlog-ignore-db=mysql  
log-bin=mall-mysql-slave1-bin  
binlog_cache_size=1M  
binlog_format=mixed  
expire_logs_days=7  
slave_skip_errors=1062  
relay_log=mall-mysql-relay-bin  
log_slave_updates=1  
read_only=1

修改完配置后重启slave实例

docker restart mysql-slave

在主数据库中查看主从同步状态

show master status;

进入mysql-slave容器

docker exec -it mysql-slave /bin/bash
mysql -uroot -proot

在从数据库中配置主从复制:
change master to master_host='宿主机ip', master_user='slave', master_password='123456', master_port=3307, master_log_file='mall-mysql-bin.000001', master_log_pos=617, master_connect_retry=30;  

change master to master_host='192.168.200.199', master_user='slave', master_password='123456', master_port=3307, master_log_file='mall-mysql-bin.000001', master_log_pos=769, master_connect_retry=30;

master_host:主数据库IP地址;
master_port:主数据库的运行端口;
master_user:在主数据库创建的用于同步数据的用户账号;
master_password:在主数据库创建的用于同步数据的用户密码;
master_log_file:指定从数据库要复制数据的日志文件,通过查看主数据的状态,获取File参数;
master_log_pos:指定从数据库从哪个位置开始复制数据,通过查看主数据的状态,获取Position参数;
master_connect_retry:连接失败重试的时间间隔,单位为秒。 

在从数据库中查看主从同步状态

show slave status \G;
状态还是no no

start slave;
show slave status \G;
状态都为yes

主从复制测试

主库创建表,插入字段
从库能够正常复制

1.2 Redis集群部署

cluster(集群)模式-docker版,哈希槽分区进行亿级数据存储。

1.2.1 面试题

1~2亿条数据需要缓存,请问如何设计这个存储案例?

单机单台100%不可能,肯定是分布式存储,用redis如何落地?

上述问题阿里P6~P7工程案例和场景设计类必考题目,一般业界有3种解决方案:

a 方案一:哈希取余分区

2亿条记录就是2亿个k,v,我们单机不行必须要分布式多机,假设有3台机器构成一个集群,用户每次读写操作都是根据公式:hash(key) % N个机器台数,计算出哈希值,用来决定数据映射到哪一个节点上。

优点:简单粗暴,直接有效,只需要预估好数据规划好节点,例如3台、8台、10台,就能保证一段时间的数据支撑。使用Hash算法让固定的一部分请求落到同一台服务器上,这样每台服务器固定处理一部分请求(并维护这些请求的信息),起到负载均衡+分而治之的作用。

缺点:原来规划好的节点,进行扩容或者缩容就比较麻烦了额,不管扩缩,每次数据变动导致节点有变动,映射关系需要重新进行计算,在服务器个数固定不变时没有问题,如果需要弹性扩容或故障停机的情况下,原来的取模公式就会发生变化:Hash(key)/3会变成Hash(key) /?。此时地址经过取余运算的结果将发生很大变化,根据公式获取的服务器也会变得不可控。某个redis机器宕机了,由于台数数量变化,会导致hash取余全部数据重新洗牌。造成cache miss。

b 方案二:**一致性哈希算法分区**

1 是什么?

一致性Hash算法背景: 

一致性哈希算法在1997年由麻省理工学院中提出的,设计目标是为了解决分布式缓存数据变动和映射问题,某个机器宕机了,分母数量改变了,自然取余数不OK了。

2 能干嘛?

提出一致性Hash解决方案。

目的是当服务器个数发生变动时,尽量减少影响客户端到服务器的映射关系

3 使用三大步骤

步骤一:算法构建一致性哈希环

一致性哈希环:一致性哈希算法必然有个hash函数并按照算法产生hash值,这个算法的所有可能哈希值会构成一个全量集,这个集合可以成为一个hash空间[0,2^32-1],这个是一个线性空间,但是在算法中,我们通过适当的逻辑控制将它首尾相连(0 = 2^32),这样让它逻辑上形成了一个环形空间。 它也是按照使用取模的方法,前面笔记介绍的节点取模法是对节点(服务器)的数量进行取模。而一致性Hash算法是对2^32取模,简单来说,一致性Hash算法将整个哈希值空间组织成一个虚拟的圆环,如假设某哈希函数H的值空间为0-2^32-1(即哈希值是一个32位无符号整形),整个哈希环如下图:整个空间按顺时针方向组织,圆环的正上方的点代表0,0点右侧的第一个点代表1,以此类推,2、3、4、……直到2^32-1,也就是说0点左侧的第一个点代表2^32-1, 0和2^32-1在零点中方向重合,我们把这个由2^32个点组成的圆环称为Hash环。

image-20240927150919869

步骤二:服务器IP节点映射

节点映射 将集群中各个IP节点映射到环上的某一个位置。 将各个服务器使用Hash进行一个哈希,具体可以选择服务器的IP或主机名作为关键字进行哈希,这样每台机器就能确定其在哈希环上的位置。假如4个节点NodeA、B、C、D,经过IP地址的哈希函数计算(hash(ip)),使用IP地址哈希后在环空间的位置如下:

image-20240927150943968

步骤三:key落到服务器的落键规则:

当我们需要存储一个kv键值对时,首先计算key的hash值,hash(key),将这个key使用相同的函数Hash计算出哈希值并确定此数据在环上的位置,从此位置沿环顺时针“行走”,第一台遇到的服务器就是其应该定位到的服务器,并将该键值对存储在该节点上。如我们有Object A、Object B、Object C、Object D四个数据对象,经过哈希计算后,在环空间上的位置如下:根据一致性Hash算法,数据A会被定为到Node A上,B被定为到Node B上,C被定为到Node C上,D被定为到Node D上。

优点:

一致性hash算法的容错性:容错性假设Node C宕机,可以看到此时对象A、B、D不会受到影响,只有C对象被重定位到Node D。一般的,在一致性Hash算法中,如果一台服务器不可用,则受影响的数据仅仅是此服务器到其环空间中前一台服务器(即沿着逆时针方向行走遇到的第一台服务器)之间数据,其它不会受到影响。简单说,就是C挂了,受到影响的只是B、C之间的数据,并且这些数据会转移到D进行存储。

一致性hash算法的扩展性:扩展性数据量增加了,需要增加一台节点NodeX,X的位置在A和B之间,那收到影响的也就是A到X之间的数据,重新把A到X的数据录入到X上即可,不会导致hash取余全部数据重新洗牌。

缺点:

一致性hash算法的数据倾斜问题: Hash环的数据倾斜问题,一致性Hash算法在服务节点太少时,容易因为节点分布不均匀而造成数据倾斜(被缓存的对象大部分集中缓存在某一台服务器上)问题,例如系统中只有两台服务器。

小总结:

为了在节点数目发生改变时尽可能少的迁移数据 将所有的存储节点排列在收尾相接的Hash环上,每个key在计算Hash后会顺时针找到临近的存储节点存放。而当有节点加入或退出时仅影响该节点在Hash环上顺时针相邻的后续节点。 优点加入和删除节点只影响哈希环中顺时针方向的相邻的节点,对其他节点无影响。 缺点 数据的分布和节点的位置有关,因为这些节点不是均匀的分布在哈希环上的,所以数据在进行存储时达不到均匀分布的效果。

c 方案三:哈希槽分区

1 为什么出现哈希槽?

实质就是一个数组,数组[0,2^14 -1]形成hash slot空间。

2 能干什么?

解决均匀分配的问题,在数据和节点之间又加入了一层,把这层称为哈希槽(slot),用于管理数据和节点之间的关系,现在就相当于节点上放的是槽,槽里放的是数据。槽解决的是粒度问题,相当于把粒度变大了,这样便于数据移动。哈希解决的是映射问题,使用key的哈希值来计算所在的槽,便于数据分配。

3 多少个hash槽?

一个集群只能有16384个槽,编号0-16383(0-2^14-1)。这些槽会分配给集群中的所有主节点,分配策略没有要求。可以指定哪些编号的槽分配给哪个主节点。集群会记录节点和槽的对应关系。解决了节点和槽的关系后,接下来就需要对key求哈希值,然后对16384取余,余数是几key就落入对应的槽里。slot = CRC16(key) % 16384。以槽为单位移动数据,因为槽的数目是固定的,处理起来比较容易,这样数据移动问题就解决了。

4 hash槽计算

Redis 集群中内置了 16384 个哈希槽,redis 会根据节点数量大致均等的将哈希槽映射到不同的节点。当需要在 Redis 集群中放置一个 key-value时,redis 先对 key 使用 crc16 算法算出一个结果,然后把结果对 16384 求余数,这样每个 key 都会对应一个编号在 0-16383 之间的哈希槽,也就是映射到某个节点上。如下代码,key之A 、B在Node2, key之C落在Node3上

1.2.2 开干

a 3主3从redis集群配置

1 关闭防火墙+启动docker后台服务
systemctl start docker

2 新建6个docker容器redis实例
docker run -d --name redis-node-1 --net host --privileged=true \
-v /data/redis/share/redis-node-1:/data redis:6.0.8 \
--cluster-enabled yes --appendonly yes --port 6381 

docker run -d --name redis-node-2 --net host --privileged=true \
-v /data/redis/share/redis-node-2:/data redis:6.0.8 \
--cluster-enabled yes --appendonly yes --port 6382 

docker run -d --name redis-node-3 --net host --privileged=true \
-v /data/redis/share/redis-node-3:/data redis:6.0.8 \
--cluster-enabled yes --appendonly yes --port 6383 

docker run -d --name redis-node-4 --net host --privileged=true \
-v /data/redis/share/redis-node-4:/data redis:6.0.8 \
--cluster-enabled yes --appendonly yes --port 6384 

docker run -d --name redis-node-5 --net host --privileged=true \
-v /data/redis/share/redis-node-5:/data redis:6.0.8 \
--cluster-enabled yes --appendonly yes --port 6385 

docker run -d --name redis-node-6 --net host --privileged=true \
-v /data/redis/share/redis-node-6:/data redis:6.0.8 \
--cluster-enabled yes --appendonly yes --port 6386

--name redis-node-6                      容器名字
--net host                               使用宿主机的ip和端口(默认)
--privileged=true                        获取宿主机root用户权限
-v /data/redis/share/redis-node-6:/data  容器卷,宿主机地址:docker内部地址
redis:6.0.8                              redis镜像和版本号
--cluster-enabled yes                    开启redis集群
--appendonly yes                         开启持久化
--port 6386                              redis端口号

如果运行成功,效果如下:

image-20240927151121284

进入容器redis-node-1并为6台机器构建集群关系

进入容器:
docker exec -it redis-node-1 /bin/bash

构建主从关系
//注意,进入docker容器后才能执行以下命令,且注意自己的真实IP地址
redis-cli --cluster create 192.168.200.199:6381 192.168.200.199:6382 192.168.200.199:6383 192.168.200.199:6384 192.168.200.199:6385 192.168.200.199:6386 --cluster-replicas 1 
--cluster-replicas 1 表示为每个master创建一个slave节点

image-20240927151150298

连接进入6381,查看集群信息

127.0.0.1:6381> cluster info
127.0.0.1:6381> cluster nodes

b 主从容错切换迁移案例

1 数据读写存储
启动6机构成的集群并通过exec进入
对6381新增两个key
防止路由失效加参数-c, (-c,优化路由),并新增两个key
查看集群信息
 redis-cli --cluster check 192.168.200.199:6381
2 容错切换迁移
主6381和从机切换,先停止主机6381
6381主机停了,对应的真实从机上位
6381作为1号主机分配的从机以实际情况为准,具体是几号机器就是几号

再次查看集群信息
6381宕机了,6384上位成为了新的master。
还原之前的三主三从:中间需要等待一会儿,docker集群重新响应。
启动node1,停node4,启node4

c 主从扩容案例

新建6387、6388两个节点+新建后启动+查看是否8节点
docker run -d --name redis-node-7 --net host --privileged=true \
-v /data/redis/share/redis-node-7:/data redis:6.0.8 \
--cluster-enabled yes --appendonly yes --port 6387

docker run -d --name redis-node-8 --net host --privileged=true \
-v /data/redis/share/redis-node-8:/data redis:6.0.8 \
--cluster-enabled yes --appendonly yes --port 6388

docker ps

进入6387容器实例内部

docker exec -it redis-node-7 /bin/bash

将新增的6387节点(空槽号)作为master节点加入原集群

将新增的6387作为master节点加入集群
redis-cli --cluster add-node 192.168.200.199:6387 192.168.200.199:6381 

6387就是将要作为master新增节点, 6381就是原来集群节点里面的领路人,相当于6387拜6381的码头从而找到组织加入集群

重新分配槽号

重新分派槽号命令:
redis-cli --cluster check 192.168.200.199:6381 #获得ID
redis-cli --cluster reshard IP地址:端口号
redis-cli --cluster reshard 192.168.200.199:6381
问:你要迁移多少个slot,回答16384/node数。
问:接收这些slot的节点id,复制扩容节点的id。
问:迁出slot的节点,source node #1第一个,回车,source node #2第二个,回车,可以提供多个,结束了填“done"。
之后系统会把迁移的计划打印出来。问你是否继续,填yes。
然后系统就会开始执行迁移动作。

最后可以看到,新的节点从每一个主节点分了一部分槽出来,总4086个。

image-20240927151230124

槽号分配说明:

为什么是3个新的区间,以前的节点还是连续的?

因为重新全量分配成本太高,所以前3家各自匀出来一部分,从6381/6382/6383三个旧节点分别匀出1364个坑位给新节点6387。

为主节点6387分配从节点6388

命令:
redis-cli --cluster add-node ip:新slave端口 ip:新master端口 --cluster-slave --cluster-master-id 新主机节点ID 

redis-cli --cluster add-node 192.168.200.199:6388 192.168.200.199:6387 --cluster-slave --cluster-master-id 75b2d0d7f7c97fa59c77cc6889f60292a2d728b8
-------这个是6387的编号,按照自己实际情况

检查集群状态
 redis-cli --cluster check 192.168.200.199:6382 

d 主从缩容案例

目的:目的:6387和6388下线

检查集群状态,获得6388的节点ID
redis-cli --cluster check 192.168.200.199:6382   

在集群中,将6388从节点删除。
命令:
redis-cli --cluster del-node ip:从机端口 从机6388节点ID 
redis-cli --cluster del-node 192.168.200.199:6388 1bea1cf19eb655c6a4bfd26166a6a4f29adc88d3 
redis-cli --cluster check 192.168.200.199:6382  
检查一下发现,6388被删除了,只剩下7台机器了。

将6387的槽号清空,重新分配,本例子中全部分配给6381
redis-cli --cluster reshard 192.168.200.199:6381

检查集群状态:
redis-cli --cluster check 192.168.200.199:6381 
6381它变成了8192个槽位,相当于全部都给6381了,如果想分配给每个节点,要重复这样步骤三次每次分出去3分之一,太麻烦了我们一锅端。

删除6387节点
命令:
redis-cli --cluster del-node ip:端口 6387节点ID 
redis-cli --cluster del-node 192.168.200.199:6387 75b2d0d7f7c97fa59c77cc6889f60292a2d728b8 

检查集群状态:发现6387已经不在集群里了
redis-cli --cluster check 192.168.200.199:6381

2、Dockerfile 解析

2.1 是什么

Dockerfile是用来构建Docker镜像的文本文件,是由一条条构建镜像所需的指令和参数构成的脚本。

官网:https://docs.docker.com/engine/reference/builder/

构建三步骤:

1、编写Dockerfile文件
2、docker build命令构建镜像
3、docker run以镜像运行容器实例

2.2 Dockerfile构建过程解析

2.2.1 Dockerfile内容基础知识

1:每条保留字指令都必须为大写字母且后面要跟随至少一个参数;
2:指令按照从上到下,顺序执行;
3:#表示注释;
4:每条指令都会创建一个新的镜像层并对镜像进行提交;

2.2.2 Docker执行Dockerfile的大致流程

(1)docker从基础镜像运行一个容器
(2)执行一条指令并对容器作出修改
(3)执行类似docker commit的操作提交一个新的镜像层
(4)docker再基于刚提交的镜像运行一个新容器
(5)执行dockerfile中的下一条指令直到所有指令都执行完成

2.2.3 小总结

从应用软件的角度来看,Dockerfile、Docker镜像与Docker容器分别代表软件的三个不同阶段,

  • Dockerfile是软件的原材料

  • Docker镜像是软件的交付品

  • Docker容器则可以认为是软件镜像的运行态,也即依照镜像运行的容器实例

Dockerfile面向开发,Docker镜像成为交付标准,Docker容器则涉及部署与运维,三者缺一不可,合力充当Docker体系的基石。

1 Dockerfile,需要定义一个Dockerfile,Dockerfile定义了进程需要的一切东西。Dockerfile涉及的内容包括执行代码或者是文件、环境变量、依赖包、运行时环境、动态链接库、操作系统的发行版、服务进程和内核进程(当应用进程需要和系统服务和内核进程打交道,这时需要考虑如何设计namespace的权限控制)等等;

2 Docker镜像,在用Dockerfile定义一个文件之后,docker build时会产生一个Docker镜像,当运行 Docker镜像时会真正开始提供服务;

3 Docker容器,容器是直接提供服务的。

2.3 Dockerfile 常用保留字指令

2.3.1 FROM

Dockerfile的第一条必须是FROM。指定一个已经存在的镜像作为模板,表示当前新镜像是基于哪个基础镜像的。

例:FROM centos

2.3.2 MAINTAINER

指定新镜像创建者的姓名和邮箱

例:MAINTAINER bulutbulut123@123.com

2.3.3 RUN

指定容器构建时需要在容器上运行的命令,在 docker build时运行

shell格式: RUN 后面直接跟运行的命令

RUN yum -y install vim
exec格式 : RUN ["可执行文件","参数1","参数2"]

RUN ["/root/test.sh","param1","param2"]
等同于:RUN /root/test.sh param1 param2

2.3.4 EXPOSE

指定通过新镜像启动的容器对外暴露的端口

2.3.5 WORKDIR

指定在创建容器后,终端默认登录近来工作的目录,一个落脚点。

也就是通过docker exec -it container_ID bash 进入容器的工作目录。

2.3.6 USER

指定该镜像用什么用户去执行,一般不用指定,默认就是root

2.3.7 ENV

用来在构建镜像过程中设置环境变量,类似于/etc/profile文件中的export命令。定义的环境变量可以在dockerfile的后续指令中引用,也可以在新启动的容器中进行引用。

例如定义了:

ENV MY_WORKDIR /root
则可以这样定义WORKDIR:

WORKDIR $MY_WORKDIR
例如定义了:

ENV JAVA_HOME /root/java
则通过新镜像启动的容器中,可以执行命令

echo $JAVA_HOME

2.3.8 COPY

拷贝文件和目录到镜像中。

将从构建上下文目录中<源路径>的文件/目录 复制到新的一层的镜像内的 <目标路径>位置

语法:
COPY src dest
COPY ["src","dest"]
<src源路径>:源文件或者源目录
<dest目标路径>:容器内的指定路径,该路径不用事先建好,路径不存在会自动创建。

2.3.9 ADD

和COPY一样具有拷贝功能,对宿主机目录下的文件拷贝进镜像,且会自动处理URL和加压tar压缩包。

2.3.10 VOLUME

指定容器数据卷,用户数据保存和持久化工作,和参数-v一样

2.3.11 CMD

指定通过新镜像启动容器后启要执行的指令,在docker run时运行

注意:

Dockerfile中可以有多个cmd指令,但是只有最后一个生效。
如果docker run 后面指定了容器运行的命令,则CMD无效,以docker run跟的命令为准
语法:

1、CMD <命令>
2、CMD ["可执行文件","参数1","参数2"]
3、当Dockerfile中指令了ENTRYPOINT,CMD可以给ENTRYPOINT传参,格式:
CMD ["参数1","参数2",...]
跟RUN的区别:

CMD是在容器run时运行,RUN是在docker build时运行。

2.3.12 ENTRYPOINT

指定通过新镜像启动容器时,需要执行的指令,在docker run时运行;类似于CMD指令。

1 dockerfile可以有多个ENTRYPOINT指令,但是只有最后一个生效
2 即便docker run后面指定了容器的运行命令,ENTRYPOINT的指令依然运行,不被覆盖。
3 ENTRYPOINT指定的参数会当作参数送给docker run 指令
命令格式和案例说明:

命令格式:
ENTRYPOINT ["可执行文件","参数1","参数2"]
通过dockerfile构建nginx:test镜像

FROM nginx

ENTRYPOINT ["nginx","-c"]
CMD ["/etc/nginx/nginx.conf"]
ENTRYPOINT可以和CMD一起用,一般是变参才使用 CMD ;这里的 CMD 等于是在给 ENTRYPOINT 传参。当指定了ENTRYPOINT后,CMD的含义就发生了变化,不再是直接运行其命令,而是将CMD的内容作为参数传递给ENTRYPOINT指令,

效果如下:

docker run 是否传参 docker run 命令 nginx 启动命令
不传参 docker run -d nginx:test nginx -c /etc/nginx/nginx.conf
传参 docker run -d nginx:test -c /etc/nginx/new.conf nginx -c /etc/nginx/new.conf

优点:在执行docker run的时候可以通过ENTRYPOINT指定运行所需的参数。

注意:如果dockerfile中存在多个ENTRYPOINT指令,仅最后一个生效。

2.4 dockerfile的使用

2.4.1 自定义镜像mycentosjava8

要求:

CentOS7镜像具备vim ifconfig java8
jdk下载地址:
1、 https://www.oracle.com/java/technologies/downloads/#java8
2、 https://mirrors.yangxingzhen.com/jdk/

编写dockerfile:

FROM centos
MAINTAINER yss<yss@126.com>
ENV MYPATH /usr/local/appserver
WORKDIR $MYPATH
RUN yum -y install vim
RUN yum -y install net-tools
RUN yum -y install glibc.i686
RUN mkdir /usr/local/appserver/java
ADD jdk-8u171-linux-x64.tar.gz /usr/local/appserver/java/
ENV JAVA_HOME /usr/local/appserver/java/jdk1.8.0_171
ENV JRE_HOME $JAVA_HOME/jre
ENV CLASSPATH $JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib:$CLASSPATH
ENV PATH $JAVA_HOME/bin:$PATH
EXPOSE 80
CMD echo $MYPATH
CMD echo "success-----ok"
CMD /bin/bash

#ADD 是相对路径jar,把jdk-8u171-linux-x64.tar.gz添加到容器中,安装包必须要和Dockerfile文件在同一位置

构建镜像

语法:docker build -t 新镜像名字:TAG .
示例:docker build -t centosjava8:1.5 .

运行镜像

语法:docker run -it 新镜像名字:TAG
示例:docker run -it centosjava8:1.5 /bin/bash

理解联合文件系统unionfs

UnionFS(联合文件系统):Union文件系统(UnionFS)是一种分层、轻量级并且高性能的文件系统,它支持对文件系统的修改作为一次提交来一层层的叠加,同时可以将不同目录挂载到同一个虚拟文件系统下(unite several directories into a single virtual filesystem)。Union 文件系统是 Docker 镜像的基础。镜像可以通过分层来进行继承,基于基础镜像(没有父镜像),可以制作各种具体的应用镜像。

特性:一次同时加载多个文件系统,但从外面看起来,只能看到一个文件系统,联合加载会把各层文件系统叠加起来,这样最终的文件系统会包含所有底层的文件和目录

2.4.2 虚悬镜像

虚悬镜像:仓库名、标签都是的镜像,俗称dangling image。

1 vim Dockerfile
from ubuntu
CMD echo 'action is success'

2 docker build .

查看虚悬镜像:

docker image ls -f dangling=true

删除虚悬镜像

docker image prune 虚悬镜像已经失去存在价值,可以删除 

2.4.3 自定义镜像myubuntu

1 编写dockerfile
FROM ubuntu
MAINTAINER yss<yss@163.com>
ENV MYPATH /usr/local/appserver
WORKDIR $MYPATH
RUN apt-get update
RUN apt-get install -net-tools -y
EXPOSE 80
CMD $MYPATH
CMD echo "install inconfig cmd into ubuntu success------ok"
CMD /bin/bash

2 构建镜像
docker build -t myubuntu:1.0 .

3 运行容器
docker run -it myubuntu:1.0 /bin/bash

2.4.4 常见问题

1 注意dockerfile 中的指令是逐条执行,且相互独立

下面这种写法会报错,第二个RUN执行时的WORKDIR依旧是原来的目录,不是/some/dir
RUN cd /some/dir
RUN bash script.sh

改成下面两种之一
RUN cd /some/dir && bash script.sh
RUN bash /some/dir/script.sh

2 提防过度“缓存”

大部分都指令在build是会生成对应的一层(layer),并被缓存。这种机制在绝大部分情况下都工作得很好,但有时也会产生问题

dockerfile1

FROM ubuntu:18.04
RUN apt-get update
RUN apt-get install -y nginx

dockerfile2

FROM ubuntu:18.04
RUN apt-get update
RUN apt-get install -y nginx curl

如上,原dockerfile1使用一段时间后修改成dockerfile2,(只修改了install这一行)。由于缓存机制(假设之前的build的缓存还存在),Dockerfile2在build时,update这一行不会真的执行,而是直接拿之前的缓存,此时按住那的nginx和curl可能就不是最新版本。

官方推荐的apt-get使用方式

RUN apt-get update && apt-get install -y crul \
nginx=1.16. \
&& rm -rf /var/lib/apt/lists/

3 ARG 和ENV

两种指令都可以用来定义变量,但是使用上有很多需要注意的点:

FROM 前的ARG只能在FROM中使用,如果在FROM后也要使用,需要重新声明

ARG key=value
FROM xxx${key}xxx
ARG key #这里需要再次声明才能使用

ARG变量的作用范围是build阶段ARG之后的指令,不会带入镜像
ENV 环境变量的作用范围是build阶段ENV声明的指令,并且会带入镜像,容器运行时这些环境变量也生效。

CMD和ENTRYPOINT中不能使用ARG和ENV定义的变量?

2.5 Docker 微服务实战

流程:

1 开发通过IDE新建一个普通微服务模块
2 通过dockerfile发布微服务部署到docker容器

材料:

docker环境、jar包

1 编写dockerfile
FROM java:8
MIANTAINER yss<123.com>
VOLUME /tmp
ADD docker_boot-0.0.1-SNAPSHOT.jar yss.jar
RUN bash -c 'touch /yss.jar'
ENTRYPOINT ["java","-jar","/yss.jar"]
EXPOSE 6001

2 将微服务jar包和Dockerfile文件上传到同一个目录下/mydocker
3 构建镜像
docker build -t yss_docker:1.6 .
4 运行容器
docker run -d -p 6001:6001 yss_docker:1.6
5 访问测试

3、Docker 网络解析

3.1 docker 网络是什么

docker未启动时,宿主机的网络情况是怎么样的

网卡1:ens33
网卡2:IO
网卡3:virbr0
在CentOS7的安装过程中,如果有选择相关虚拟化的的服务安装系统后,启动网卡时会发现有一个以网桥连接的私网地址的virbr0网卡(virbr0网卡:它还有一个固定的默认IP地址192.168.122.1),是做虚拟机网桥的使用的,其作用是为连接其上的虚机网卡提供 NAT访问外网的功能。 我们之前学习Linux安装,勾选安装系统的时候附带了libvirt服务才会生成的一个东西,如果不需要可以直接将libvirtd服务卸载,yum remove libvirt-libs.x86_64

docker启动后,宿主机的网络情况发生了变化,会产生一个名为docker0的虚拟网桥。docker默认会创建三大网络模式。

[root@gitlab ~]# docker network ls
NETWORK ID     NAME      DRIVER    SCOPE
a6f21e90ab7b   bridge    bridge    local
d023c5aa1957   host      host      local
43127b654ab6   none      null      local

3.2 docker网络的相关命令

查看网络

docker network ls
查看网络源数据

docker network inspect xxx网络名字
docker network inspect bridge
删除网络

docker network rm xxx网络名字
docker netword rm bridge

3.3 docker 网络的功能

1 容器之间的互联、通信及端口映射
2 容器IP变动时,可以通过服务名直接网络通信而不受影响

3.4 docker 的网络模式

3.4.1 总体介绍

bridge模式:使用 --network bridge 指定,默认使用docker0网卡
host模式:使用 --network host 指定
none模式:使用 --network none 指定
container模式:使用 --network container:容器名/容器ID 指定

3.4.2 容器实例内默认的IP生成规则

1 先启动两个容器实例
u1:docker run -id centos /bin/bash
u2:docker run -id centos /bin/bash
2 docker inspect 容器ID or 容器名字
docker inspect 0f1cc2b28b41
172.17.0.5
3 关闭u2实例,新建u3,重启u2查看ip变化
docker stop 0f1cc2b28b41
docker run -id centos /bin/bash
docker inspect d4029c29931c
172.17.0.5
发现u3的ip是5,而u2的ip是6

结论:docker容器内部的ip是有可能会发生改变的

3.4.3 详细说明

bridge

1 是什么

Docker 服务默认会创建一个 docker0 网桥(其上有一个 docker0 内部接口),该桥接网络的名称为docker0,它在内核层连通了其他的物理或虚拟网卡,这就将所有容器和本地主机都放到同一个物理网络。Docker 默认指定了 docker0 接口 的 IP 地址和子网掩码,让主机和容器之间可以通过网桥相互通信。

查看 bridge 网络的详细信息,并通过 grep 获取名称项

docker network inspect bridge | grep name ifconfig

2 案例说明

1 Docker使用Linux桥接,在宿主机虚拟一个Docker容器网桥(docker0),Docker启动一个容器时会根据Docker网桥的网段分配给容器一个IP地址,称为Container-IP,同时Docker网桥是每个容器的默认网关。因为在同一宿主机内的容器都接入同一个网桥,这样容器之间就能够通过容器的Container-IP直接通信。

2 docker run 的时候,没有指定network的话默认使用的网桥模式就是bridge,使用的就是docker0。在宿主机ifconfig,就可以看到docker0和自己create的network(后面讲)eth0,eth1,eth2……代表网卡一,网卡二,网卡三……,lo代表127.0.0.1,即localhost,inet addr用来表示网卡的IP地址

3 网桥docker0创建一对对等虚拟设备接口一个叫veth,另一个叫eth0,成对匹配。

3.1 整个宿主机的网桥模式都是docker0,类似一个交换机有一堆接口,每个接口叫veth,在本地主机和容器内分别创建一个虚拟接口,并让他们彼此联通(这样一对接口叫veth pair); 3.2 每个容器实例内部也有一块网卡,每个接口叫eth0;

3.3 docker0上面的每个veth匹配某个容器实例内部的eth0,两两配对,一一匹配。 通过上述,将宿主机上的所有容器都连接到这个内部网络上,两个容器在同一个网络下,会从这个网关下各自拿到分配的ip,此时两个容器的网络是互通的。

3 案例代码

docker run -d -p 8081:8080 --name tomcat81 billygoo/tomcat8-jdk8
docker run -d -p 8082:8080 --name tomcat82 billygoo/tomcat8-jdk8

host

直接使用宿主机的 IP 地址与外界进行通信,不再需要额外进行NAT 转换。

容器将不会获得一个独立的Network Namespace, 而是和宿主机共用一个Network Namespace。容器将不会虚拟出自己的网卡而是使用宿主机的IP和端口。

没有设置-p的端口映射了,如何访问启动的tomcat83??

http://宿主机IP:8080/ 在CentOS里面用默认的火狐浏览器访问容器内的tomcat83看到访问成功,因为此时容器的IP借用主机的,所以容器共享宿主机网络IP,这样的好处是外部主机与容器可以直接通信。

none

禁用网络功能,只有lo标识(就是127.0.0.1表示本地回环)

在none模式下,并不为Docker容器进行任何网络配置。 也就是说,这个Docker容器没有网卡、IP、路由等信息,只有一个lo需要我们自己为Docker容器添加网卡、配置IP等。

docker run -d -p 8084:8080 --network none --name tomcat84 billygoo/tomcat8-jdk8
进入容器内部查看在容器外部查看

container

container⽹络模式 新建的容器和已经存在的一个容器共享一个网络ip配置而不是和宿主机共享。新创建的容器不会创建自己的网卡,配置自己的IP,而是和一个指定的容器共享IP、端口范围等。同样,两个容器除了网络方面,其他的如文件系统、进程列表等还是隔离的。

docker run -d -p 8085:8080 --name tomcat85 billygoo/tomcat8-jdk8
docker run -d -p 8086:8080 --network container:tomcat85 --name tomcat86 billygoo/tomcat8-jdk8

相当于tomcat86和tomcat85公用同一个ip同一个端口,导致端口冲突本案例用tomcat演示不合适。。。演示坑。。。。。。o(╥﹏╥)o 换一个镜像给大家演示,

案例2

Alpine操作系统是一个面向安全的轻型 Linux发行版
docker run -it --name alpine1 alpine /bin/sh
docker run -it --network container:alpine1 --name alpine2 alpine /bin/sh
运行结果,验证共用搭桥
加入此时关闭alpine1,再看alpine2
15: eth0@if16: 消失了。。。。。。关闭alpine1,再看看alpine2

自定义网络

before

docker run -d -p 8081:8080 --name tomcat81 billygoo/tomcat8-jdk8
docker run -d -p 8082:8080 --name tomcat82 billygoo/tomcat8-jdk8
上述成功启动并用docker exec进入各自容器实例内部
按照IP地址ping是OK的
按照服务名ping结果???
after

自定义桥接网络,自定义网络默认使用的是桥接网络bridge
新建自定义网络
新建容器加入上一步新建的自定义网络
docker run -d -p 8081:8080 --network zzyy_network --name tomcat81 billygoo/tomcat8-jdk8
docker run -d -p 8082:8080 --network zzyy_network --name tomcat82 billygoo/tomcat8-jdk8
互相ping测试
结论:

自定义网络本身就维护好了主机名和ip的对应关系(ip和域名都能通)
自定义网络本身就维护好了主机名和ip的对应关系(ip和域名都能通)
自定义网络本身就维护好了主机名和ip的对应关系(ip和域名都能通)

3.4.4 docker平台整体架构

从其架构和运行流程来看,Docker 是一个 C/S 模式的架构,后端是一个松耦合架构,众多模块各司其职。

Docker 运行的基本流程为:

1 用户是使用 Docker Client 与 Docker Daemon 建立通信,并发送请求给后者。

2 Docker Daemon 作为 Docker 架构中的主体部分,首先提供 Docker Server 的功能使其可以接受 Docker Client 的请求。

3 Docker Engine 执行 Docker 内部的一系列工作,每一项工作都是以一个 Job 的形式的存在。

4 Job 的运行过程中,当需要容器镜像时,则从 Docker Registry 中下载镜像,并通过镜像管理驱动 Graph driver将下载镜像以Graph的形式存储。

5 当需要为 Docker 创建网络环境时,通过网络管理驱动 Network driver 创建并配置 Docker 容器网络环境。

6 当需要限制 Docker 容器运行资源或执行用户指令等操作时,则通过 Execdriver 来完成。

7 Libcontainer是一项独立的容器管理包,Network driver以及Exec driver都是通过Libcontainer来实现具体对容器进行的操作。

4、Docker-compose 容器编排

4.1 Docker-compose是什么

Docker-Compose是Docker官方的开源项目,负责实现对Docker容器集群的快速编排。

Compose 是 Docker 公司推出的一个工具软件,可以管理多个 Docker 容器组成一个应用。你需要定义一个 YAML 格式的配置文件docker-compose.yml,写好多个容器之间的调用关系。然后,只要一个命令,就能同时启动/关闭这些容器

4.2 Docker-compose能干嘛

docker建议我们每一个容器中只运行一个服务,因为docker容器本身占用资源极少,所以最好是将每个服务单独的分割开来但是这样我们又面临了一个问题?

如果我需要同时部署好多个服务,难道要每个服务单独写Dockerfile然后在构建镜像,构建容器,这样累都累死了,所以docker官方给我们提供了docker-compose多服务部署的工具

例如要实现一个Web微服务项目,除了Web服务容器本身,往往还需要再加上后端的数据库mysql服务容器,redis服务器,注册中心eureka,甚至还包括负载均衡容器等等。。。。。。

Compose允许用户通过一个单独的docker-compose.yml模板文件(YAML 格式)来定义一组相关联的应用容器为一个项目(project)。

可以很容易地用一个配置文件定义一个多容器的应用,然后使用一条指令安装这个应用的所有依赖,完成构建。Docker-Compose 解决了容器与容器之间如何管理编排的问题。

4.3 Docker-compose去哪下

官网:

https://docs.docker.com/compose/compose-file/compose-file-v3/
官网下载:

https://docs.docker.com/compose/install/

下载步骤:

curl -L "https://github.com/docker/compose/releases/download/1.29.2/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose

chmod +x /usr/local/bin/docker-compose
docker-compose --version
如果下载不了,可以本地下载包传到服务器上即可

4.4 Docker-compose核心概念

一文件,两要素

一文件:
docker-compose.yml
两要素:
服务(service):指的是一个个应用服务,如nginx,mysql,redis容器
工程(project):一组关联的服务组成的一个完整的业务单元,在docker-compose中定义。

4.5 compose使用的三个步骤

步骤一:编写dockerfile 定义各微服务应用,并构建出对应的镜像文件
步骤二:编写docker-compose.yml 定义一个完整的业务单元,安排好整个业务单元内的各个容器服务
步骤三:最后,用命令 docker-compose up来启动并运行整个业务单元,完成一键部署上线。

4.6 compose 常用命令

Compose常用命令
docker-compose -h # 查看帮助
docker-compose up # 启动所有docker-compose服务
docker-compose up -d # 启动所有docker-compose服务并后台运行
docker-compose down # 停止并删除容器、网络、卷、镜像。
docker-compose exec yml里面的服务id # 进入容器实例内部
docker-compose exec docker-compose.yml 文件中写的服务id /bin/bash
docker-compose ps # 展示当前docker-compose编排过的运行的所有容器
docker-compose top # 展示当前docker-compose编排过的容器进程

docker-compose logs yml里面的服务id # 查看容器输出日志
docker-compose config # 检查配置
docker-compose config -q # 检查配置,有问题才有输出
docker-compose restart # 重启服务
docker-compose start # 启动服务
docker-compose stop # 停止服务
docker-compose常用模板

version
docker-compose.yml 第一项必须指定version,当前docker-compose支持最高version 4,我们可以指定version版本低于4,如version "3" version "3.2"

services
指定各个容器服务,是复数,后面可以指定各个service的相关信息。

image
指定service启动的镜像,可以是镜像名,或镜像ID,如果镜像本地不存在,compose会主动拉取这个镜像。
image: tomcat:latest
image: a3fe8392f2t

ports
暴露端口信息。格式:host port:container port
可以只指定container port,这样宿主机会随机分配端口
例:
ports:

  • "3000"
  • "127.0.0.1:8080:8080"
  • "8080:8080"
    注意:当使用 host port:container port 这种格式映射端口时,建议都把端口放到引号里。
    当不放在引号里且容器端口小于60时,可能会得到错误结果。因为yaml会自动解析xx:yy这种格式为60进制数值,用引号把端口号改为字符串格式,避免这种错误。

volume
volume是数据集的挂载指定,可以通过绝对路径指定,或者容器数据卷名称指定。并且可以设置读写权限,默认为rw。
volumes:

  • /root/mysql:/var/lib/mysql:ro #绝对路径映射
  • my_data:/var/lib/mysql:rw
    volumes:
    my_data:
    注意:使用容器数据卷时,需要在services同级下声明容器数据卷名称apps_my_data;启动后会自动在宿主机/var/lib/docker/下创建映射目录,可通过以下命令查看
    docker inspect apps_my_data

volumes: #声明上面使用的自动创建的卷名
my_data: #声明卷名,compose自动创建该卷名但是会在前面加上项目名
external: #使用外部的自定义的卷名,一旦使用外部自定义卷名,compose不再自动创建,启动服务前需要提前创建该卷。
true #true为确定使用自定义卷名
docker volume create xxxx 提前创建卷

network
调用:
networks:

  • mynet1
    定义:
    networks:
    mynet1: #声明上面的服务用到的网桥名称,默认创建bridge
    container_name
    指定容器名称,在容器通信中,不仅可以通过容器IP,也可以通过容器名进行通信。
    environment
    指定环境变量。可以使用数组和字典两种格式
    environment:
    key1: value1
    key2:
    environment:
  • key1=value1
  • key2
    只给定名称的变量,会自动获取运行compose的主机上对应变量的值,可以用来防止泄露不必要的数据。
    如果变量值中用到true/false,yes/no等表达布尔值含义的词汇,yaml文件会自动把这些值解析成布尔值,所以最好放到引号里,
    这些值包括:yes/no false/true on/off包括其大写
    command:
    指定 覆盖容器启动后,默认执行的命令
    command: "redis-server --appendonly yes" #镜像启动之后,用来覆盖容器内本来要执行的默认命令。
    env_file

从文件中获取环境变量,可以为单独的文件路径或者列表

如果通过docker-compose -f flie 来指定配置文件,则env_file 配置的变量路径会基于配置文件所在的目录;如果有变量名称与environment定义的变量有冲突,则以最后定义的为准。

4.7 compose编排微服务

4.7.1 不用容器编排

编写jar包微服务dockerfile

FROM java:8
MAINTAINER zzyy
VOLUME /tmp
ADD docker_boot-0.0.1-SNAPSHOT.jar yss_docker.jar
RUN bash -c 'touch /yss_docker.jar'
ENTRYPOINT ["java","-jar","/zzyy_docker.jar"]
EXPOSE 6001

构建镜像:
docker build -t yss_docker:1.6 .

部署mysql容器实例

docker run -p 3306:3306 --name mysql57 --privileged=true \
-v /yss/mysql/conf:/etc/mysql/conf.d \
-v /yss/mysql/logs:/logs \
-v /yss/mysql/data:/var/lib/mysql \
-e MYSQL_ROOT_PASSWORD=123456 -d mysql:5.7

进入容器实例,并新建库db2023,新建表t_user
docker exec -it mysql57 /bin/bash 
mysql -uroot -p

create database db2023;
use db2021;
CREATE TABLE `t_user` 
(`id` INT(10) UNSIGNED NOT NULL AUTO_INCREMENT,
`username` VARCHAR(50) NOT NULL DEFAULT '' COMMENT '用户名',
`password` VARCHAR(50) NOT NULL DEFAULT '' COMMENT '密码',
`sex` TINYINT(4) NOT NULL DEFAULT '0' COMMENT '性别 0=女 1=男 ',
`deleted` TINYINT(4) UNSIGNED NOT NULL DEFAULT '0' COMMENT '删除标志,默认0不删除,1删除',
`update_time` TIMESTAMP NOT NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP COMMENT '更新时间',
`create_time` TIMESTAMP NOT NULL DEFAULT CURRENT_TIMESTAMP COMMENT '创建时间',
PRIMARY KEY (`id`)) ENGINE=INNODB AUTO_INCREMENT=1 DEFAULT CHARSET=utf8mb4 COMMENT='用户表';

部署redis实例

docker run  -p 6379:6379 --name redis608 --privileged=true \
-v /app/redis/redis.conf:/etc/redis/redis.conf \
-v /app/redis/data:/data -d redis:6.0.8 redis-server /etc/redis/redis.conf

启动微服务

 docker run -d -p 6001:6001 zzyy_docker:1.6

上面三个容器按顺序依次启动成功
测试微服务

http://localhost:你的微服务端口/swagger-ui.html#/

这样一个个容器部署的问题:

1 先后顺序要求固定,先mysql+redis才能微服务访问成功
2 多个run命令......
3 容器间的启停或宕机,有可能导致IP地址对应的容器实例变化,映射出错,要么生产IP写死(可以但是不推荐),要么通过服务调用

4.7.2 使用容器编排

构建jar微服务镜像

docker build -t zzyy_docker:1.6 .

编写docker-compose.yml文件

version: "3"

services:
  microService:
    image: zzyy_docker:1.6
    container_name: ms01
    ports:
      - "6001:6001"
    volumes:
      - /app/microService:/data
    networks: 
      - atguigu_net 
    depends_on: 
      - redis
      - mysql

  redis:
    image: redis:6.0.8
    ports:
      - "6379:6379"
    volumes:
      - /app/redis/redis.conf:/etc/redis/redis.conf
      - /app/redis/data:/data
    networks: 
      - atguigu_net
    command: redis-server /etc/redis/redis.conf

  mysql:
    image: mysql:5.7
    environment:
      MYSQL_ROOT_PASSWORD: '123456'
      MYSQL_ALLOW_EMPTY_PASSWORD: 'no'
      MYSQL_DATABASE: 'db2021'
      MYSQL_USER: 'zzyy'
      MYSQL_PASSWORD: 'zzyy123'
    ports:
       - "3306:3306"
    volumes:
       - /app/mysql/db:/var/lib/mysql
       - /app/mysql/conf/my.cnf:/etc/my.cnf
       - /app/mysql/init:/docker-entrypoint-initdb.d
    networks:
      - atguigu_net
    command: --default-authentication-plugin=mysql_native_password #解决外部无法访问

networks: 
   atguigu_net: 

运行docker-compose.yml

执行 
docker-compose up
或者执行 
docker-compose up -d

进入mysql容器实例,新建库表

docker exec -it 容器实例id /bin/bash
mysql -uroot -pcreate database db2023;
use db2021;
CREATE TABLE `t_user` (
`id` INT(10) UNSIGNED NOT NULL AUTO_INCREMENT,  
`username` VARCHAR(50) NOT NULL DEFAULT '' COMMENT '用户名',  
`password` VARCHAR(50) NOT NULL DEFAULT '' COMMENT '密码',  
`sex` TINYINT(4) NOT NULL DEFAULT '0' COMMENT '性别 0=女 1=男 ',  
`deleted` TINYINT(4) UNSIGNED NOT NULL DEFAULT '0' COMMENT '删除标志,默认0不删除,1删除',  
`update_time` TIMESTAMP NOT NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP COMMENT '更新时间',  
`create_time` TIMESTAMP NOT NULL DEFAULT CURRENT_TIMESTAMP COMMENT '创建时间',  
PRIMARY KEY (`id`)) ENGINE=INNODB AUTO_INCREMENT=1 DEFAULT CHARSET=utf8mb4 COMMENT='用户表';

关停:

docker-compose down
版权声明:除特殊说明,博客文章均为cuckooyang原创,依据CC BY-SA 4.0许可证进行授权,转载请附上出处链接及本声明。 | 博客订阅:RSS | 广告招租:留言板 | 博客VPS |
暂无评论

发送评论 编辑评论


				
|´・ω・)ノ
ヾ(≧∇≦*)ゝ
(☆ω☆)
(╯‵□′)╯︵┴─┴
 ̄﹃ ̄
(/ω\)
∠( ᐛ 」∠)_
(๑•̀ㅁ•́ฅ)
→_→
୧(๑•̀⌄•́๑)૭
٩(ˊᗜˋ*)و
(ノ°ο°)ノ
(´இ皿இ`)
⌇●﹏●⌇
(ฅ´ω`ฅ)
(╯°A°)╯︵○○○
φ( ̄∇ ̄o)
ヾ(´・ ・`。)ノ"
( ง ᵒ̌皿ᵒ̌)ง⁼³₌₃
(ó﹏ò。)
Σ(っ °Д °;)っ
( ,,´・ω・)ノ"(´っω・`。)
╮(╯▽╰)╭
o(*////▽////*)q
>﹏<
( ๑´•ω•) "(ㆆᴗㆆ)
😂
😀
😅
😊
🙂
🙃
😌
😍
😘
😜
😝
😏
😒
🙄
😳
😡
😔
😫
😱
😭
💩
👻
🙌
🖕
👍
👫
👬
👭
🌚
🌝
🙈
💊
😶
🙏
🍦
🍉
😣
Source: github.com/k4yt3x/flowerhd
颜文字
Emoji
小恐龙
花!
上一篇
下一篇