百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

Docker部署各种服务(服务器docker部署)

nanshan 2024-10-10 07:16 14 浏览 0 评论

Docker搭建MySQL5.7

# 拉取 mysql 5.7
docker pull mysql:5.7   

检查是否拉取成功

docker images 

创建MySql容器

docker run -p 3306:3306 --name mysql -e MYSQL_ROOT_PASSWORD=123456 -d mysql:5.7
# 或者   -v:配置数据卷

docker run -p 3306:3306 --name=mysql --privileged=true -v /mysql/data:/var/lib/mysql -v /mysql/log:/var/log/mysql -v /mysql/conf:/etc/mysql/conf.d -e MYSQL_ROOT_PASSWORD=123456  -d mysql:5.7
  • –name:容器名,这里命名为mysql
  • -e:配置信息,此处配置mysql的root用户的登陆密码
  • -p:端口映射,此处映射 主机3306端口 到 容器的3306端口
  • -d:后台运行容器,保证在退出终端后容器继续运行
  • -v:宿主机与docker容器目录做挂载

如果报错invalid reference format,可能是因为复制后格式不对导致的,需要手动敲一下命令,尤其是里边的横杠;

检查容器是否正确运行

docker ps
# 或者
docker container ls

可以看到容器ID,容器的源镜像,启动命令,创建时间,状态,端口映射信息,容器名字


本地使用Navicat链接MySql


配置用户名是root,密码是root的用户可以远程连接可(不配置的话,项目启动报错,但是navicat可以连接)

GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' IDENTIFIED BY 'root' WITH GRANT OPTION;

FLUSH   PRIVILEGES;


下边的内容可以不做

进入运行MySQL的docker容器命令

docker exec ‐it mysql /bin/bash;


开机自动运行mysql容器

docker update --restart=always 容器id

关闭开机自动运行mysql容器

docker update --restart=no 容器id

使用select now();命令,发现日期不对,那是因为容器与宿主机时间没做同步。下一篇解决该问题;

Docker搭建Redis

docker pull redis:5;

docker run -p 6379:6379 --name redis -v /mydata/redis/data:/data -d redis:5  --appendonly yes

# 或者启动时设置密码为123456
docker run -p 6379:6379 --name redis -v /mydata/redis/data:/data -d redis:5 --requirepass 123456 --appendonly yes

进入Redis容器使用redis-cli命令进行连接

docker exec -it redis redis-cli

Docker搭建RabbitMq

# 下载镜像
docker pull rabbitmq:3.7.15;
# 创建容器
docker run -p 5672:5672 -p 15672:15672 --name rabbitmq -d rabbitmq:3.7.15

进入容器并开启管理功能:

# 进入容器
docker exec -it rabbitmq /bin/bash 
# 开启管理功能
rabbitmq-plugins enable rabbitmq_management

关闭防火墙

firewall-cmd --zone=public --add-port=15672/tcp --permanent

浏览器即可访问
http://192.168.199.128:15672/


账号密码:guest 、guest

Docker安装ElasticSearch、IK分词器、kibana、logstash

Docker安装单机版ElasticSearch

因为我们后边还需要部署kibana、logstash容器,因此需要让es和kibana、logstash容器互联,这里首先创建一个网络

创建挂在目录

mkdir -p /home/docker/elasticsearch/
mkdir -p /home/docker/elasticsearch/logs

# 赋权限
chmod -R 777 /home/docker/elasticsearch/

下载elasticsearch镜像

docker pull elasticsearch:7.6.2;

修改虚拟内存区域大小,否则会因为过小而无法启动:

sysctl -w vm.max_map_count=262144

初次启动镜像

docker run --name elasticsearch -p 9200:9200 -p 9300:9300 -e "discovery.type=single-node" \
-e ES_JAVA_OPTS="-Xms64m -Xmx128m" \
--network es-net \
-d elasticsearch:7.6.2

参数解释:

-e “cluster.name=es-docker-cluster”:设置集群名称

-e “http.host=0.0.0.0”:监听的地址,可以外网访问

-e “ES_JAVA_OPTS=-Xms512m -Xmx512m”:内存大小

-e “discovery.type=single-node”:非集群模式

-v es-data:/usr/share/elasticsearch/data:挂载逻辑卷,绑定es的数据目录(前边是宿主机目录,后边是容器目录)

-v es-logs:/usr/share/elasticsearch/logs:挂载逻辑卷,绑定es的日志目录(前边是宿主机目录,后边是容器目录)

-v es-plugins:/usr/share/elasticsearch/plugins:挂载逻辑卷,绑定es的插件目录

–privileged:授予逻辑卷访问权

–network es-net :加入一个名为es-net的网络中

-p 9200:9200:端口映射配置

在浏览器中输入:http://192.168.52.128:9200, 即可看到elasticsearch的响应结果:


复制配置文件到指定目录

docker cp elasticsearch:/usr/share/elasticsearch/config/ /home/docker/elasticsearch/
docker cp elasticsearch:/usr/share/elasticsearch/data/ /home/docker/elasticsearch/
docker cp elasticsearch:/usr/share/elasticsearch/plugins/ /home/docker/elasticsearch/

编辑jvm.options:根据实际情况修改JVM内存大小

cd /home/docker/elasticsearch//config/ vim jvm.options

默认jvm配置

-Xms1g
-Xmx1g

编辑elasticsearch.yml:追加如下内容

# 追加内容
http.cors.enabled: true
http.cors.allow-origin: "*"
node.name: node-1
discovery.seed_hosts: ["127.0.0.1"]

删除原有容器:

docker stop elasticsearch
docker rm elasticsearch

挂载启动新容器

docker run --name elasticsearch --restart=always \
-p 9200:9200 -p 9300:9300 -e "discovery.type=single-node" \
-v /home/docker/elasticsearch/config:/usr/share/elasticsearch/config \
-v /home/docker/elasticsearch/data:/usr/share/elasticsearch/data \
-v /home/docker/elasticsearch/plugins:/usr/share/elasticsearch/plugins \
-v /home/docker/elasticsearch/logs:/usr/share/elasticsearch/logs \
--network=es-net \
-d elasticsearch:7.6.2

再次在浏览器中输入:http://192.168.119.128:9200


Docker安装IK分词器

下面我们需要去GitHub下载ik分词器(注意版本,要与elasticsearch版本一致,都是7.6.2),https://github.com/,搜索:elasticsearch-analysis-ik


找到发行版


选择与ES一致的版本



下载后将压缩包上传到/home/docker/elasticsearch/plugins目录,解压

# 如果unzip命令不存在,则安装:yum install unzip
unzip elasticsearch-analysis-ik-7.6.2.zip -d ik-analyzer

# 解压完成后,删除`elasticsearch-analysis-ik-7.6.2.zip`压缩包
rm elasticsearch-analysis-ik-7.6.2.zip -rf

重启

docker restart elasticsearch

验证

使用docker exec -it elasticsearch /bin/bash 命令 进入容器内部

进入容器的 cd /usr/share/elasticsearch/bin 目录

执行 elasticsearch-plugin list 命令(列出es安装的所有插件)

如果列出了 ik-analyzer 就说明es的ik中文分词器安装成功了


测试:使用postman进行测试,发现分词成功


Docker安装kibana

docker pull kibana:7.6.2
docker run -d \
--name kibana \
-e ELASTICSEARCH_HOSTS=http://elasticsearch:9200 \
--network=es-net \
-p 5601:5601  \
kibana:7.6.2

参数解释:

–network es-net :加入一个名为es-net的网络中,与elasticsearch在同一个网络中

-e ELASTICSEARCH_HOSTS=http://elasticsearch:9200":设置elasticsearch的地址,因为kibana已经与elasticsearch在一个网络,因此可以用容器名直接访问elasticsearch

-p 5601:5601:端口映射配置

kibana启动一般比较慢,需要多等待一会,可以通过命令查看启动日志:

docker logs -f kibana


访问:http://192.168.52.128:5601

Docker安装logstash

docker pull logstash:7.6.2

修改Logstash的配置文件logstash.conf中output节点下的Elasticsearch连接地址为es:9200,配置文件地址:

input {
 tcp {
 mode => "server"
 host => "0.0.0.0"
 port => 4560
 codec => json_lines
type => "debug"
 }
 tcp {
 mode => "server"
 host => "0.0.0.0"
 port => 4561
 codec => json_lines
 type => "error"
 }
 tcp {
 mode => "server"
 host => "0.0.0.0"
 port => 4562
 codec => json_lines
 type => "business"
}
 tcp {
 mode => "server"
 host => "0.0.0.0
 
 port => 4563
codec => json_lines
type => "record"
 }
}
filter{
	 if [type] == "record" {
		 mutate {
		 remove_field => "port"
		 remove_field => "host"
		remove_field => "@version"
	}
	 json {
		 source => "message"
		 remove_field => ["message"]
		 }
	 }
}
 output {
	 elasticsearch {
		 hosts => "192.168.50.66:9200"
		 index => "mall‐%{type}‐%{+YYYY.MM.dd}"
	 }
 }

创建/mydata/logstash目录,并将Logstash的配置文件logstash.conf拷贝到该目录;

mkdir /mydata/logstash;
docker run --name logstash -p 4560:4560 -p 4561:4561 -p 4562:4562 -p 4563:4563 --link elasticsearch:es -v /mydata/logstash/logstash.conf:/usr/share/logstash/pipeline/logstash.conf -d logstash:7.6.2

进入容器内部安装插件

docker exec -it logstash/bin/bash;
logstash-plugin install logstash-codec-json_lines

Docker安装mongoDB

docker pull mongo:4.2.5;
docker run -p 27017:27017 --name mongo -v /mydata/mongo/db:/data/db -d mongo:4.2.5

Docker安装oracle11g

# 拉取镜像
docker pull registry.cn-hangzhou.aliyuncs.com/helowin/oracle_11g;
# 启动容器
docker run -d -p 1521:1521 --name oracle11g registry.cn-hangzhou.aliyuncs.com/helowin/oracle_11g;
# 进入oracle11g容器进行配置
docker exec -it oracle11g bash;
# 切换到root用户下进行配置
su root
密码为:helowin
# 编辑profile文件配置ORACLE环境变量
vi /etc/profile

在最下边添加如下内容:

export ORACLE_HOME=/home/oracle/app/oracle/product/11.2.0/dbhome_2
export ORACLE_SID=helowin
export PATH=$ORACLE_HOME/bin:$PATH

让配置立刻生效

source /etc/profile

创建软连接

ln -s $ORACLE_HOME/bin/sqlplus /usr/bin

切换到oracle 用户

su - oracle

登录sqlplus并修改sys、system用户密码

sqlplus /nolog
conn /as sysdba

修改sys、system用户密码并刷新权限

alter user system identified by oracle;
alter user sys identified by oracle;
ALTER PROFILE DEFAULT LIMIT PASSWORD_LIFE_TIME UNLIMITED;

退出:

exit

查看一下oracle实例状态

lsnrctl status

使用plsql连接oracle服务端
服务名:helowin(一定要填写helowin)
密码:oracle(上边设置的密码)

Docker安装postgreSql

拉取镜像

docker pull postgres:14.8

启动容器

docker run --name postgres -e POSTGRES_PASSWORD=ts123456 -p 5432:5432 -v /home/zx/postgres/data:/var/lib/postgresql/data --privileged -d postgres:14.8

–name postgres:指定容器的名称;

-e POSTGRES_PASSWORD=ts123456:设置环境变量,这里为设定PostgreSQL数据库的密码;

-p 5432:5432:指定端口映射,前者为宿主机访问端口,后者为容器内端口。如果不指定端口映射,只有在容器内可以访问数据库,外部是无法访问的;

-v /home/zx/postgres/data:/var/lib/postgresql/data:v是volume的简写,即绑定一个卷,冒号前的路径为宿主机的路径(如果指定路径不存在会自动创建目录),冒号后为容器内路径。容器会把宿主机的目录映射到容器内的路径,这样容器运行中生成的数据实际上就是写到了宿主机的指定路径上,即使容器删除了,此路径的文件也不会删除,这样就做到了数据库的持久化存储。还可以通过docker volume提供的相关命令显式地创建volume,然后再挂载到容器上,这里不做介绍,请自行查询相关内容; -d:表示后台运行容器;

postgres:表示镜像的名称,docker基于上步拉取的镜像创建出容器

在navicat里,使用如下用户名密码即可登录:postgres/ts123456

相关推荐

在 Ubuntu 上安装 Zabbix(以 Zabbix 6.4 LTS 版本为例)

Zabbix是一个流行的开源监控解决方案,能够监控各种网络参数和服务器健康状态。一、环境准备系统要求Ubuntu20.04/22.04LTS至少2GBRAM(生产环境建议4GB+)至少1...

如何在 Ubuntu 24.04 服务器上安装 Apache Solr

ApacheSolr是一个免费、开源的搜索平台,广泛应用于实时索引。其强大的可扩展性和容错能力使其在高流量互联网场景下表现优异。Solr基于Java开发,提供了分布式索引、复制、负载均衡及自...

如何在 Ubuntu 24.04 LTS 或 22.04/20.04 上安装 Apache Maven

Maven是由Apache托管的开源工具,用于管理Java项目。它包含一个项目对象模型(POM):一个配置文件(XML),其中包含项目的基本信息,包括配置、项目依赖项等。Maven可以处理...

Cursor的终极对手——Trae Pro最新系统提示词

前段时间,字节的AI编程神器Trae国际版,终于甩出了Pro订阅计划!很多对它又爱又恨的小伙伴,直呼:终于等到你。爱它,是因为Trae长期免费+体验真香;恨它?还不是那该死的排队等待,...

AI系统提示词:V0(ai代码提示)

以下是对V0系统提示词(SystemPrompt)的分部分讲解与解读,帮助你理解其核心内容和设计意图。V0系统提示词##CoreIdentity-Youarev0,Vercel&...

8岁男童失踪第13天,搜救人员发现可疑水库,更恶心的事情发生了

Lookingatyourrequest,Ineedtorewritethearticleaboutthe8-year-oldmissingboywhilemaking...

docker常用指令及安装rabbitMQ(docker安装zabbix)

一、docker常用指令启动docker:systemctlstartdocker停止docker:systemctlstopdocker重启docker:systemctlrestart...

三步教你用Elasticsearch+PyMuPDF实现PDF大文件秒搜!

面对100页以上的大型PDF文件时,阅读和搜索往往效率低下。传统关系型数据库在处理此类数据时容易遇到性能瓶颈,而Elasticsearch凭借其强大的全文检索和分布式架构,成为理想解决方案。通过...

ElasticSearch中文分词插件(IK)安装

坚持原创,共同进步!请关注我,后续分享更精彩!!!前言ElasticSearch默认的分词插件对中文支持很不友好。一段话按规则会以每个中文字符来拆解,再分别建立倒排索引。如"中华人民共和国国歌...

SpringBoot使用ElasticSearch做文档对象的持久化存储?

ElasticSearch是一个基于Lucene的开源搜索引擎,广泛应用于日志分析、全文搜索、复杂查询等领域,在有些场景中使用ElasticSearch进行文档对象的持久化存储是一个很不错的选择...

Elasticsearch数据迁移方案(elasticsearch copyto)

前言最近小编要去给客户部署一套系统涉及到了Mysql和ES数据的迁移,下面就给大家分享一下ES数据迁移的几套方案,根据具体的使用场景来选择不同的迁移方案能使你事倍功半,话多说下面就一一介绍。Elast...

Rancher部署单体ElasticSearch(rancher2.5部署)

Rancher是k8s图形管理界面,之前曾有写文章介绍如何安装。ElasticSearch是热门搜索引擎,很多地方都有用到,常规安装部署略显繁琐,本文介绍在k8s下用rancher简易部署ES。1.在...

Elasticsearch在Java项目的搜索实践:从零开始构建高效搜索系统

Elasticsearch在Java项目中的搜索实践:从零开始构建高效搜索系统在现代的Java项目中,数据量激增,传统的数据库查询方式已经无法满足快速检索的需求。这时,Elasticsearch(E...

小白入门-Kibana安装(kibana安装配置)

一Kibana基础1.1介绍Kibana是一款免费且开放的前端应用程序,其基础是ElasticStack,可以为Elasticsearch中索引的数据提供搜索和数据可视化功能。Kiban...

Docker上使用Elasticsearch,Logstash,Kibana

在对一个项目做性能测试时我需要处理我们web服务器的访问日志来分析当前用户的访问情况。因此,我想这是试用ELK的一个好机会。ELK栈首先要注意的是使用它是非常简单的。从决定使用ELK到在本机上搭一个...

取消回复欢迎 发表评论: