nthforsth

一、官网教程

https://docs.pingcap.com/zh/tidb/v4.0/quick-start-with-tidb#Linux

  • 部署主机软件和环境要求:

    • 部署需要使用部署主机的 root 用户及密码
    • 部署主机关闭防火墙或者开放 TiDB 集群的节点间所需端口
    • 目前 TiUP 支持在 x86_64 (AMD64 和 ARM) 架构上部署 TiDB 集群,在 AMD64 架构下,建议使用 CentOS 7.3 及以上版本 Linux 操作系统,在 ARM 架构下,建议使用 CentOS 7.6 1810 版本 Linux 操作系统

二、安装步骤

1、下载并安装 TiUP:

curl --proto \'=https\' --tlsv1.2 -sSf https://tiup-mirrors.pingcap.com/install.sh | sh

2、声明一下环境变量,否则会找不到 tiup 命令

source .bash_profile

3、安装 TiUP 的 cluster 组件:

tiup cluster

4、官方教程说,由于模拟多机部署,需要通过 root 用户调大 sshd 服务的连接数限制:

  • 修改 /etc/ssh/sshd_config 将 MaxSessions 调至 20。
  • 重启 sshd 服务: service sshd restart
vi  /etc/ssh/sshd_confi
----------------------
MaxSessions=20
service sshd restart

5、创建并启动集群

我这里先创建了 /opt/TiDB/tidb-deploy 和 /opt/TiDB/tidb-data 目录
然后在 /opt/TiDB 下创建 topology.yaml 文件,内容:

# # Global variables are applied to all deployments and used as the default value of
# # the deployments if a specific deployment value is missing.
global:
 user: "tidb"
 ssh_port: 22
 deploy_dir: "/opt/TiDB/tidb-deploy"
 data_dir: "/opt/TiDB/tidb-data"

# # Monitored variables are applied to all the machines.
monitored:
 node_exporter_port: 9100
 blackbox_exporter_port: 9115

server_configs:
 tidb:
   log.slow-threshold: 300
 tikv:
   readpool.storage.use-unified-pool: false
   readpool.coprocessor.use-unified-pool: true
 pd:
   replication.enable-placement-rules: true
   replication.location-labels: ["host"]
 tiflash:
   logger.level: "info"

pd_servers:
 - host: 192.168.169.138

tidb_servers:
 - host: 192.168.169.138

tikv_servers:
 - host: 192.168.169.138
   port: 20160
   status_port: 20180
   config:
     server.labels: { host: "logic-host-1" }

 - host: 192.168.169.138
   port: 20161
   status_port: 20181
   config:
     server.labels: { host: "logic-host-2" }

 - host: 192.168.169.138
   port: 20162
   status_port: 20182
   config:
     server.labels: { host: "logic-host-3" }

tiflash_servers:
 - host: 192.168.169.138

monitoring_servers:
 - host: 192.168.169.138

grafana_servers:
 - host: 192.168.169.138

6、执行集群部署命令

 tiup cluster deploy tidb-test v5.0.2 ./topology.yaml --user root -p

模板命令:

tiup cluster deploy <cluster-name> <tidb-version> ./topo.yaml --user root -p

执行这段命令后,就开始下载资源了

7、启动集群

tiup cluster start tidb-test

命令模板:

tiup cluster start <cluster-name>

8、访问集群

  • 访问 TiDB 数据库,密码为空:
mysql -h 10.0.1.1 -P 4000 -u root
  • 访问 TiDB 的 Grafana 监控:
通过 http://{grafana-ip}:3000 访问集群 Grafana 监控页面,默认用户名和密码均为 admin。
---------------------
http://192.168.169.138:3000 

  • 访问 TiDB 的 Dashboard:
通过 http://{pd-ip}:2379/dashboard 访问集群 TiDB Dashboard 监控页面,默认用户名为 root,密码为空。
---------------------------------------------------
http://192.168.169.138:2379/dashboard

  • 执行以下命令确认当前已经部署的集群列表:
tiup cluster list
  • 执行以下命令查看集群的拓扑结构和状态:
tiup cluster display <cluster-name>

三、TiKV连接超时解决方案

timed out waiting for port 20161 to be started after 2m0s

  • TIDB占用磁盘远超8个G,适当扩展磁盘空间

查看当前目录占用磁盘大小

du -sh *
-----------------
6.6G	tidb-data
1.8G	tidb-deploy
4.0K	topology.yaml

查看系统盘已用容量

df -h

扩展磁盘空间,在给予适当内存后重启即可

分类:

技术点:

相关文章: