【问题标题】:how to move elasticsearch data from one server to another如何将弹性搜索数据从一台服务器移动到另一台服务器
【发布时间】:2014-12-20 06:29:24
【问题描述】:

如何将 Elasticsearch 数据从一台服务器移动到另一台服务器?

我在一个具有多个索引的本地节点上有服务器 A running Elasticsearch 1.1.1。 我想将该数据复制到运行 Elasticsearch 1.3.4 的服务器 B

到目前为止的程序

  1. 关闭两台服务器上的 ES 和
  2. scp 将所有数据复制到新服务器上的正确数据目录。 (数据似乎位于我的 debian 机器上的 /var/lib/elasticsearch/)
  3. 将权限和所有权更改为 elasticsearch:elasticsearch
  4. 启动新的 ES 服务器

当我使用 ES 头插件查看集群时,没有出现任何索引。

数据似乎没有加载。我错过了什么吗?

【问题讨论】:

  • 如果您指的是索引,则通过数据,您可以简单地将 elasticsearch/data//nodes/ 文件夹中的 indices 文件夹移动到新的相应位置。这是 Windows 上的 elasticsearch 目录结构。不确定它在Debian上是否相同。但想法是,假设兼容性没有破坏,您可以直接将索引目录从一个集群移动到另一个集群。
  • 你确定 ES 1.1.1 和 ES 1.3.4 使用相同的 lucene 版本吗?这可能会导致兼容性问题。此外,不能保证 ES 元数据是相同的。我建议以编程方式进行复制。首先复制索引架构,然后导入数据。

标签: elasticsearch


【解决方案1】:

选择的答案听起来比实际复杂一些,以下是您需要的(首先在您的系统上安装 npm)。

npm install -g elasticdump
elasticdump --input=http://mysrc.com:9200/my_index --output=http://mydest.com:9200/my_index --type=mapping
elasticdump --input=http://mysrc.com:9200/my_index --output=http://mydest.com:9200/my_index --type=data

如果映射保持不变,您可以跳过第一个 elasticdump 命令以获取后续副本。

我刚刚完成了从 AWS 到 Qbox.io 的迁移,上面没有任何问题。

更多详情请访问:

https://www.npmjs.com/package/elasticdump

为了完整起见,包含帮助页面(截至 2016 年 2 月):

elasticdump: Import and export tools for elasticsearch

Usage: elasticdump --input SOURCE --output DESTINATION [OPTIONS]

--input
                    Source location (required)
--input-index
                    Source index and type
                    (default: all, example: index/type)
--output
                    Destination location (required)
--output-index
                    Destination index and type
                    (default: all, example: index/type)
--limit
                    How many objects to move in bulk per operation
                    limit is approximate for file streams
                    (default: 100)
--debug
                    Display the elasticsearch commands being used
                    (default: false)
--type
                    What are we exporting?
                    (default: data, options: [data, mapping])
--delete
                    Delete documents one-by-one from the input as they are
                    moved.  Will not delete the source index
                    (default: false)
--searchBody
                    Preform a partial extract based on search results
                    (when ES is the input,
                    (default: '{"query": { "match_all": {} } }'))
--sourceOnly
                    Output only the json contained within the document _source
                    Normal: {"_index":"","_type":"","_id":"", "_source":{SOURCE}}
                    sourceOnly: {SOURCE}
                    (default: false)
--all
                    Load/store documents from ALL indexes
                    (default: false)
--bulk
                    Leverage elasticsearch Bulk API when writing documents
                    (default: false)
--ignore-errors
                    Will continue the read/write loop on write error
                    (default: false)
--scrollTime
                    Time the nodes will hold the requested search in order.
                    (default: 10m)
--maxSockets
                    How many simultaneous HTTP requests can we process make?
                    (default:
                      5 [node <= v0.10.x] /
                      Infinity [node >= v0.11.x] )
--bulk-mode
                    The mode can be index, delete or update.
                    'index': Add or replace documents on the destination index.
                    'delete': Delete documents on destination index.
                    'update': Use 'doc_as_upsert' option with bulk update API to do partial update.
                    (default: index)
--bulk-use-output-index-name
                    Force use of destination index name (the actual output URL)
                    as destination while bulk writing to ES. Allows
                    leveraging Bulk API copying data inside the same
                    elasticsearch instance.
                    (default: false)
--timeout
                    Integer containing the number of milliseconds to wait for
                    a request to respond before aborting the request. Passed
                    directly to the request library. If used in bulk writing,
                    it will result in the entire batch not being written.
                    Mostly used when you don't care too much if you lose some
                    data when importing but rather have speed.
--skip
                    Integer containing the number of rows you wish to skip
                    ahead from the input transport.  When importing a large
                    index, things can go wrong, be it connectivity, crashes,
                    someone forgetting to `screen`, etc.  This allows you
                    to start the dump again from the last known line written
                    (as logged by the `offset` in the output).  Please be
                    advised that since no sorting is specified when the
                    dump is initially created, there's no real way to
                    guarantee that the skipped rows have already been
                    written/parsed.  This is more of an option for when
                    you want to get most data as possible in the index
                    without concern for losing some rows in the process,
                    similar to the `timeout` option.
--inputTransport
                    Provide a custom js file to us as the input transport
--outputTransport
                    Provide a custom js file to us as the output transport
--toLog
                    When using a custom outputTransport, should log lines
                    be appended to the output stream?
                    (default: true, except for `$`)
--help
                    This page

Examples:

# Copy an index from production to staging with mappings:
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=http://staging.es.com:9200/my_index \
  --type=mapping
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=http://staging.es.com:9200/my_index \
  --type=data

# Backup index data to a file:
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=/data/my_index_mapping.json \
  --type=mapping
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=/data/my_index.json \
  --type=data

# Backup and index to a gzip using stdout:
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=$ \
  | gzip > /data/my_index.json.gz

# Backup ALL indices, then use Bulk API to populate another ES cluster:
elasticdump \
  --all=true \
  --input=http://production-a.es.com:9200/ \
  --output=/data/production.json
elasticdump \
  --bulk=true \
  --input=/data/production.json \
  --output=http://production-b.es.com:9200/

# Backup the results of a query to a file
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=query.json \
  --searchBody '{"query":{"term":{"username": "admin"}}}'

------------------------------------------------------------------------------
Learn more @ https://github.com/taskrabbit/elasticsearch-dump`enter code here`

【讨论】:

【解决方案2】:

使用ElasticDump

1) yum install epel-release

2) 百胜安装 nodejs

3) yum 安装 npm

4) npm install elasticdump

5) cd node_modules/elasticdump/bin

6)

./elasticdump \

  --input=http://192.168.1.1:9200/original \

  --output=http://192.168.1.2:9200/newCopy \

  --type=data

【讨论】:

【解决方案3】:

您可以为此使用 Elasticsearch 中提供的 snapshot/restore 功能。设置基于文件系统的快照存储后,您可以在集群之间移动它并在不同的集群上恢复

【讨论】:

【解决方案4】:

我总是成功地将索引目录/文件夹复制到新服务器并重新启动它。您可以通过 GET /_cat/indices 找到索引 ID,与此 ID 匹配的文件夹位于 data\nodes\0\indices 中(通常在您的 elasticsearch 文件夹中,除非您移动它)。

【讨论】:

    【解决方案5】:

    我尝试在 ubuntu 上将数据从 ELK 2.4.3 移动到 ELK 5.1.1

    以下是步骤

    $ sudo apt-get update
    
    $ sudo apt-get install -y python-software-properties python g++ make
    
    $ sudo add-apt-repository ppa:chris-lea/node.js
    
    $ sudo apt-get update
    
    $ sudo apt-get install npm
    
    $ sudo apt-get install nodejs
    
    $ npm install colors
    
    $ npm install nomnom
    
    $ npm install elasticdump
    

    在主目录中转到

    $ cd node_modules/elasticdump/
    

    执行命令

    如果你需要基本的http auth,你可以这样使用:

    --input=http://name:password@localhost:9200/my_index
    

    从生产中复制索引:

    $ ./bin/elasticdump --input="http://Source:9200/Sourceindex" --output="http://username:password@Destination:9200/Destination_index"  --type=data
    

    【讨论】:

    • 这很好。只需确保在 add-apt-repository 之前运行 sudo apt-get install -y software-properties-common
    • 希望它值得 +1
    【解决方案6】:

    还有_reindex 选项

    来自文档:

    通过 5.x 及更高版本中提供的 Elasticsearch 重新索引 API,您可以将新的 Elasticsearch 服务部署远程连接到旧的 Elasticsearch 集群。这会从旧集群中提取数据并将其索引到新集群中。重新索引实质上是从头开始重建索引,运行起来可能会占用更多资源。

    POST _reindex
    {
      "source": {
        "remote": {
          "host": "https://REMOTE_ELASTICSEARCH_ENDPOINT:PORT",
          "username": "USER",
          "password": "PASSWORD"
        },
        "index": "INDEX_NAME",
        "query": {
          "match_all": {}
        }
      },
      "dest": {
        "index": "INDEX_NAME"
      }
    }
    

    【讨论】:

      【解决方案7】:

      如果您可以将第二台服务器添加到集群中,您可以这样做:

      1. 将服务器 B 添加到服务器 A 的集群中
      2. 增加索引的副本数
      3. ES 会自动将索引复制到服务器 B
      4. 关闭服务器A
      5. 减少索引的副本数

      这仅在替换数等于节点数时才有效。

      【讨论】:

      • 我相信当版本不同时这将不起作用(就像 OP 的问题一样)
      • 当然。我现在正在将我的数据从 ESv1.7 迁移到 ESv5。我的选择不适合它,因为映射中的许多东西都发生了变化。
      【解决方案8】:

      如果有人遇到同样的问题,在尝试从 elasticsearch 2.0 时,您需要这样做:

      elasticdump --input=http://localhost:9200/$SRC_IND --output=http://$TARGET_IP:9200/$TGT_IND --type=analyzer
      elasticdump --input=http://localhost:9200/$SRC_IND --output=http://$TARGET_IP:9200/$TGT_IND --type=mapping
      elasticdump --input=http://localhost:9200/$SRC_IND --output=http://$TARGET_IP:9200/$TGT_IND --type=data --transform "delete doc.__source['_id']"
      

      【讨论】:

        【解决方案9】:

        我们可以使用elasticdumpmultielasticdump 进行备份和恢复,我们可以将数据从一台服务器/集群移动到另一台服务器/集群。

        请找到我提供的详细答案here

        【讨论】:

          【解决方案10】:

          如果您只是需要将数据从一台 elasticsearch 服务器传输到另一台,您也可以使用elasticsearch-document-transfer

          步骤:

          1. 在终端中打开一个目录并运行
            $ npm install elasticsearch-document-transfer.
          2. 创建文件config.js
          3. config.js中添加两个elasticsearch服务器的连接细节
          4. options.js 中设置适当的值
          5. 在终端运行
            $ node index.js

          【讨论】:

            【解决方案11】:

            您可以对集群的完整状态(包括所有数据索引)进行快照,并在新集群或服务器中恢复它们(使用恢复 API)。

            【讨论】:

              【解决方案12】:

              如果您不想像控制台工具那样使用 elasticdump。你可以使用下一个 node.js script

              【讨论】:

                猜你喜欢
                • 1970-01-01
                • 2011-08-25
                • 1970-01-01
                • 1970-01-01
                • 1970-01-01
                • 1970-01-01
                • 1970-01-01
                • 1970-01-01
                相关资源
                最近更新 更多