【问题标题】:java.lang.RuntimeException: Unable to instantiate org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClientjava.lang.RuntimeException:无法实例化 org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient
【发布时间】:2016-02-17 06:19:10
【问题描述】:

我在 ubuntu 14.0 上安装了 Hadoop 2.7.1 和 apache-hive-1.2.1 版本。

  1. 为什么会出现这个错误?
  2. 是否需要安装任何 Metastore?
  3. 当我们在终端输入 hive 命令时,xml 的内部调用方式是什么,这些 xml 的流程是什么?
  4. 还需要其他配置吗?

当我在 ubuntu 14.0 终端上编写 hive 命令时,它会抛出以下异常。

 $ hive

    Logging initialized using configuration in jar:file:/usr/local/hive/apache-hive-1.2.1-bin/lib/hive-common-1.2.1.jar!/hive-log4j.properties
    Exception in thread "main" java.lang.RuntimeException: java.lang.RuntimeException: Unable to instantiate org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient
        at org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:522)
        at org.apache.hadoop.hive.cli.CliDriver.run(CliDriver.java:677)
        at org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:621)
        at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
        at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
        at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
        at java.lang.reflect.Method.invoke(Method.java:520)
        at org.apache.hadoop.util.RunJar.run(RunJar.java:221)
        at org.apache.hadoop.util.RunJar.main(RunJar.java:136)
    Caused by: java.lang.RuntimeException: Unable to instantiate org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient
        at org.apache.hadoop.hive.metastore.MetaStoreUtils.newInstance(MetaStoreUtils.java:1523)
        at org.apache.hadoop.hive.metastore.RetryingMetaStoreClient.<init>(RetryingMetaStoreClient.java:86)
        at org.apache.hadoop.hive.metastore.RetryingMetaStoreClient.getProxy(RetryingMetaStoreClient.java:132)
        at org.apache.hadoop.hive.metastore.RetryingMetaStoreClient.getProxy(RetryingMetaStoreClient.java:104)
        at org.apache.hadoop.hive.ql.metadata.Hive.createMetaStoreClient(Hive.java:3005)
        at org.apache.hadoop.hive.ql.metadata.Hive.getMSC(Hive.java:3024)
        at org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:503)
        ... 8 more
    Caused by: java.lang.reflect.InvocationTargetException
        at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)
        at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:62)
        at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45)
        at java.lang.reflect.Constructor.newInstance(Constructor.java:426)
        at org.apache.hadoop.hive.metastore.MetaStoreUtils.newInstance(MetaStoreUtils.java:1521)
        ... 14 more
    Caused by: javax.jdo.JDOFatalInternalException: Error creating transactional connection factory
    NestedThrowables:
    java.lang.reflect.InvocationTargetException
        at org.datanucleus.api.jdo.NucleusJDOHelper.getJDOExceptionForNucleusException(NucleusJDOHelper.java:587)
        at org.datanucleus.api.jdo.JDOPersistenceManagerFactory.freezeConfiguration(JDOPersistenceManagerFactory.java:788)
        at org.datanucleus.api.jdo.JDOPersistenceManagerFactory.createPersistenceManagerFactory(JDOPersistenceManagerFactory.java:333)
        at org.datanucleus.api.jdo.JDOPersistenceManagerFactory.getPersistenceManagerFactory(JDOPersistenceManagerFactory.java:202)
        at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
        at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
        at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
        at java.lang.reflect.Method.invoke(Method.java:520)
        at javax.jdo.JDOHelper$16.run(JDOHelper.java:1965)
        at java.security.AccessController.doPrivileged(Native Method)
        at javax.jdo.JDOHelper.invoke(JDOHelper.java:1960)
        at javax.jdo.JDOHelper.invokeGetPersistenceManagerFactoryOnImplementation(JDOHelper.java:1166)
        at javax.jdo.JDOHelper.getPersistenceManagerFactory(JDOHelper.java:808)
        at javax.jdo.JDOHelper.getPersistenceManagerFactory(JDOHelper.java:701)
        at org.apache.hadoop.hive.metastore.ObjectStore.getPMF(ObjectStore.java:365)
        at org.apache.hadoop.hive.metastore.ObjectStore.getPersistenceManager(ObjectStore.java:394)
        at org.apache.hadoop.hive.metastore.ObjectStore.initialize(ObjectStore.java:291)
        at org.apache.hadoop.hive.metastore.ObjectStore.setConf(ObjectStore.java:258)
        at org.apache.hadoop.util.ReflectionUtils.setConf(ReflectionUtils.java:76)
        at org.apache.hadoop.util.ReflectionUtils.newInstance(ReflectionUtils.java:136)
        at org.apache.hadoop.hive.metastore.RawStoreProxy.<init>(RawStoreProxy.java:57)
        at org.apache.hadoop.hive.metastore.RawStoreProxy.getProxy(RawStoreProxy.java:66)
        at org.apache.hadoop.hive.metastore.HiveMetaStore$HMSHandler.newRawStore(HiveMetaStore.java:593)
        at org.apache.hadoop.hive.metastore.HiveMetaStore$HMSHandler.getMS(HiveMetaStore.java:571)
        at org.apache.hadoop.hive.metastore.HiveMetaStore$HMSHandler.createDefaultDB(HiveMetaStore.java:624)
        at org.apache.hadoop.hive.metastore.HiveMetaStore$HMSHandler.init(HiveMetaStore.java:461)
        at org.apache.hadoop.hive.metastore.RetryingHMSHandler.<init>(RetryingHMSHandler.java:66)
        at org.apache.hadoop.hive.metastore.RetryingHMSHandler.getProxy(RetryingHMSHandler.java:72)
        at org.apache.hadoop.hive.metastore.HiveMetaStore.newRetryingHMSHandler(HiveMetaStore.java:5762)
        at org.apache.hadoop.hive.metastore.HiveMetaStoreClient.<init>(HiveMetaStoreClient.java:199)
        at org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient.<init>(SessionHiveMetaStoreClient.java:74)
        ... 19 more
    Caused by: java.lang.reflect.InvocationTargetException
        at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)
        at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:62)
        at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45)
        at java.lang.reflect.Constructor.newInstance(Constructor.java:426)
        at org.datanucleus.plugin.NonManagedPluginRegistry.createExecutableExtension(NonManagedPluginRegistry.java:631)
        at org.datanucleus.plugin.PluginManager.createExecutableExtension(PluginManager.java:325)
        at org.datanucleus.store.AbstractStoreManager.registerConnectionFactory(AbstractStoreManager.java:282)
        at org.datanucleus.store.AbstractStoreManager.<init>(AbstractStoreManager.java:240)
        at org.datanucleus.store.rdbms.RDBMSStoreManager.<init>(RDBMSStoreManager.java:286)
        at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)
        at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:62)
        at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45)
        at java.lang.reflect.Constructor.newInstance(Constructor.java:426)
        at org.datanucleus.plugin.NonManagedPluginRegistry.createExecutableExtension(NonManagedPluginRegistry.java:631)
        at org.datanucleus.plugin.PluginManager.createExecutableExtension(PluginManager.java:301)
        at org.datanucleus.NucleusContext.createStoreManagerForProperties(NucleusContext.java:1187)
        at org.datanucleus.NucleusContext.initialise(NucleusContext.java:356)
        at org.datanucleus.api.jdo.JDOPersistenceManagerFactory.freezeConfiguration(JDOPersistenceManagerFactory.java:775)
        ... 48 more
    Caused by: org.datanucleus.exceptions.NucleusException: Attempt to invoke the "BONECP" plugin to create a ConnectionPool gave an error : The specified datastore driver ("com.mysql.jdbc.Driver") was not found in the CLASSPATH. Please check your CLASSPATH specification, and the name of the driver.
        at org.datanucleus.store.rdbms.ConnectionFactoryImpl.generateDataSources(ConnectionFactoryImpl.java:259)
        at org.datanucleus.store.rdbms.ConnectionFactoryImpl.initialiseDataSources(ConnectionFactoryImpl.java:131)
        at org.datanucleus.store.rdbms.ConnectionFactoryImpl.<init>(ConnectionFactoryImpl.java:85)
        ... 66 more
    Caused by: org.datanucleus.store.rdbms.connectionpool.DatastoreDriverNotFoundException: The specified datastore driver ("com.mysql.jdbc.Driver") was not found in the CLASSPATH. Please check your CLASSPATH specification, and the name of the driver.
        at org.datanucleus.store.rdbms.connectionpool.AbstractConnectionPoolFactory.loadDriver(AbstractConnectionPoolFactory.java:58)
        at org.datanucleus.store.rdbms.connectionpool.BoneCPConnectionPoolFactory.createConnectionPool(BoneCPConnectionPoolFactory.java:54)
        at org.datanucleus.store.rdbms.ConnectionFactoryImpl.generateDataSources(ConnectionFactoryImpl.java:238)
        ... 68 more

为了避免上述错误,我创建了 hive-site.xml :

 <configuration>

      <property>
        <name>hive.metastore.warehouse.dir</name>
        <value>/home/local/hive-metastore-dir/warehouse</value>

      </property>

    <property>
      <name>javax.jdo.option.ConnectionURL</name>
      <value>jdbc:mysql://localhost:3306/hivedb?createDatabaseIfNotExist=true</value>
    </property>
    <property>
      <name>javax.jdo.option.ConnectionDriverName</name>
      <value>com.mysql.jdbc.Driver</value>
    </property>
    <property>
      <name>javax.jdo.option.ConnectionUserName</name>
      <value>user</value>
    </property>
    <property>
      <name>javax.jdo.option.ConnectionPassword</name>
      <value>password</value>
    </property>

    <configuration>

还提供了~/.bashrc file中的环境变量;错误仍然存​​在

#HIVE home directory configuration
export HIVE_HOME=/usr/local/hive/apache-hive-1.2.1-bin
export PATH="$PATH:$HIVE_HOME/bin"

【问题讨论】:

标签: apache hadoop hive


【解决方案1】:

我做了以下修改,我能够启动 Hive Shell 而没有任何错误:

1。 ~/.bashrc

在 bashrc 文件中,在 End Of File 处添加以下环境变量:sudo gedit ~/.bashrc

#Java Home directory configuration
export JAVA_HOME="/usr/lib/jvm/java-9-oracle"
export PATH="$PATH:$JAVA_HOME/bin"

# Hadoop home directory configuration
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin

export HIVE_HOME=/usr/lib/hive
export PATH=$PATH:$HIVE_HOME/bin

2。 hive-site.xml

您必须在 Hive 的 conf 目录中创建此文件(hive-site.xml)并添加以下详细信息

<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>

<property>
  <name>javax.jdo.option.ConnectionURL</name>
  <value>jdbc:mysql://localhost/metastore?createDatabaseIfNotExist=true</value>
</property>


<property>
  <name>javax.jdo.option.ConnectionDriverName</name>
  <value>com.mysql.jdbc.Driver</value>
</property>

<property>
  <name>javax.jdo.option.ConnectionUserName</name>
  <value>root</value>
</property>

<property>
  <name>javax.jdo.option.ConnectionPassword</name>
  <value>root</value>
</property>

<property>
  <name>datanucleus.autoCreateSchema</name>
  <value>true</value>
</property>

<property>
  <name>datanucleus.fixedDatastore</name>
  <value>true</value>
</property>

<property>
 <name>datanucleus.autoCreateTables</name>
 <value>True</value>
 </property>

</configuration>

3。您还需要将jar文件(mysql-connector-java-5.1.28.jar)放在Hive的lib目录中

4。在 Ubuntu 上启动 Hive Shell 所需的安装如下:

  1. MySql
  2. Hadoop
  3. 蜂巢
  4. Java

5。执行部分:

  1. 启动Hadoop的所有服务:start-all.sh

  2. 输入jps命令检查是否所有Hadoop服务都启动并运行:jps

  3. 输入hive命令进入hive shell:hive

【讨论】:

  • 我无法找到解决方案以及我做错了什么...我收到错误“FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec .DDLTask.java.lang.RuntimeException:当我在 hive>show databases 中运行命令时,无法实例化 org.apache.hadoop.hive.metastore.HiveMetaStoreClient”;提示..请帮我解决我做错的地方
  • 使用此命令在 Centos 上获取 jar:wget https://repo1.maven.org/maven2/mysql/mysql-connector-java/5.1.28/mysql-connector-java-5.1.28.jar
【解决方案2】:

启动配置单元元存储服务对我有用。 首先,为 Hive Metastore 设置数据库:

 $ hive --service metastore 

` https://docs.hortonworks.com/HDPDocuments/HDP2/HDP-2.3.4/bk_installing_manually_book/content/validate_installation.html

其次,运行以下命令:

 $ schematool -dbType mysql -initSchema  
 $ schematool -dbType mysql -info

https://cwiki.apache.org/confluence/display/Hive/Hive+Schema+Tool

【讨论】:

  • hive --service metastore & 并等待 5 分钟足以修复我的配置单元
【解决方案3】:

如果您只是在本地模式下玩,您可以删除 Metastore DB 并恢复它:

rm -rf metastore_db/
$HIVE_HOME/bin/schematool -initSchema -dbType derby

【讨论】:

    【解决方案4】:

    在我尝试的情况下

    $ hive --service metastore 
    

    我明白了

    MetaException(message:在元存储中找不到版本信息。)

    MySQL 中缺少元存储所需的必要表。手动创建表并重新启动配置单元元存储。

    cd $HIVE_HOME/scripts/metastore/upgrade/mysql/ 
    
    < Login into MySQL > 
    
    mysql> drop database IF EXISTS <metastore db name>; 
    mysql> create database <metastore db name>; 
    mysql> use <metastore db name>; 
    mysql> source hive-schema-2.x.x.mysql.sql; 
    

    metastore db name 应与 hive-site.xml 文件连接属性标记中提到的数据库名称匹配。

    hive-schema-2.x.x.mysql.sql 文件取决于当前目录中可用的版本。尝试使用最新的,因为它还包含许多旧架构文件。

    现在尝试执行hive --service metastore 如果一切顺利,那么只需从终端启动配置单元。

    >hive
    

    我希望以上答案能满足您的需要。

    【讨论】:

    • hive --service metastore & 足以修复 hive
    • @42n4 你的意思是!我只需要在末尾添加“&”吗?
    • 它与 & 一起工作了一段时间,但我不得不重新启动主服务器以从所有错误中恢复。
    【解决方案5】:

    在调试模式下运行 hive

    hive -hiveconf hive.root.logger=DEBUG,console

    然后执行

    show tables

    可以找到实际问题

    【讨论】:

      【解决方案6】:

      我已将 MySQL DB 用于 Hive MetaStore。请按照以下步骤操作:

      • 在 hive-site.xml 中的 metastore 应该是正确的
      <property>
       <name>javax.jdo.option.ConnectionURL</name> 
       <value>jdbc:mysql://localhost/metastorecreateDatabaseIfNotExist=true&amp;useSSL=false</value>
      </property>
      
      • 去mysql:mysql -u hduser -p
      • 然后运行drop database metastore
      • 然后从MySQL中出来并执行schematool -initSchema dbType mysql

      现在错误会消失。

      【讨论】:

        【解决方案7】:

        在堆栈跟踪中间,迷失在“反射”垃圾中,你可以找到根本原因:

        在 CLASSPATH 中找不到指定的数据存储驱动程序(“com.mysql.jdbc.Driver”)。请检查您的 CLASSPATH 规范和驱动程序的名称。

        【讨论】:

        • 嗨 Samson Scharfrichter,根据建议,我提供了 CLASSPATH 规范,现在 DatastoreDriverNotFoundException 已解决。但仍然存在异常:线程“main”中的异常 java.lang.RuntimeException:java.lang.RuntimeException:无法实例化 org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient 。对此有任何建议。
        【解决方案8】:

        这可能是因为它没有连接到Hive Meta Store,我的hive Meta Store存储在Mysql,所以我需要访问Mysql,所以我在我的build.sbt中添加了一个依赖项

        libraryDependencies += "mysql" % "mysql-connector-java" % "5.1.38"
        

        问题就解决了!

        【讨论】:

          【解决方案9】:

          你的配置单元元存储不一致!我在这个场景中。

          首先。我跑

           $ schematool -dbType mysql -initSchema  
          

          然后我找到了这个

          错误:重复的键名“PCS_STATS_IDX”(状态=42000,代码=1061) org.apache.hadoop.hive.metastore.HiveMetaException:架构初始化失败! Metastore 状态会不一致!!

          然后我跑

           $ schematool -dbType mysql -info
          

          发现这个错误

          Hive 分发版本:2.3.0 元存储架构版本:1.2.0 org.apache.hadoop.hive.metastore.HiveMetaException:元存储架构版本不兼容。 Hive 版本:2.3.0,数据库架构版本:1.2.0


          所以我格式化了我的配置单元元存储,然后就完成了!
          • 删除mysql数据库,数据库名为hive_db
          • 运行schematool -dbType mysql -initSchema 初始化元数据

          【讨论】:

            【解决方案10】:

            你只需要实例化模式,你可以用下面的命令做同样的事情。我编辑它并且能够运行 hive 查询而不抛出 错误:无法实例化 org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient

            cd $HIVE_HOME
            mv metastore_db metastore_db_bkup
            schematool -initSchema -dbType derby
            bin/hive
            

            现在运行您的查询:

            hive> show databases;
            

            【讨论】:

              【解决方案11】:

              我也遇到过这个问题,但我重启了 Hadoop 并使用命令 hadoop dfsadmin -safemode leave

              现在启动 hive 我认为它会起作用

              【讨论】:

                【解决方案12】:

                我通过从 spark-submit 代码中删除 --deploy-mode cluster 解决了这个问题。 默认情况下,spark submit 采用客户端模式,具有以下优点:

                1. It opens up Netty HTTP server and distributes all jars to the worker nodes.
                2. Driver program runs on master node , which means dedicated resources to driver process.
                

                集群模式

                 1.  It runs on worker node.
                 2. All the jars need to be placed in a common folder of the cluster so that it is accessible to all the worker nodes or in folder of each worker node.
                

                由于集群中任何节点的配置单元 jar 不可用,此处无法访问配置单元元存储。

                【讨论】:

                  【解决方案13】:

                  编辑 (bashrc) 和 (hive-site.xml) 文件后,只需从 hive 文件夹中打开 hive 终端。 脚步 - 打开安装它的配置单元文件夹。 现在从文件夹中打开终端。

                  【讨论】:

                  • Hey Abhinav,您能否至少详细说明一下,这将是哪些问题的答案?请考虑提供更多上下文,以便其他用户了解您提出的解决方案为何有效。
                  【解决方案14】:

                  在我的例子中,我停止了我的 docker hive 容器并再次运行它,最后它工作了。希望它对某人有用。

                  注意:这可能是因为可能有一个实例在后台运行,因此停止容器将停止所有后台实例。

                  【讨论】:

                    【解决方案15】:

                    发生这种情况是因为您尚未启动 Hive Metastore ...最简单的方法是使用默认的 Derby 数据库 ...您可以点击此链接:https://sparkbyexamples.com/apache-hive/hive-hiveexception-java-lang-runtimeexception-unable-to-instantiate-org-apache-hadoop-hive-ql-metadata-sessionhivemetastoreclient/

                    【讨论】:

                      【解决方案16】:

                      我通过创建 hive-default.xml.template 并将其复制到 hive-site.xml 来解决此问题。要创建该用途,可以使用以下命令

                      cd /usr/local/Cellar/hive/2.7.1/libexec/conf (please replace hive version)
                      cp hive-default.xml.template hive-site.xml
                      

                      并更改了 hive-site.xml 中以下属性的值

                      <?xml version="1.0" encoding="UTF-8"?>
                      <configuration>
                         <property>
                            <name>javax.jdo.option.ConnectionURL</name>
                            <value>jdbc:mysql://localhost/metastore?createDatabaseIfNotExist=true</value>
                         </property>
                         <property>
                            <name>javax.jdo.option.ConnectionDriverName</name>
                            <value>com.mysql.jdbc.Driver</value>
                         </property>
                         <property>
                            <name>javax.jdo.option.ConnectionUserName</name>
                            <value>hiveuser</value>
                         </property>
                         <property>
                            <name>javax.jdo.option.ConnectionPassword</name>
                            <value>password</value>
                         </property>
                         <property>
                            <name>datanucleus.fixedDatastore</name>
                            <value>false</value>
                         </property>
                         <property>
                            <name>hive.exec.local.scratchdir</name>
                            <value>/tmp/hive</value>
                            <description>Local scratch space for Hive jobs</description>
                         </property>
                         <property>
                            <name>hive.downloaded.resources.dir</name>
                            <value>/tmp/hive</value>
                            <description>Temporary local directory for added resources in the remote file system.</description>
                         </property>
                         <property>
                            <name>hive.querylog.location</name>
                            <value>/tmp/hive</value>
                            <description>Location of Hive run time structured log file</description>
                         </property>
                        <property>
                          <name>hive.druid.metadata.db.type</name>
                          <value>mysql</value>
                          <description>
                            Expects one of the pattern in [mysql, postgresql, derby].
                            Type of the metadata database.
                          </description>
                        </property>
                      </configuration>
                      

                      之后,我在 MySql 中创建了名为 matastore 的数据库,并使用以下查询为其创建了用户名密码和大权限。

                      $ mysql
                      mysql> CREATE DATABASE metastore;
                      mysql> USE metastore;
                      mysql> CREATE USER 'hiveuser'@'localhost' IDENTIFIED BY 'password';
                      mysql> GRANT SELECT,INSERT,UPDATE,DELETE,ALTER,CREATE ON metastore.* TO 'hiveuser'@'localhost';
                      

                      并使用以下命令在 MySql 中运行脚本:

                      mysql> source /usr/local/Cellar/hive/3.1.2_3/libexec/scripts/metastore/upgrade/mysql/hive-schema-3.1.0.mysql.sql
                      

                      不要忘记使用以下命令将 SQL 连接器 jar 移动到 hive 包 下载 MySQL 连接器并解压

                      tar zxvf mysql-connector-java-5.1.35.tar.gz
                      sudo cp mysql-connector-java-5.1.35/mysql-connector-java-5.1.35-bin.jar /usr/local/Cellar/hive/2.7.1/libexec/lib/
                      

                      就是这样。现在我可以在 Hive 中成功运行 show tables 等命令。 :)

                      【讨论】:

                        猜你喜欢
                        • 1970-01-01
                        • 2017-05-27
                        • 1970-01-01
                        • 2022-06-29
                        • 2014-05-07
                        • 2013-05-21
                        • 1970-01-01
                        • 1970-01-01
                        相关资源
                        最近更新 更多