【问题标题】:Caching tables in Spark SQLSpark SQL 中的缓存表
【发布时间】:2015-10-21 16:12:12
【问题描述】:

我正在使用 Spark SQL,并希望缓存最初在 Hive 中创建的表。如果表在 Hive 的默认数据库中,这可以正常工作,例如

CACHE TABLE test1;

但是,如果它在不同的数据库中,例如myDB那我做不到

CACHE TABLE myDB.test1;

因为 Spark 抱怨 failure: ``as'' expected but.'找到`。

但是我可以访问和查询表,例如通过运行

SELECT * FROM myDB.test1;

有没有办法解决这个问题?

【问题讨论】:

    标签: apache-spark apache-spark-sql


    【解决方案1】:

    找到答案:

    USE myDB;
    CACHE TABLE test1;
    

    【讨论】:

      猜你喜欢
      • 2016-05-26
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      相关资源
      最近更新 更多