【发布时间】:2015-11-21 08:08:15
【问题描述】:
我已经使用 Scala 验证了一个数据帧包含使用 df.show() 的非 ascii UTF-8 字符。 Spark-SQL 也显示了正确的编码。
但是,当我尝试使用 SparkR 的 showDF(df) 时,UTF-8 字符无法正确显示。我们如何让 showDF(df) 显示 UTF-8 字符?
最初是LOCALE="" & LANG="en_US.UTF-8"...
1) 将其设置为 LANG="xx_XX.UTF-8" 其中 X 是适当的语言标识符
2) Sys.setlocale("LC_ALL",locale="xx_XX.UTF-8")
但是 showDF() 仍然没有显示母语字符
【问题讨论】:
-
你的
LOCALE和LANG是什么?
标签: r character-encoding apache-spark locale sparkr