1 val a=spark.read.load("/xxx/xxx")
2直接把parquet文件从hadoop拿到本地的话,因为parquet,不能直接查看
3 改写为文本形式拿到服务器上查看,注意dataframe-->text只能取其中的一个字段
import org.apache.spark.sql.SaveMode
val b=a.select("query").repartition(1).write.mode(SaveMode.Overwrite).text("/vfs-ultimate/home/gmd/test123")
//注意这里的hadoop文件的路径,权限问题,这里只能是自己用户的家目录
4hadoop fs -get //vfs-ultimate/home/gmd/test123 .