什么是SparkSQL
SparkSQL是Spark用于处理结构化数据的一个模块,他将数据抽象为DataFrame和DataSet,并且SparkSQL也是OLAP数据引擎。
Hive将SQL转换为MR提交给集群执行,那么SparkSQL就将SQL转换为RDD提交给集群执行。
SparkSQL兼容HiveQL。
什么是DataFrame
DataFrame和RDD类似,都是一个用来存储数据的集合,但是DataFrame内部是以二维表的形式存储数据。
SparkSQL的DataFrame和pandas的DataFrame差不多,区别在于SparkSQL的DataFrame记录数据的结构信息,即schema。
DataFrame是为数据提供了Schema的视图。可以把它当做数据库中的一张表来对待。
DataFrame也是懒执行的,性能上比RDD要高。
主要原因:优化的执行计划:查询计划通过Spark catalyst optimiser进行优化。
什么是DataSet
- 是Dataframe API的一个扩展,是Spark最新的数据抽象。
- 用户友好的API风格,既具有类型安全检查也具有Dataframe的查询优化特性。
- Dataset支持编解码器,当需要访问非堆上的数据时可以避免反序列化整个对象,提高了效率。
- 样例类被用来在Dataset中定义数据的结构信息,样例类中每个属性的名称直接映射到DataSet中的字段名称。
- Dataframe是Dataset的特列,DataFrame=Dataset[Row] ,所以可以通过as方法将Dataframe转换为Dataset。Row是一个类型,跟Car、Person这些的类型一样,所有的表结构信息我都用Row来表示。
- DataSet是强类型的。比如可以有Dataset[Car],Dataset[Person].
- DataFrame只是知道字段,但是不知道字段的类型,所以在执行这些操作的时候是没办法在编译的时候检查是否类型失败的,比如你可以对一个String进行减法操作,在执行的时候才报错,而DataSet不仅仅知道字段,而且知道字段类型,所以有更严格的错误检查。就跟JSON对象和类对象之间的类比。