这里主要说一下Spark的SQL操作,如何从mysql导入数据。
#拷贝了mysql的驱动到jar文件下面 #建立DF val jdbcDF = spark.read.format("jdbc").option("url", "jdbc:mysql://localhost:3307").option("dbtable", "hive.TBLS").option("user", "hive").option("password", "hive").load() #schema jdbcDF.schema #count jdbcDF.count() #show jdbcDF.show()