sql >> Base de Datos >  >> RDS >> Mysql

No se encontró un controlador adecuado para jdbc en Spark

Tuve que agregar el driver opción al usar sparkSession de read función.

.option("driver", "org.postgresql.Driver")

var jdbcDF - sparkSession.read
  .option("driver", "org.postgresql.Driver")
  .option("url", "jdbc:postgresql://<host>:<port>/<DBName>")
  .option("dbtable", "<tableName>")
  .option("user", "<user>")
  .option("password", "<password>")
  .load()

Dependiendo de cómo estén configuradas sus dependencias, notará que cuando incluye algo como compile group: 'org.postgresql', name: 'postgresql', version: '42.2.8' en Gradle, por ejemplo, esto incluirá la clase Driver en org/postgresql/Driver.class , y ese es el que desea que Spark cargue.