sql >> Base de Datos >  >> RDS >> Mysql

Crear un marco de datos de Spark a partir de una consulta SQL

Encontré esto aquí Migración masiva de datos a través de Spark SQL

El parámetro dbname puede ser cualquier consulta entre paréntesis con un alias. Entonces, en mi caso, necesito hacer esto:

val query = """
  (select dl.DialogLineID, dlwim.Sequence, wi.WordRootID from Dialog as d
    join DialogLine as dl on dl.DialogID=d.DialogID
    join DialogLineWordInstanceMatch as dlwim on dlwim.DialogLineID=dl.DialogLineID
    join WordInstance as wi on wi.WordInstanceID=dlwim.WordInstanceID
    join WordRoot as wr on wr.WordRootID=wi.WordRootID
    where d.InSite=1 and dl.Active=1
    limit 100) foo
"""

val df = sqlContext.format("jdbc").
  option("url", "jdbc:mysql://localhost:3306/local_content").
  option("driver", "com.mysql.jdbc.Driver").
  option("useUnicode", "true").
  option("continueBatchOnError","true").
  option("useSSL", "false").
  option("user", "root").
  option("password", "").
  option("dbtable",query).
  load()

Como era de esperar, cargar cada tabla como su propio marco de datos y unirlos en Spark fue muy ineficiente.