sql >> Base de Datos >  >> NoSQL >> MongoDB

¿Por qué el conector Spark Mongo no baja los filtros?

No es el GreaterThan eso está causando su problema, es el hecho de que el filtro está en un campo anidado. Su filtro en doc_type funciona porque no está anidado. Aparentemente, esto es un problema con el motor Catalyst en Spark, no con el conector Mongo. Afecta a los empujes de predicados en, por ejemplo, Parquet también.

Consulte las siguientes discusiones en Spark Jira para obtener más detalles.

Spark 19638

Spark 17636