Weder die Entwickler- noch die API-Dokumentation enthält einen Hinweis darauf, welche Optionen in DataFrame.saveAsTable
oder DataFrameWriter.options
übergeben werden können, und sie würden sich auf das Speichern einer Hive-Tabelle auswirken.
Ich hoffe, dass wir in den Antworten auf diese Frage Informationen sammeln können, die Spark-Entwicklern helfen, die mehr Kontrolle darüber haben möchten, wie Spark Tabellen speichert und vielleicht eine Grundlage für die Verbesserung der Spark-Dokumentation bietet.
Tags und Links scala hadoop apache-spark hive parquet