Ich verwende Spark SQL
für das Lesen von Parkett und das Schreiben von Parkettfeilen.
Aber in einigen Fällen muss ich die DataFrame
als Textdatei anstelle von Json oder Parquet schreiben.
Werden irgendwelche Standardmethoden unterstützt oder muss ich diesen Datenrahmen in RDD
konvertieren und dann saveAsTextFile()
Methode?
Mit Databricks Spark-CSV können Sie direkt in eine CSV-Datei speichern und danach von einer CSV-Datei laden
%Vor%
Tags und Links java apache-spark-sql