Spark Streaming Kafka Nachrichten nicht verbraucht

9

Ich möchte Nachrichten von einem Thema in Kafka (Broker v 0.10.2.1 ) mit Spark (1.6.2) Streaming empfangen.

Ich verwende den Receiver Ansatz. Der Code ist wie folgt:

%Vor%

Der Zugriff auf Kafka ist kerberisiert . Wenn ich starte

spark-submit --verbose --conf "spark.executor.extraJavaOptions=-Djava.security.auth.login.config=jaas.conf" %Code% %Code% %Code% %Code% %Code% %Code% --files jaas.conf,privKey.der

  1. --principal <accountName> class von Kafka protokolliert warning Nachrichten für die Eigenschaften, die in --keytab <path to keytab file> hashmap:
  2. enthalten sind
%Vor%

Ich denke, da diese Eigenschaften nicht akzeptiert werden, kann es sich auf die Stream-Verarbeitung auswirken.

** Wenn ich im Cluster-Modus --master yarn starte, erscheinen diese Warnmeldungen nicht **

  1. Später sehe ich folgende Protokolle alle 5 Sekunden wie konfiguriert:

    --jars <comma separated path to all jars>

    --class <fully qualified java main class>

    <path to jar file containing main class>

    VerifiableProperties

Ich sehe jedoch keine aktuelle Nachricht , die auf der Konsole gedruckt wird.

Frage: Warum druckt mein Code keine tatsächlichen Nachrichten?

Meine Hauptabhängigkeiten sind:

%Vor%     
RRM 16.01.2018, 17:32
quelle

2 Antworten

0

stream ist ein Objekt von JavaPairReceiverInputDStream. Konvertieren Sie es in Dstream und verwenden Sie foreachRDD, um die Nachrichten zu drucken, die von Kafka konsumiert werden

    
Kiran Balakrishnan 21.01.2018 07:21
quelle
0

Spark 1.6.2 unterstützt nicht kafka 0.10, nur kafka0.8. Für kafka 0.10 sollten Sie spark 2 verwenden

    
jjtang 01.02.2018 09:15
quelle