Spark erzwingt log4j

8

Ich habe ein triviales Funkenprojekt in Scala und möchte Logback verwenden, aber Spark / Hadoop scheint Log4j auf mich zu zwingen.

  1. Das scheint nicht mit meinem Verständnis des Zwecks von slf4j übereinzustimmen; ist es ist kein Versehen in Funken / Hadoop?

  2. Muss ich logback aufgeben und log4j verwenden, oder gibt es einen? Workaround?

In build.sbt habe ich Ausschlüsse versucht ...

%Vor%

... aber dies führt zu einer Ausnahme ...

%Vor%     
Pengin 01.08.2015, 20:59
quelle

1 Antwort

5

Ich habe die selbe Ausnahme wie deine getroffen. Ich denke, Sie sollten auch log4j-over-slf4j als Abhängigkeit hinzufügen außer log4j und slf4j-log4j12. Es funktioniert für mich.

log4j-over-slf4j ist ein Ersatz für log4j, da es exakt die gleiche API wie log4j bereitstellt und alle Aufrufe von log4j an slf4j weiterleitet, was wiederum alles an das darunter liegende Logframework weiterleitet. Ссылка gibt detaillierte Erklärungen.

    
happy15 24.02.2017 05:47
quelle