PHP - Blockieren hochgeladener Bilder für Erwachsene

8

Wir haben ein Produktverwaltungssystem eingerichtet, wo der Leiter der Produktentwicklung Bilder von Produkten hochladen kann und diese Bilder werden sofort auf unserer Website angezeigt.

Letzte Woche, als eine Person den Job verließ, lud er eine Reihe von XXX-Rated-Bildern hoch und Dinge erschienen sofort auf der Website. Glücklicherweise haben wir sie in wenigen Minuten bemerkt und entfernt. Dennoch war diese Zeit genug, um einige unserer Kunden zu schockieren.

Hier ist meine Frage: Wie können solche Bilder effektiv analysiert und blockiert werden? Kann dies mit einer Bibliothek in PHP geschehen? Ist es mit PHP überhaupt möglich?

Jede Hilfe wäre sehr willkommen.

Bearbeiten 1:

Nach einigem Graben fand ich folgendes:

Ссылка (Dead link)

Hat jemand es vorher benutzt oder irgendeine Meinung dazu?

    
Nirmal 06.01.2010, 03:25
quelle

11 Antworten

9

Implementieren Sie die Bildvorbereitung. Wenn es eine einzelne Person gibt, die diese hochlädt (wie Sie es andeuten), sollte es für andere nicht zu schwer sein, einen kurzen Blick darauf zu werfen und auf "Genehmigen" zu klicken.

Und es ist viel billiger und zuverlässiger, als mit jeder Bibliothek. Sie können nicht "erwachsen" formalisieren.

    
Seva Alekseyev 06.01.2010, 03:28
quelle
5

Es ist ein schwieriges Problem in jeder Sprache, das Bildverarbeitungsproblem ist extrem schwierig.

Es gibt einige Forschungen zu diesem Thema:

Mark Elliot 06.01.2010 03:27
quelle
3

Es gibt keine zuverlässige Möglichkeit, dies zu tun. Jeder automatisierte Prozess, den Sie verwenden, wird falsch positive und falsch negative Ergebnisse generieren. Wenn Sie bereit sind zu akzeptieren, dass Sie den Bildnacktheit Filter ansehen können, der Bilder basierend auf analysiert Hautfarbe. Es neigt jedoch dazu, Bilder zu markieren, die Nahaufnahmen von Gesichtern sind.

Eine solche Methode kann in Verbindung mit Informationen über den Verlauf eines Benutzers wirksam sein. Wenn sie plötzlich Hunderte von Bildern hochladen (wenn sie durchschnittlich eine Woche vorher durchschnittlich zwei sind) und die meisten von ihnen markiert werden, dann ist es wahrscheinlich, dass sie diese Uploads aussetzen, bis jemand sie anschaut.

Wenn Sie darüber nachdenken, laden Sie einfach eine große Anzahl von Bildern in einer kurzen Zeitspanne hoch (und bringen die Administratoren der Website darauf aufmerksam) ist wahrscheinlich die meiste Zeit ausreichend.

    
cletus 06.01.2010 03:28
quelle
1

Es ist möglich , obwohl Sie falsche und falsche positive Ergebnisse erhalten.

Viel einfacher wäre es, irgendeine Art von Moderationssystem zu implementieren, das die Zustimmung einer anderen Person erfordert, bevor etwas in Betrieb geht.

    
mopoke 06.01.2010 03:28
quelle
1

Sie sind dabei, den Weg der "Hauttonerkennung" zu gehen, um Pornografie zu verhindern. Dies ist ein Fehler, da jede Lösung, selbst wenn es möglich ist, schrecklich teuer sein wird, um richtig zu machen.

Und würde nicht an Pornobildern des Charakters von "Avatar" arbeiten, zum Beispiel: -)

Die zwei Ansätze, die Sie ergreifen könnten (ich bevorzuge die erste).

  1. Lassen Sie diese Bilder nicht sofort veröffentlichen, bevor sie von einer vertrauenswürdigen Partei freigegeben wurden.
  2. Erlauben Sie Ihren Nutzern, sie als beleidigend zu markieren und diejenigen zu überprüfen, die Stimmen erhalten.

Der Grund, warum ich die erste bevorzuge, ist, dass die zweite immer noch erlaubt, dass die Bilder von der Öffentlichkeit gesehen werden, und dies wird mit ziemlicher Sicherheit den Firmenvertreter beschädigen.

Sie sollten diese Wiederholung ernst nehmen. Ich erinnere mich an ein System, das wir vor vielen Jahren eingerichtet hatten, um die Sprunglängen im Wasserski zu messen.

Es gab drei Stationen auf beiden Seiten des Flusses, wo die Leute, die zu messen waren, auf den Punkt zielen sollten, wo der Skifahrer gelandet war (Hexangulation, denke ich).

Diese sechs Orte wurden grundsätzlich gemittelt (nach dem Entfernen von Ausreißern), um die tatsächliche Position (also Länge) zu erhalten, und dies wurde alles vom Computer berechnet und zurück an eine Basisstation gesendet.

Die Fernsehsender, die das Ereignis gesendet haben, hatten jedoch eine Person, die die Länge vom Bildschirm abliest und sie dann manuell in ihre eigenen Computer eingibt. Als wir erfuhren, dass wir den Prozess automatisieren könnten, haben sie klargestellt, dass sie es nicht zulassen würden, dass ungeprüfte Daten an ihre Zuschauer gesendet werden (falls wir Obszönitäten eingefügt haben, denke ich).

Während ich das für ein bisschen paranoid hielt, konnte ich es verstehen.

    
paxdiablo 06.01.2010 03:30
quelle
1

Es ist wirklich leicht, Moderation hinzuzufügen, wie es vorgeschlagen wurde, aber ich stelle mir vor, dass es etwas Zögern hinsichtlich der Begrenzung der Produktivität und frustrierende Entwickler gibt, die mit einem zweiten Satz von Augen warten müssen. Auch wenn alle Teilnehmer es verstehen und nicht persönlich nehmen, kann es immer noch nerven:

a) Seien Sie die Person, die ein oder zwei Tage warten muss, bis die Inhalte live geschaltet werden, weil der Moderator krank ist und der Backup-Moderator in einer Besprechung ist.

oder

b) sei die Person, die jede Stunde von einem Projekt unterbrochen wird, um auf "genehmigen" zu klicken.

Manchmal verlangt sogar Technologie einen Teil der vorgeschlagenen Bürokratie und muss die damit verbundenen Kopfschmerzen akzeptieren, und ich denke, es gibt definitiv kluge Wege, die Ärgernisse wie die, die ich erwähnt habe, auf ein Minimum zu beschränken.

Nachdem Sie all dies gesagt haben, denken Sie daran, dass die Handlungen dieses Managers wahrscheinlich seine Kündigung widerspiegeln. Oder zumindest wie es dauerte. Eine andere nicht-technische administrative Lösung wäre, Systemzugriffsrechte zu entfernen, sobald Sie wissen, dass sich jemand in einer kompromittierten Position befindet.

Ganz gleich, ob die Person ihre zweiwöchige Kündigungsfrist eingehalten hat oder gerade an diesem Morgen entlassen wurde, sie sollten entweder moderierten Zugang haben oder überhaupt keinen Zugriff auf alles haben, was an die Öffentlichkeit geht oder unternehmenskritisch ist.

Die meisten Entwickler arbeiten sehr hart, um das Vertrauen von Vorgesetzten zu gewinnen, die es ihnen ermöglichen, Dinge öffentlich zu machen oder Daten direkt in kritische Systeme zu schreiben. Aber dieses Vertrauen sollte mit einer sehr sofortigen Exit-Policy-Klausel kommen.

Bezüglich LogiPik:

Ich habe es nie benutzt, aber ich habe gerade ihre Demo ausprobiert. Ich habe folgendes hochgeladen (zufällig nach "close up" auf Google suchen:

Ссылка

Und es kam zurück:

  

Bewertet als: porn Abgeschlossen in 25   sec.

Für mich ist das zu langsam (für ein Bild), um ein falsches Positiv zu bekommen, vor allem für $ 50 Dollar American.

    
Anthony 06.01.2010 03:51
quelle
0

Ich glaube nicht, dass Sie garantieren können, dass jede Software solche Bilder zu 100% genau identifiziert.

Sie müssen einen Menschen haben, der die Uploads moderiert. Machen Sie sie nicht sofort auf Ihrer Website sichtbar.

    
pavium 06.01.2010 03:29
quelle
0

Trynt-API hat einen sehr guten / schnellen Nacktheitserkennungs-Webdienst, aber es scheint einen 502 Header-ATM zurückzugeben.

    
Alix Axel 06.01.2010 04:03
quelle
0

Mit der derzeitigen Technologie gibt es keine absolut zuverlässige Lösung für dieses Problem, also lassen Sie sich nicht vom Marketing hinreißen, das das impliziert.

Siehe vorherige Frage auf StackOverflow.

Sie könnten einen Skin-Erkennungsalgorithmus mit einer Vormoderation kombinieren, um den menschlichen Moderator jedoch auf vermutete Problembilder aufmerksam zu machen. Denken Sie nur nicht, dass Sie den Schritt überspringen können, eine Person dazu zu bringen, sich die Bilder anzusehen.

Die Sicherheitsprozesse Ihres Unternehmens klingen übrigens etwas schwach. Wie hat ein anderer Mitarbeiter Bilder hochgeladen, wenn nur der Leiter der Produktentwicklung in der Lage ist, dies zu tun? Stellen Sie sicher, dass Sie Ihre Passwörter hashed und den Zugriff auf Produktionsserver minimieren.

    
Ash 06.01.2010 06:40
quelle
0

Versuchen Sie das, ich hoffe, es wird Ihnen helfen

Ссылка

    
Yogesh Saroya 31.03.2014 09:33
quelle
0

Wenn Sie nach einer API-basierten Lösung suchen, können Sie Sightengine.com

ausprobieren

Es ist eine automatisierte Lösung, um Dinge wie Erwachseneninhalte, Gewalt, Prominente usw. in Bildern und Videos zu erkennen.

Hier ist ein Beispiel in PHP mit dem SDK:

%Vor%

Die Ausgabe gibt dann die Klassifikation zurück:

%Vor%

Sehen Sie sich die Dokumentation für weitere Details an: Ссылка (Haftungsausschluss: Ich arbeite dort)

    
agrandiere 12.05.2017 09:13
quelle

Tags und Links