Ich bin Gründer einer großen, sogenannten "Toplist". Die Benutzer können ihre Website an die Topliste senden und eine höhere Position erlangen, indem sie Stimmen für ihren Toplisteneintrag erhalten.
Der durchschnittliche Besucher ist jung, hauptsächlich zwischen 13 und 20 Jahren alt. Sie bringen Vorteile, aber auch Nachteile. In den letzten 5 Jahren habe ich aktiv gegen "Betrüger" gekämpft, die Roboter benutzen, um Stimmen zu erhalten. Diese Roboter verwendeten Proxys, verschiedene Benutzeragenten und schafften es sogar, mehrere Arten von CAPTCHA-Fragen (reCAPTCHA, SolveMedia und benutzerdefinierte Captchas) zu lösen. Der Einsatz dieser Roboter hat sich dramatisch verringert, seit ich ein neues System eingeführt habe, das ein zufälliges Layout erstellt und jedes der 15 geladenen CAPTCHA-Systeme lädt. Es scheint kein Problem mehr zu sein.
Die Leute sind jetzt auf manuellen Betrug umgestiegen. Sie verwenden Browser-Plugins, die ihre IP-Adresse bei fast jeder Seitenladung ändern (zB: Ссылка ). Ich finde wirklich keinen Weg, das zu bekämpfen, aber es ist ein sehr großes Problem. Es ist schwer zu glauben, aber diese Kinder lösen sogar manuell 5000 Captcha-Fragen, das dauert ewig.
Meine Frage ist, kann mir jemand helfen, über eine Möglichkeit nachzudenken, dieses Problem zu lösen? Ich habe Cookies und Sitzungseinstellungen verwendet, aber sie haben begonnen, sie zu bemerken und zu entfernen. Ich werde Benutzerkonten einführen und es interessanter machen, über ein Konto zu wählen, aber ich möchte keine Konten erfordern. Ich bezweifle es, aber gibt es noch einen anderen Weg, den Betrug zu bekämpfen (vielleicht wie eine Java-Web-App, die Browser-Set-Proxies ausweicht und die echte IP-Adresse an die Seite weiterleitet, wenn möglich?)? Oder sollte ich einfach aufgeben und Leute einstellen, um täglich zu überprüfen, ob es möglich ist, dass die Website so viele Stimmen bekommt?
Ich würde Ihnen empfehlen, eine Art von IP-Vertrauenswürdigkeitsmechanismus zu implementieren, da IP-Adressen, die von offenen Proxies verwendet werden, oft für illegale Dinge verwendet werden.
Viele dieser Adressen werden von Honeypots erfasst und von mehreren Organisationen auf die schwarze Liste gesetzt. Werfen Sie einen Blick auf das Honeypot-Projekt zum Beispiel:
Ссылка
Es ist eine riesige Datenbank und kann leicht in PHP
mit DNS-Lookup-Funktionen implementiert werden.
auch Ссылка
ist ziemlich gut und bietet eine REST-Schnittstelle, wenn ich mich richtig erinnere.
Darüber hinaus gibt es Hunderte von DNSBLs, die verschiedene Arten von Aktivitäten auf die schwarze Liste setzen, werfen Sie einen Blick auf einige Proxy-DNSBLs:
Ссылка oder Ссылка oder Ссылка
Last but not least können Sie gängige PHP-Methoden für die Proxy-Blockierung verwenden (am einfachsten sollte man nach dem Header HTTP-X-Forwarded suchen, aber nicht alle Proxies). Lesen Sie hier weiter: Ссылка oder hier: Clients mit Proxy-Servern über PHP erkennen