Verarbeiten Suchmaschinen Javascript?

8

Nach dieser Seite sieht es so aus, als würden sie es nicht tun, in dem Sinne, dass sie es nicht tun Ich führe es tatsächlich, aber diese Seite ist 2 Jahre alt (nach den Copyright-Informationen).

Der Grund, warum ich diese Frage stelle, ist, weil wir Javascript verwenden, um den Text auf unserer Seite durch andere typographisch korrekte Inhalte zu ersetzen. Wir befürchten, dass dies die Crawlfähigkeit unserer Websites beeinträchtigen könnte, da wir im Allgemeinen Header ersetzen. dh. <h1> , <h2> , usw.

Werden Suchmaschinen-Bots unseren Originalcode sehen, oder werden sie Javascript ausführen und den ersetzten Text sehen?

    
Matthew Scharley 15.01.2010, 00:23
quelle

6 Antworten

1

Google verarbeitet nun offiziell JavaScript.

  

Um dieses Problem zu lösen, haben wir uns dazu entschlossen, Seiten durch Ausführen von JavaScript zu verstehen. Es ist schwer, dies im Umfang des aktuellen Webs zu tun, aber wir haben uns entschieden, dass es das wert ist. Seit einiger Zeit verbessern wir das schrittweise. In den letzten Monaten hat unser Indexierungssystem eine beträchtliche Anzahl von Webseiten wie einen durchschnittlichen Browser mit aktiviertem JavaScript dargestellt.

     
  • Manchmal laufen die Dinge beim Rendern nicht perfekt, was sich negativ auf die Suchergebnisse Ihrer Website auswirken kann. Hier sind ein paar   mögliche Probleme und - wo möglich - wie Sie helfen können zu verhindern   sie kommen vor:
  •   
  • Wenn Ressourcen wie JavaScript oder CSS in separaten Dateien blockiert sind (z. B. mit robots.txt), damit der Googlebot sie nicht abrufen kann, wird unsere   Indexierungssysteme können Ihre Website nicht wie ein durchschnittlicher Nutzer sehen.   Wir empfehlen, dem Googlebot den Zugriff auf JavaScript und CSS zu ermöglichen   Ihr Inhalt kann besser indiziert werden. Dies ist besonders wichtig für   mobile Websites, auf denen externe Ressourcen wie CSS und JavaScript helfen   Unsere Algorithmen verstehen, dass die Seiten für Handys optimiert sind. Ob   Ihr Webserver kann das Volumen der Crawling-Anfragen für   Ressourcen, kann dies negative Auswirkungen auf unsere Renderfähigkeit haben   deine Seiten. Wenn Sie sicherstellen möchten, dass Ihre Seiten gerendert werden können   Google, stellen Sie sicher, dass Ihre Server Crawl-Anfragen für   Ressourcen.
  •   
  • Es ist immer eine gute Idee, dass sich Ihre Website elegant verschlechtert. Dadurch können Nutzer Ihre Inhalte genießen, auch wenn ihr Browser dies nicht hat   kompatible JavaScript-Implementierungen. Es wird auch Besuchern mit helfen   JavaScript deaktiviert oder deaktiviert, sowie Suchmaschinen, die dies nicht können   führe JavaScript noch aus.
  •   
  • Manchmal ist das JavaScript möglicherweise zu komplex oder zu geheimnisvoll, um ausgeführt zu werden. In diesem Fall können wir die Seite nicht vollständig und genau rendern.
  •   
  • Einige JavaScript-Elemente entfernen Inhalte von der Seite, anstatt sie hinzuzufügen, was uns daran hindert, den Inhalt zu indizieren.
  •   
    
John Conde 11.10.2015, 13:59
quelle
3

Suchmaschinen verarbeiten JavaScript nicht als solches.

Es gibt einige Beweise Google hat möglicherweise in einigen Fällen mit der Verarbeitung von Inline-Skript-Inhalten begonnen, um Inhalte zu erfassen, die mit document.write in die Seiten-Parser-Warteschlange eingegeben wurden. Sicherlich sind DOM-Methoden, wie Sie sie zum Ersetzen von Zeichen verwenden, nicht betroffen, und es wird kein Onload-Code aufgerufen.

    
bobince 15.01.2010 00:56
quelle
2

Im Allgemeinen keine. Google hat erwähnt, dass sie an einem System zur Indexierung von Ajax-Inhalten arbeiten, aber ich glaube nicht, dass eine der großen Suchmaschinen dynamische Inhalte als Regel indexiert. Sehen Sie sich diese Seite für die Google-Einstellung an: Ссылка

    
Glenn Slaven 15.01.2010 00:25
quelle
1

Die Bots werden sicherlich nicht den Javascript-Code ausführen, aber sie können einige häufig verwendete Skripte erkennen.

Sie sollten sich jedoch nicht darauf verlassen. Klares Markup, richtiger Inhalt und echte Links zählen immer noch.

Auch wenn die Bots dein Skript zufällig erkennen, ist es vielleicht nicht zu deinen Gunsten. Wenn der Code als etwas erkannt wird, das üblicherweise verwendet wird, um Bots zu täuschen, könnte dies sogar Ihre Seitenrangfolge beeinträchtigen.

    
Guffa 15.01.2010 01:09
quelle
0

Ich würde Metadaten verwenden, um sicherzustellen, dass Bots den Inhalt auf Ihren Seiten erfassen.

    
calico-cat 15.01.2010 00:26
quelle
0

Ich weiß, dass der allgemeine Konsens ist, dass Google nicht mit einem <script> -Tag, aber Javascript oder Index etwas nicht verarbeitet, der allgemeine Konsens scheint falsch.

Versuchen Sie, für die folgende Suche, mit den umgebenden Anführungszeichen (oder klicken Sie hier) :

"Samsung Public Interest Statement by Thomas Fusco, Fish & Richardson P.C., for Samsung."

Sie sollten nur ein Ergebnis erhalten. Klicken Sie nun auf das Ergebnis (oder klicken Sie einfach hier ) und sehen Sie sich die Quelle an.

>

Führen Sie STRG-F für den Text aus, nach dem Sie in Google gesucht haben. Beachten Sie, dass der Text in einem JavaScript-Variable ist, und nicht die html. Google muss einige Javascript werden Verarbeitung dieser Wörter in seinen Index zu ziehen.

    
speedplane 28.04.2014 01:22
quelle

Tags und Links