Jan 06

Google verwendet intern einen bestimmten Algorithmus um Webseiten zu bewerten und zu ranken. Die folgende Liste wurde gefunden bei:


Search Engine Journal

und

TechDivision

Dabei ist zwischen dem Bewerten (PageRank) und dem Ranking (Top-10-SERP usw) zu unterscheiden. Webseiten, die im PageRank abfallen, müssen nicht unbedingt schlechter im Ranking bei bestimmten Keywords sein.

Was noch fehlt ist eine Gewichtung der Parameter sowie genaue Vorgaben, die beschreiben, wann ein Kriterium erfüllt ist oder nicht.


Domain:
1. Alter der Domain
2. Dauer der Domain-Registrierung
3. Sichtbarkeit der Registrierungsinformationen der Domain
4. Site Top-Level Domain
5. Site Top.Level Domain
6. Subdomain oder Root-Domain
7. Historie der Domain
8. Inhaber der Domain
9. Schlüsselwörter in der Domain
10. IP-Adresse der Domain
11. Nachbarn auf der IP-Adressse
12. Externe Erwähnungen der Domain

Server:

1. Geographische Lage des Servers
2. Verfügbarkeit des Servers

Architektur:


1. URL-Struktur
2. HTML-Struktur
3. Semantische Struktur
4. Verwendung externer CSS-/JS-Dateien
5. Zugänglichkeit der Website-Struktur
6. Verwendung kanonischer URLs
7. Korrekter HTML-Code

Inhalt:

1. Sprache des Inhalts
2. Einzigartigkeit
3. Menge an Inhalten
4. Dichte des nicht verlinkten Inhalts
5. Anteil an textuellen Inhalten
6. Aktualität und Zeitlosigkeit der Inhalte
7. Semantische Informationen
8. Content-Flag für übergreifende Kategorie
9. Inhalt/Marktnische
10. Verwendung bestimmter Schlüsselwörter
11. Text in Bildern


Interne Verlinkung:


1. Anzahl der internen Links auf eine Seite
2. Anzahl der internen Links auf eine Seite mit identischem/gezieltem Ankertext
3. Anzahl interner Links auf die Seite aus dem Seiteninhalt
4. Anzahl an Links mit dem “nofollow”-Attribut
5. Interne Linkdichte

Website-Faktoren:


1. Inhalt der robots.txt-Datei
2. Häufigkeit von Updates der Site
3. Umfang der Site
4. Alter der Seite im Sinne der ersten Aufnahme bei Google
5. XML Sitemap
6. On-Page-Faktoren zur Vertrauensbildung

Seitenspezifische Faktoren:

1. Meta-Robots Tags
2. Alter der Seite
3. Aktualität der Seite
4. Doppelte Inhalte mit anderen Seiten der Site
5. Lesbarkeit der Seiteninhalte
6. Ladezeit der Seite
7. Seitentyp
8. Interne Popularität der Seite
9. Externe Popularität der Seite


Verwendung von Schlüsselwörtern und Prominenz der Schlüsselwörter:

1. Schlüsselwörter im Seitentitel
2. Schlüsselwörter am Anfang des Seitentitels
3. Schlüsselwörter in den Alt-Tags
4. Schlüsselwörter im Ankertext der internen Links
5. Schlüsselwörter im Ankertext ausgehender Links
6. Schlüsselwörter in fettem oder kursiven Text
7. Schlüsselwörter am Anfang des Haupttexts
8. Schlüsselwörter im Haupttext
9. Synonyme Schlüsselwörter mit Bezug auf das Thema der Seite/Site
10. Schlüsselwörter in Dateinamen
11. Schlüsselwörter in der URL


Ausgehene Links:


1. Anzahl ausgehender Links (pro Domain)
2. Anzahl ausgehender Links (pro Seite)
3. Qualität der Seiten, auf die verlinkt wird
4. Link auf schlechte Nachbarschaft
5. Relevanz der ausgehenden Links
6. Links auf 404- und andere Fehlerseiten
7. Links auf SEO-Agenturen von Kundenseite
8. verlinkte Bilder


Backlink-Profil:


1. Relevanz der verlinkenden Sites
2. Relevanz der verlinkenden Seiten
3. Qualität der verlinkenden Sites
4. Qualität der verlinkenden Webseite
5. Backlinks innerhalb eines Netzwerks aus Seiten
6. Erwähnungen
7. Vielfalt der Profile
8 Vielfalt der Linktexte
9. unterschiedliche IP-Adressen der verlinkenden Sites
10. geographiche Vielfalt
11. unterschiedliche TLDs
12. Thematische Vielfalt
13. Unterschiedliche Arten verlinkender Sites
14. Vielfalt der Platzierung von Links
15. Links von Autoritätsseiten (Wikipedia, Bildungsserver.de, knol.google.com usw.)
17. Backlinks aus schlechten Nachbarschaften
17. Verhältnis an reziproken Links
18. Verhältnis der Links aus Social Media Diensten
19. Backlink-Trends und -Muster
20. Nennung in Wikipedia und Open Directory Project (Directory Mozilla, Dmoz)
21. Historie des Backlink-Profiles

Jeder einzelne Backlink:


1. Autorität der TLD
2. Autorität der verlinkenden Domain
3. Autorität der verlinkenden Seite
4. Ort eines Links
5. Ankertext eines Links
6. Titel-Attribut eines Links

Profil und Verhalten der Besucher:


1. Anzahl an Besuchern
2. Demographische Eigenschaften der Besucher
3. Bounce-Rate
4. Browse-Eigenschaften der Besucher
5. Trends und Muster bei den Besuchern
6. Anzahl der Klicks in den Ergebnisseiten der Suchmaschinen

Filter und Manipulationen

1. Übertriebene Verwendung von Schlüsselwörtern / Keyword stuffing
2. gekaufte Links
3. verkaufte Links
4. Als Spammer aufgefallen
5. Cloaking
6. Versteckter Text
7. Duplicate Content
8. Historie an Strafen für diese Domain
9. Historie an Strafen des Besitzers
10. Historie an Strafen anderer Sites dieses Besitzers

Sonstige Faktoren:
1. Registrierung der Domain bei den Google Webmaster Tools
2. Präsenz der Domain bei Google News
3. Präsenz der Domain in der Google Blog Search
4. Verwendung der Domain in Google AdWords
5. Verwendung der Domain bei Google Analytics
6. externe Erwähnung des Namens

Weiterführender Link: Kanonische Adressen

geschrieben von Sternau \\ tags: , , , , , ,

Jan 01

Alle Jahre wieder (oder besser: alle Monate wieder)  ändert Google seinen PageRank – und die Kriterien bleiben unklar. So zu Neujahr 2010 ist wieder ein Update vollzogen worden, dass im Effekt einige Webseiten  runter- und einige raufgestuft hat.

Wie willkürlich sind die PageRank Updates und wie relevant ist der PageRank aus SEO-technischer Sicht? Solange sich im Ranking der Seiten dadurch nichts ändert bleiben die Folgen absehbar.  Ist dies jedoch nicht der Fall, sollte Google seine Updates transparenter machen und man müsste sich langsam fragen, ob nicht eine ordnende Instanz eingreifen müsste, um Webseiten vor willkürlichem Werteverfall zu bewahren.

Bis jetzt jedoch, ist das wohl eher ein Google interner Ranking Mechanismus, der das Ranking nicht entscheidend beeinflusst, doch ein allgemein bekanntes Kriteium, das man gerne zu Rate zieht um eine Seite zu beleuchten,  zu unrecht,  muss man sich da fragen. Google’s Page Rank scheint immer irrelevanter zu werden. Man fragt sich, als was das noch eingesetzt wird, Google intern beispielsweise, oder dient es nur noch der Imagepflege? Wenn die Leute den PageRank nicht mehr so beachten verliert er auomatisch an Wert – oder kann Google es sich irgendwann doch leisten, teuer erkämpfte Ranking Positionen zu unterminieren? Dann sollten die Leute in einem Aufruf mehr andere Suchmaschinen verwenden – um Google den Wind aus den Segeln zu nehmen.

geschrieben von Sternau \\ tags: , , , ,

Dez 09

The SIMILE Project

Semantic Interoperability of Metadata and Information in unLike Environments

Neogrid und intelligente Suchanfragen:

Der Name leitet sich ab aus Neo und The Grid, einer zukünftigen Entwicklung des Internet, bei der komplexe Suchanfragen möglich sein sollen. Im Grid wird also semantisches Suchen möglich sein. Vorläufer gibt es schon heute: das Simile (Semantic Interoperability of Metadata and Information in unLike Environments) Projekt des Massachusetts Institute of Technology. Semantische Suchmaschinen sind eine zukünftige Anwendungsform im Internet.

Hier stellen wir kurz das SIMILE Projekt des MIT vor:

SIMILE is a joint project conducted by the MIT Libraries and MIT CSAIL.

SIMILE seeks to enhance inter-operability among digital assets, schemata/vocabularies/ontologies, metadata, and services. A key challenge is that the collections which must inter-operate are often distributed across individual, community, and institutional stores. We seek to be able to provide end-user services by drawing upon the assets, schemata/vocabularies/ontologies, and metadata held in such stores.

SIMILE will leverage and extend DSpace, enhancing its support for arbitrary schemata and metadata, primarily though the application of RDF and semantic web techniques. The project also aims to implement a digital asset dissemination architecture based upon web standards. The dissemination architecture will provide a mechanism to add useful „views“ to a particular digital artifact (i.e. asset, schema, or metadata instance), and bind those views to consuming services.

To guide the SIMILE effort we will focus on well-defined, real-world use cases in the libraries domain. Since parallel work is underway to deploy DSpace at a number of leading research libraries, we hope that such an approach will lead to a powerful deployment channel through which the utility and readiness of semantic web tools and techniques can be compellingly demonstrated in a visible and global community.

The SIMILE Project and its members are fully committed to the open source principles of software distribution and open development and for this reason, it releases the created intellectual property (both software and reports) under a BSD-style license.

The SIMILE Project Team Members gladly welcome community efforts and would particularly like to recognize SIMILE’s contributors.

Quelle: SIMILE
MIT

geschrieben von Sternau \\ tags: , , , , , , , , , ,

Sep 22

The Green Grid ist ein Branchenkonsortium welches sich zum Ziel gesetzt hat, den Energieverbrauch von IT und Datenzentren zu minimieren und deren  Energieeffizienz zu maximieren.  Gemessen wir der Erfolg an dem PUE (Power Usage Effectiveness) und dem reziproken Wert, der Data Center Efficiency (DCE).  Dadurch soll die Umwelt geschont werden und der Kohlendioxidausstoss vermindert werden.  Ein synomymer Wert für DCE ist die Data Center Infrastructure Efficiency (DCIE).  Auch die Europäische Union hat Rahmenbedingungen geschaffen und will mit der Massnahme des Carbon Reduction Commitment (CRC)  dazu beitragen.  Auch PC- und Server-Hersteller beteiligen sich daran.  Blade Racks und Server in Datenzentren sind das vornehmliche Ziel. Google arbeitet wie besessen daran, die Energieffizienz seiner Datenzentren zu erhöhen. Diese wird gemessen durch den Standard der PUE (Power Usage Effectiveness)  welcher durch The Green Grid erstellt wurde. Die PUE misst, wieviel Energie direkt für Computing Sevices verwendet wird im Vergleich zum Energieaufwand für Kühlung und  Beleuchtung. Ein Idealwert von 1 hiesse, dass keine Energie für Extra-Kosten verwendet würde. Ein Wert von 1,5 würde bedeuten, dass die Hälfte der Energie für Verlustleistung verwendet würde.  Die PUE-Werte von Google sind sehr niedrig: im dritten Quartal 2008 war der Google-PUE bei 1,21, aber er fiel auf 1,20 für das vierte Quartal und auf 1,19 für das erste Quartal des Jahres 2009.

Google betreibt in seinen Datenzentren Server aus eigener Herstellung bzw. handelsübliche PC-Server, welche nach Googles Kriterien aufgebaut wurden. Die Anlage der unterbrechungsfreien  Stromversorgung verfügt über einen Wirkungsgrad von 99,9 %, da sie mit Akkus ausgestattet ist, welche bei einem etwaigen Ausfall der Stromversorgung die Spanne bis zum Anspringen der Notstromversorgung überbrücken.  Eine günstige Energiebilanz der Server ist für Google besonders wichtig, denn das Einsparen von Energie zahlt sich doppelt aus: die Server sind in modularen Datenzentren mit Containern zu ca. 1160 Stück untergebracht und das Abführen der Wärme mit einer  Klimaanlage ist ein Faktor der durch niedrigen Energieverbrauch der Server ebenfalls günstig ausfallen soll.

geschrieben von Sternau \\ tags: , , , , , , , , , , , , , ,

Jun 19

„Google will eat itself“ ist nicht zu verwechseln mit der längst vergangenen Formation pop will eat it self das östereichische Kunstprojekt GWEI
scheint allerdings auch der Vergangenheit an zu gehören.

Die aktuellsten Einträge auf Google (ha ha) stammen jedenfalls von 2008. Auf der Projekt Website findet auch nichts aktuelles mehr statt.
Der auf der Website gepostete Kontoauszug, der Einkünfte über Google belegt stammt vom 03.12.2005.

Die „latest news“ sind vom 24 März 2007.
Bleibt also zu befürchten dass Google will eat itself sich (womöglich an sich selbst) verschluckt hat.

geschrieben von CptStarbug \\ tags: , , , , , ,

Jun 19

Das Thema Search Engine Optimization (SEO) rückt für viele Firmen und Webadmins immer mehr in den Vordergrund. Der Erfolg der firmeneigenen Webseite wird auch für die Old Economy Firmen, aber auch für IT-Firmen und andere Branchen immer mehr mit dem Unternehmenserfolg verknüpft.

SEO und SEM (Search Engine Marketing) werden deswegen ernster genommen und die Beauftragung einer professionellen SEO-Firma immer wahrscheinlicher.

Die Kriterien die Google und Co. veröffentlichen werden transparenter, jedoch bleibt einiges im Verborgenen, was z. B. den PageRank angeht. Es scheint, als sei es für Google wichtiger, die Kriterien des PageRank zumindest teilweise geheimzuhalten als für Objektivität und Transparenz zu sorgen.

Auch einiges Sprunghaftes in den Veränderungsraten einiger Websites was den PageRank angeht deutet darauf hin. Nicht immer ist so leicht nachvollziehbar, warum eine Site jetzt steigt oder sinkt, nicht immer muss es an veränderten Wettbewerbersituationen liegen, nicht immer muss die Site sich verbessert oder verschlechtert haben, was ihre PageRank-Bewertung angeht, manchmal scheint es, als ob einige Kriterien im Verborgenen liegen oder einfach scheinbar ohne objektiven Grund Veränderungen vor sich gehen, nur damit Google seine interne Bewertung geheim halten kann und sich keiner auf bestimmte Kriterien so leicht verlassen kann.

Heisst es nicht eigentlich: don’t be evil? Eventuell meint Google damit auch: don’t be silly!

Siehe auch: SEO und Tipps von Google

geschrieben von Sternau \\ tags: , , , , , , , , , , , , ,

blogoscoop