Hilfe - Suche - Mitglieder - Kalender
Vollansicht: Eintragung bei Google
HTML-Editor phase 5 Support > Fragen, Lösungen zu HTML-Problemen bzw. Webdesign-Fragen - Talk > Talktime
Ahnungslos
Eine Frage:

Wie trage ich meine Website bei google und anderen Suchmaschinen ein?
Conny
Hallo,
Guckst Du HIER!
Und bei den anderen großen Suchmaschinen machst Du das genau so! 8)

cu
Conny
Dakar
Hi Conny,

wie kann es den sein, dass die eigene Domain bei Google registriert ist, obwohl man selber nix dazu bei getragen hat?!

Muß das jemand (aktiv) eingetragen haben? Wie haltet Ihr das eigentlich allgemein mit dem Verlinken Eurer Seiten? Wenn diese ohne Nachfragen auf anderen Seiten als Link eingerichtet werden?

Ist es nicht eine normale Sache, dass man den Inhaber vorher fragt, oder bin ich da zu altmodisch veranlagt?!

Gruß, Tom.
Conny
Hi Tom,
ZITAT
...wie kann es den sein, dass die eigene Domain bei Google registriert ist, obwohl man selber nix dazu bei getragen hat?!...


Die Crawler grasen einfach das w.w.Web ab und irgendwann finden sie Dich!
Häufige Verlinkungen (vor Allem zu Deiner Seite) und Persönliche Eintragungen bei den Großen Suchmaschinen können diesen Prozes beschleunigen, es geht aber auch ohne Deine Mitwirkung...

Wenn Du sowas nicht magst, hast Du ein Problem, es läßt sich nicht verhindern, außer Du sorgst dafür, daß Deine Homepage Deine Festplatte nicht verläßt! :wink:

cu
Conny
Dakar
Nö, hat nix mit mögen zu tun! Ich verstehe eben Dinge gern... :wink:

Wieso - weshalb - warum - wer nicht fragt, bleibt dumm!

Mich hat es nur gewundert!
Das man bestimmte Sachen im Netz einfach seinen freien Lauf lassen MUSS, weil man eh nix daran ändern kann, damit habe ich mich schon abgefunden! Und (wenn man ehrlich ist) schmeichelt eine Verlinkung der eigenen Seite ja auch ein wenig... 8)

Was sind eigentlich Crawler?! (wieder so`n dumme Frage :oops: )
(Suchmaschinen für neue Domains?)

Herzlichst, Tom.
Conny
Hi,
ZITAT
...Was sind eigentlich Crawler, Suchmaschinen für neue Domains?....


Ja, das trifft es in etwa :wink:

Conny
waltari
ZITAT
Die Crawler grasen einfach das w.w.Web ab und irgendwann finden sie Dich!  
Häufige Verlinkungen (vor Allem zu Deiner Seite) und Persönliche Eintragungen bei den Großen Suchmaschinen können diesen Prozes beschleunigen, es geht aber auch ohne Deine Mitwirkung...


Das muss gar nicht mal sein. Wenn man sich in eine andere Suchmaschine eingetragen hat, z.B. Yahoo! oder Netscape, ist man auch bei Google drin. Im Grunde gibt es bloß noch drei Suchmaschinen: Google, Inktomi und MSN/Looksmart
ZITAT
Wenn Du sowas nicht magst, hast Du ein Problem, es läßt sich nicht verhindern, außer Du sorgst dafür, daß Deine Homepage Deine Festplatte nicht verläßt! :wink:


Und ob es sich verhindern lässt. Man legt die Datei robot.txt an und schreibt folgendes hinein:
QUELLTEXT
User-agent: *

Disallow: /

In der Seite fügt man dann noch diesen Meta-Tag <meta name="robots" content="robots.txt"> ein. Und schwupps ignorieren alle Suchmaschinen die Seite. <meta name="robots" content="noindex,nofollow"> hätte in den meisten Suchmaschinen dasselbe Ergebnis. Einige indizieren aber bei letzterem immer noch die Domain, nur keine spezifischen Seiten. Ich kann dir noch eine Reihe weiterer Meta-Tags aufzählen, die alle funktionieren und verhindern, dass Suchmaschinen die Seiten finden.
Conny
Hi Waltari,
ZITAT
...Und ob es sich verhindern lässt...


bei allem Respekt -Du hast ja mnal erzählt, daß Du in speziell dieser Branche tätig bist- bin ich da doch ein Wenig skeptisch.
Das das alles nicht sein muß behaupte ich auch gar nicht; aber kann und könnte schon!

Persönlich benütze ich für meine Seiten auch die*robot.txt* und entspreche Meta-Tags. Habe mir aber sagen lassen, daß nicht alle Crawler nach robot.txt suchen, sondern auch Titel auslesen und/oder andere Angaben (weitere Meta-Tags) auf der Seite.

Aber Dir brauche ich sowas nicht zu erzählen, Du kennst Dich ja aus in der Materie :wink:

cu
Conny
waltari
Hallo Conny,

ZITAT
Persönlich benütze ich für meine Seiten auch die*robot.txt* und  entspreche Meta-Tags. Habe mir aber sagen lassen, daß nicht alle Crawler nach robot.txt suchen


Wenn du nur allgemein von Crawlern ausgehst, hast du natürlich recht. Ein Crawler, der darauf abzielt Emails einzusammeln, den interessiert die robots.txt natürlich einen Sch***.
Und solltest du auf deinen Seiten wirklich robot.txt benutzen, funktioniert es sowieso nicht, weil die Suchmaschinen nur robots.txt kennen.
Aber in diesem Thread ging es ja um Google und Google liest den robots.txt Und wenn in besagtem steht, dass keine Crawler erlaubt sind, crawlt Google hier auch nicht. Genauso verhält sich Slurp (der Inktomi-Bot). Und meines Wissens auch der Fireball-Bot.

Timo
db
ZITAT
Hallo Conny,  

...
Aber in diesem Thread ging es ja um Google und Google liest den robots.txt Und wenn in besagtem steht, dass keine Crawler erlaubt sind, crawlt Google hier auch nicht. Genauso verhält sich Slurp (der Inktomi-Bot). Und meines Wissens auch der Fireball-Bot.  

Timo


Eine gute Seite zum Thema, bei der man auch die weiterführenden Links beachten sollte.

http://www.schmager.de/robobug.shtml
Conny
Hallo,
Zitat aus Dieters Link:
ZITAT
Der Glaube an die regulierende Wirkung der "robots.txt"-Datei kann fatale Folgen haben...
Zitat aus meinem Posting weiter oben:
ZITAT
..bin ich da doch ein Wenig skeptisch..


Ergo: war mein *Bauchgefühl* so schlecht noch nicht!

@Waltari:
ZITAT
...Und solltest du auf deinen Seiten wirklich robot.txt benutzen, funktioniert es sowieso nicht, weil die Suchmaschinen nur robots.txt kennen. ...

Ja, ich weiß: ROBOTS!
Hab' etwas nachläßig in die Tasten gehauen...
excuse me!

cu
Conny
waltari
Letztlich ist allles, was Suchmaschinen betrifft theoretisch. Das habe ich schon in meinen diversen anderen Postings zum Thema Suchmaschinen betont. Absolute Fakten zum Verhalten der Suchmaschinen gibt es nicht. Der Betreiber der Suchmaschine wäre auch schön blöd, wenn sie die genauen Kriterien, nach denen ihre Suchmaschine arbeitet, veröffentlichen würden. Alles Web-Wissen über Suchmaschinen und deren Verhalten beruht also auf Beobachtungen. Es gibt diverse Quellen zum Thema, die alle dasselbe behaupten. Natürlich kann da auch einer vom anderen abschreiben. Und selbstverständlich können diese, wenn sie bekannt sind, schon längst wieder veraltet sein. Zumal gerade Google seinen Index und die Indizierungskriterien fast wöchentlich ändert. Heute kann sich Google für robots.txt interessieren, morgen schon wieder nicht. Aber dass die Steuerung von Google mit der robots.txt funktioniert, weiß ich aus persönlicher Erfahrung. Ich habe es bereits mehrfach ausprobiert.

Timo
Dakar
Wenn Google mich schon kassiert hat... eh egal...oder was?! Oder machen die robotsdings doch noch Sinn?!

Naja, ich füg` sie mal ein... schaden kann`s ja offensichtlich nicht!

Wäre das dann so o.k.?

<!-- <meta name="robots" content="noindex,nofollow"> ???-->
<!-- <meta name="robots" content="noarchive,index,nofollow"> ???-->
<!-- <meta name="robots" content="noindex,follow"> ???-->
waltari
ZITAT
Wenn Google mich schon kassiert hat... eh egal...oder was?! Oder machen die robotsdings doch noch Sinn?!

Naja, ich füg` sie mal ein... schaden kann`s ja offensichtlich nicht!

Wäre das dann so o.k.?

<!-- <meta name="robots" content="noindex,nofollow"> ???-->
<!-- <meta name="robots" content="noarchive,index,nofollow"> ???-->
<!-- <meta name="robots" content="noindex,follow"> ???-->


Kommentier sie nicht aus, denn sonst ignoriert die Suchmaschine sie wohlmöglich.
Außerdem widersprechen sich deine Angaben. In dem einen benutzt du "follow", im anderen Tag "nofollow". Sollen die Suchmaschinen nun auf Unterseiten folgen oder nicht?
Einmal "noindex,nofollow" reicht aus, wenn keine Seite indiziert werden soll. Die korrekte Taganangabe für noarchive ist wie folgt:
<META NAME="ROBOTS="NOARCHIVE">
Geht es dir nur um Google, kannst du Google auch direkt ansprechen:
<META NAME="GOOGLEBOT" CONTENT="NOARCHIVE">
Dakar
ZITAT
<META NAME="GOOGLEBOT" CONTENT="NOARCHIVE">


Ok, das würde mir reichen... spielt sich ja eh fast alles über Google ab... und was hat es nun mit der robots.txt auf sich?! Verbietet man damit quasi dem Suchroboter die "Durchsicht" der Unterseiten? oder sperrt man die für die Suchmaschine?

# robots.txt for http://www.domain.de/
User-agent: *
Disallow: /Unterseite/
Disallow: /oder Ftp-Ordner/
waltari
ZITAT
Ok, das würde mir reichen... spielt sich ja eh fast alles über Google ab...
Betonung liegt hier wohl auf fast. Die am häufigsten benutzte Suchmaschine ist immer noch MSN.
ZITAT
und was hat es nun mit der robots.txt auf sich?! Verbietet man damit quasi dem Suchroboter die "Durchsicht" der Unterseiten? oder sperrt man die für die Suchmaschine?

# robots.txt for http://www.domain.de/
User-agent: *
Disallow: /Unterseite/
Disallow: /oder Ftp-Ordner/


Mit dem <meta name="robots" content="noindex,nofollow"> verbietest du der Suchmaschine genauso auf allen Unterseiten zu finden. Eigentlich dient die robots.txt dazu die Seiten, die gefunden werden sollen genauer zu spezifizieren. Da du also eh keine finden lassen willst, reicht dieser aus und robots.txt ist unnötig.
robots.txt ist zum Beispiel dann notwendig, wenn du eigene Fehlerseiten hast. Natürlich willst du nicht, dass die Suchmaschine eine Seite in ihren Index aufnimmt, auf der nur steht "Diese Seite konnte nicht gefunden werden".
Wenn du übe robots.txt, alle Seiten verbieten willst, machst du das so:
User-agent: *
Disallow: /

Damit ist sowohl der Index als auch alle Unterseiten ignoriert.

Timo
Dakar
Hallo Timo,

ich hab mal bei Dir geguckt:

<META NAME="allow-search" content="YES">
<META NAME="ROBOTS" CONTENT="index, nofollow">

...heisst das, dass nur auf der index nach den Suchbegriffen gesucht werden darf?

Ich möchte, dass Leute die wirklich gezielt eine Seite mit meinem Inhalt suchen, diese auch angezeigt bekommen; nur die Robots sollen sie nicht finden - Das ginge dann so, oder...

<meta name="description" content="private homepage">
<meta name="author" content="Dakar">
<meta name="keywords" content="forum, galerie, ...">
<meta name="generator" content="HTML Editor phase5">
<meta name="robots" content="noindex,nofollow">

...und wozu ist das gut:

<META NAME="revisit-after" CONTENT="14 days">
waltari
Hi Tom

ZITAT
ich hab mal bei Dir geguckt:
Also wenn du auf timogockel.de geschaut hast, kann ich nur eines sagen. Nimm dir an den den Meta-Tags dort kein Beispiel! Zuminest nicht, wenn du einfach rechts klickst "Seitenquelltext betrachten wählst". Dann siehst du nämlich ein Frameset, dass nicht von mir erstellt wurde, sondern von Freecity, dem Sponsor der Gratis-Domain timogockel.de. Dass die absolut sinnlos sind, sollte spätestens dann auffallen, wenn man sich den Meta-Tag Keywords anschaut: "table width=750 cellpadding=0 cellspacing=0 ....." Das sind definitiv keine Keywords.
ZITAT
<META NAME="allow-search" content="YES">
<META NAME="ROBOTS" CONTENT="index, nofollow">

...heisst das, dass nur auf der index nach den Suchbegriffen gesucht werden darf?


Genau, nur die datei index.* wird durchsucht, alle weiteren werden ignoriert. Den ersteren Tag. Den ersteren Tag sehe ich zum ersten Mal. Ich habe noch nie von einem Meta-Tag namens "allow-search" gehört. Wenn unter "ROBOTS" "index,nofollow" steht, erlaubst du die Suche ja quasi. Lass ersteren also weg.
ZITAT
Ich möchte, dass Leute die wirklich gezielt eine Seite mit meinem Inhalt suchen, diese auch angezeigt bekommen; nur die Robots sollen sie nicht finden - Das ginge dann so, oder...

<meta name="description" content="private homepage">
<meta name="author" content="Dakar">
<meta name="keywords" content="forum, galerie, ...">

<meta name="generator" content="HTML Editor phase5">
<meta name="robots" content="noindex,nofollow">
Ja, so finden die Robots sie nicht, aber die Leute finden sie auch nicht, weil sie überhaupt nicht indiziert wird. Der Robot muss sie zuerst finden, damit sie in die Suchmaschine aufgenommen wird, aber du sagst ihm ja, dass er weder die Indexseite, noch irgendwelche Unterseiten aufnehmen soll. So wird der Robot sie zwar finden, dann aber ignorieren. Und so bist du nicht in Suchmaschinen vertreten.
ZITAT
...und wozu ist das gut:

<META NAME="revisit-after" CONTENT="14 days">


Das heißt, dass der Robot alle 14 Tage auf deiner Seite vorbei schauen soll, ob sich etwas geändert hat. 14 Tage ist hier bei der empfohlene Wert! Alles, was niedriger ist, kann dazu führen, dass Seiten ausgeschlossen werden. Angeblich (Betonung liegt auf angeblich) indiziert Google keine Seiten (zumindest nicht über einen längeren Zeitraum), die hier einen geringeren Wert als 5 haben.

Timo
Andreas
Ich habe diese Werte gar nicht angegeben und Google schaut fast täglich vorbei. Bevor ich die robots.txt entsprechend angepasst habe, sogar auf meinem per DSL im Netz hängenden WebServer ... Halten die sich denn selbst nicht an ihre eigenen Vorgaben?

Andreas

[edit] Nur die fürchterliche Rechtschreibung korrigiert [/edit]
waltari
ZITAT
Ich diese Werte gar nicht angegeben und Google schuat fast täglich vorbei. Bevor ich die robs.txt entsprechend angepasst habe, sogar auf meinem per DSL im Netz hängenden WebServer ... Halten die sich denn selbst nicht an ihre eigenen Vorgaben?


Google interessiert sich sehr wenig für Meta-Tags. Die Anweisungen zu "robots" werden noch befolgt, wie du ja wohl selbst festgestellt hast durch Anpassung des robots.txt. Das einzige, was Google an dem Wert "revisit-after" interessiert, ist der Wert selbst. Eine Zahl geringer als 5 wird nun mal als Spam eingestuft. Aber Google hält sich nicht daran, wann es die Seite besuchen soll. Wenn dort 6 oder mehr steht, ist es okay, aber das heißt nur, das Google die Seite nicht negativ bewertet.
Meine Seiten werden auch täglich von Google besucht. Der Googlebot erzeugt eigentlich den meisten Traffic.
Die Meta-Tags sind also eher für andere Seiten gedacht. Fireball hält sich sehr genau an die Anweisung. Ich habe bei "revisit-after" 14 Tage angegeben. Und genau alle 14 Tage schaut der Fireball-Bot und der Altavista-Bot vorbei. Auch ansonsten setzt Fireball sehr auf meta-Tags. Zum Beispiel wird der Tag "abstract" bei den Suchergebnissen als Seitenbeschreibung angegeben.
Auch die Tags "keywords" und "description" werden von Google ignoriert. Eine gute Übersicht über Ranking-Kriterien und damit auch zur Befolgung von Meta-Tags gibt Dr.Web

Timo
bipae
Hi, Timo! Kann man Deine vielen Infos zu Suchmaschinen nicht mal zusammenfassen und in die FAQ packen - obwohl das nur am Thema phase5 kratzt? Ich denke, daß das sehr interessant und informativ für viele ist.

Was wäre denn, wenn Tom Dakar an Google eine Mail schickte: ich will meinen Sucheintrag so und so haben, wenn Sie meine meta-tags ignorieren, gibt's Ärger?
Frohes Fest und guten Rutsch!
waltari
Hi,

ZITAT
Kann man Deine vielen Infos zu Suchmaschinen nicht mal zusammenfassen und in die FAQ packen - obwohl das nur am Thema phase5 kratzt? Ich denke, daß das sehr interessant und informativ für viele ist.
Hi, diese Frage kann ich dir nicht beantworten. Ich kann aber gerne mal eine Linksammlung mit informativen Seiten zum Thema zusammenstellen und die wichtigsten Kriterien sofort auflisten.

ZITAT
Was wäre denn, wenn Tom Dakar an Google eine Mail schickte: ich will meinen Sucheintrag so und so haben, wenn Sie meine meta-tags ignorieren, gibt's Ärger?


Du kannst den Leuten von Google keine Anweisungen machen, "wie" sie deinen Eintrag bewerten sollen. Und auf Drohungen wie es gibt Ärger, wenn sie meine Meta-Tags ignorieren, lassen sie sich schon gar nicht ein. Eine Suchmaschine bzw. deren Betreiber entscheiden, ob sie dich indizieren und wie hoch sie dich indizieren. Du hast rechtlich keinen Anspruch auf einen Platz in der Suchmaschine, genauso wenig hat z.B. Compaq genauso vielAnspruch beim Keyword "Computer" auf den ersten Platz zu sein wie Hans Wurst's Computershop aus Bad Sonstwas.

Etwas Ähnliches, was du vielleicht meinst, gibt es bei dmoz.org, das ist ein Katalog, der eng mit Google verknüpft ist, in dem eine Beschreibung deiner Seite steht. Hier entscheidet eine Person, Editor genannt, ob die Seite aufgenommen wird. An sie kannst du auch Änderungen schicken, wenn die Beschreibung nicht mehr stimmt oder sich die URL geändert hat, aber aus persönlicher Erfahrung kann ich dir sagen, dass ein Editor nie darauf eingeht. URL-Änderunge wurde bei mir nie vorgenommen. Die Seite wurde einfach irgendwann mit der alten ungültigen URL gelöscht und ich musste sie neu anmelden.

Auch dir nen guten Rutsch
Timo
Sgiathach
ZITAT
Betonung liegt hier wohl auf fast. Die am häufigsten benutzte Suchmaschine ist immer noch MSN.


Que? Wäre mir aber neu. Das hätte MSN zwar gerne, aber wenn sich der Wind in den letzten paar Monaten nicht 180° gedreht hat, ist MSN unter "ferner liefen": ca. 7%.

Den genauen Marktanteil von Google weiß ich zwar auch nicht, aber die mir geläufigen Zahlen bewegen sich zwischen 66% und 84%. Man kann also locker sagen, daß 3 von 4 Websuchen auf Google geschehen.
waltari
Vielleicht ist MSN nicht die meist benutzte Suchmaschine, aber das wird bald wieder so sein.

Microsoft hat Google kürzlich gekauft, und mach daraus ein kommerzielles Angebot. MSN soll weiterhin frei bleiben. In den USA muss man für Google schon bezahlen. Demnächst soll auch für die Suche in Deutschland Geld verlangt werden. Wenn man bezahlt hat, bekommt man einen Key, mit dem man Google freischalten kann. Hier ein Foto davon:
Sgiathach
laugh.gif :letsdance: smilywand.gif :bravo:

Ja, ist mir bekannt. wink.gif
Netizen
ZITAT
ZITAT
Betonung liegt hier wohl auf fast. Die am häufigsten benutzte Suchmaschine ist immer noch MSN.


Que? Wäre mir aber neu. Das hätte MSN zwar gerne, aber wenn sich der Wind in den letzten paar Monaten nicht 180° gedreht hat, ist MSN unter "ferner liefen": ca. 7%.

Der Grund, warum MSN in einigen Statistiken vorne liegt, dürfte eher sein, daß MSN im IE die Standard-Suchmaschine ist. Eine falsche Eingabe und der Benutzer landet bei MS. Somit sind solche Statistiken ohnehin wertlos.

Gruß
n!
db
ZITAT
Vielleicht ist MSN nicht die meist benutzte Suchmaschine, aber das wird bald wieder so sein.

Microsoft hat Google kürzlich gekauft, und  mach daraus ein kommerzielles Angebot.  
...


So? Na, das wäre aber dumm, denn Google wäre besser beraten zuerst den Börsengang zu ralisieren und MS sollte kein Geld für Entwicklung einer eigenen Suchmaschinen zum Fenster hinaus werfen, wenn MS der Eigentümer von google ist.

Microsoft will im kommenden Jahr in den Markt der Internet-Suchmaschinen einsteigen. "Wir haben eine Entwicklermannschaft, die an einer eigenen Suchmaschine arbeitet", sagte Gregory Gordon, Direktor der Internet-Sparte MSN von Microsoft, am Montag in München. Suchmaschinen seien ein wachsender Markt mit erheblichem Umfang. "Wir wollen uns davon einen entsprechenden Anteil sichern", sagte Gordon. Das Produkt solle Ende 2004 auf den Markt kommen.


http://www.heise.de/newsticker/result.xhtm...ml&words=Google

...

Der Trick mit den Hits bei MS ist auch nicht die "Falscheingabe" oder das voreingestellte MSN sondern ein Sammeln von Anfragen und heimliches versenden an die so erfolgreiche Suchmaschine MSN. MSN "sucht" also immer mit. :-)
waltari
Ok, bevor noch irgendwelche Missverständnisse auftreten: Der Eintrag war eine Ente. Ich hätte nicht gedacht, dass dieses überzogene Bild einer für voll nimmt. Hätte es vielleicht noch durch einige Smileys unterstützen sollen.

Microsoft hat Google nicht gekauft!

Aber Sgiathach hat's, glaube ich, gerafft.

Um nun ernsthaft, Antwort zu geben.
Es kommt natürlich immer drauf an, wie man Statistiken sieht. Man kann Statistiken auch schönen.
Ich kriege in der Firma, wo ich aushelfe, immer Statistiken vorgelegt. Habe aber schon lange nicht mehr dort gejobbt, weil ich mal was fürs Studium machen muss. Aktuelle Zahlen habe ich also momentan auch nicht.
In Deutschland hat natürlich ganz klar Google die Nase vorn. International und besonders in Ami-land hat aber eindeutig MSN die Nase vorne.
MSN ist auch die typische Einsteigersuchmaschine, auch in Deutschland, daher also keineswegs zu verachten und genauso wichtig wie alle anderen. Leute, die neu im Internet sind, suchen zuerst bei MSN, weil diese Seite von Microsoft im IE voreingestellt ist und das so die erste Suchmaschine ist über die sie stoßen.
Das erklärt auch, warum Google eines der häufigsten Suchwörter ist. Die hören, dass es noch eine Suchmaschine namens Google gibt, aber kommen nicht auf die Idee Google.com einzugeben, sondern suchen danach in MSN. Zur Zeit ist es auf Platz 5. Die Top50-Suchbegriffe gibt es hier: http://www.word-tracker.com/
db
ZITAT
Ok, bevor noch irgendwelche Missverständnisse auftreten: Der Eintrag war eine Ente. Ich hätte nicht gedacht, dass dieses überzogene Bild einer für voll nimmt. Hätte es vielleicht noch durch einige Smileys unterstützen sollen.

Microsoft hat Google nicht gekauft!
...


Ups, da habe ich doch glatt die Grafik übersehen. :-)

Deine Ausführungen sind leider oft wegen der argumentativen Flexibilität schon in die Kategorie Witzigkeit einzuordnen.

Auf meinen letzten Absatz, der die eigentliche statistische Mogelpackung von MS beschreibt, versuchtest Du mit folgender Logik einzugehen: Die Leute suchen bei MSN nach google, was MSN viele Hits beschert. Nun, die Leute müssen sehr vergesslich sein, wenn sie später wieder statt gleich bei google wieder über MSN suchen. q.e.d. :-)

Übrigens, wer keine eigenen Logfiles hat, kann einfach bei den Web-Statistikern wie etracker usw. nachsehen.
Netizen
ZITAT
Übrigens, wer keine eigenen Logfiles hat, kann einfach bei den Web-Statistikern wie etracker usw. nachsehen.

Oder besser: Den Provider/Hoster wechseln. biggrin.gif

Zu einem vernünftigen Webspace gehört auch der direkte Zugriff auf die Logfiles. Von externen "Statistikern" halte ich nicht viel: Zum einen kriegen die auch nicht wirklich mehr Informationen als der eigentliche Server (das bißchen, was sich noch mit JavaScript ermitteln läßt, halte ich für irrelevant), zweitens können sie u. U. den Seitenaufbau erheblich verlangsamen (wenn der Statistik-Server mal lahmt).

Just my 2 cents

Gruß
n!
db
ZITAT
ZITAT
Übrigens, wer keine eigenen Logfiles hat, kann einfach bei den Web-Statistikern wie etracker usw. nachsehen.

Oder besser: Den Provider/Hoster wechseln. biggrin.gif

Zu einem vernünftigen Webspace gehört auch der direkte Zugriff auf die Logfiles. Von externen "Statistikern" halte ich nicht viel: Zum einen kriegen die auch nicht wirklich mehr Informationen als der eigentliche Server (das bißchen, was sich noch mit JavaScript ermitteln läßt, halte ich für irrelevant), zweitens können sie u. U. den Seitenaufbau erheblich verlangsamen (wenn der Statistik-Server mal lahmt).

Just my 2 cents

Gruß
n!


Nun, die Logfiles der Server sind lange nicht so vollständig wie man es glauben möchte. Deren Auswertung macht auch wenig Freude, wenn man keine CRON-JOBS fahren kann. AWSTATS liefert gute Resulate bei der Auswertung der Log-Files. Trotzdem kann man das nicht ganz mit "Web Controlling" vergleichen. Es interessieren einen ja die echten HITs bzw. Besucherzahlen, wenn man nicht gerade für MSN arbeitet. Ein Besucher mit aktivem Autoreload kann zwar schon mal am Rechner einschlafen oder eine Seite immer wieder aus einem Script aufrufen, um einem Seitenbetreiber ein Freude zu machen, unter dem Strich hat man aber wenig davon.

Nun ja, es ging ja in diesem unterhaltsamen Thread eigentlich um Suchmaschinen und speziell um Insiderwissen zu google. Ich selbst habe bei google, yahoo und msn (de, Suchwort ftp) Glück und deshalb gute Rankings, bin also nicht unbedingt auf seröse Informationen angewiesen. :-)
Sgiathach
Bei Google stehe ich ganz gut da, bei Yahoo sogar noch besser, aber bei MSN sieht die Sache sehr trübe aus. Da ist eine uuuuralte Version meiner Site indiziert, die es schon seit weit über einem Jahr nicht mehr gibt.

Was kann man denn da machen? Wie kann ich die Spider dazu bringen, mal wieder bei mir vorbeizuschauen?
CaVo
AW-Stats ist ein gutes Tool, keine Frage.
Was aber für einige auch von Interesse ist, ist das tatsächliche Surfverhalten der Besucher (welche Seiten wurden von Surfer x in welcher Reihenfolge besucht). Hier bietet einem AXS eine ziemlich komfortable Lösung. Allerdings ist das Script in der Installations nicht ganz so dolle, da man jede Seite (vorwiegend im shtml-Format) einzeln indizieren muss, per Scriptaufruf. Dafür ist die Auswertung Real-Time!
waltari
ZITAT
Mogelpackung von MS beschreibt,  versuchtest Du mit folgender Logik einzugehen: Die Leute suchen bei MSN nach google, was MSN viele Hits beschert. Nun, die Leute müssen sehr vergesslich sein, wenn sie später wieder statt gleich bei google wieder über MSN suchen. q.e.d.  :-)
So muss es sein. Wie sonst sollte sich der Suchbegriff "Google" so konsequent in den Top 10 der häufigsten Suchbegriffe halten? Man kann eher eine allgemeine Dummheit der Mehrheit der Internet-Nutzer vermuten, wenn man sich die häufigsten Suchbegriffe anschaut. Dass die Eingabe "sex", derzeit mal wieder auf Platz 1, nicht die gewünschtne Ergebnisse zum Thema Sex bringt, sollte inzwischen wohl jeder verstanden haben. Mit Platz 2 ist mal wieder frischer Wind hinein gekommen. Nur wird die Eingabe von "Paris Hilton Video" sicher keine Download-Links zum Video bringen, was sicher in der Absicht des Sucher stand.

ZITAT
Bei Google stehe ich ganz gut da, bei Yahoo sogar noch besser, aber bei MSN sieht die Sache sehr trübe aus. Da ist eine uuuuralte Version meiner Site indiziert, die es schon seit weit über einem Jahr nicht mehr gibt.

Was kann man denn da machen? Wie kann ich die Spider dazu bringen, mal wieder bei mir vorbeizuschauen?


Du kannst ein Paket bei Looksmart kaufen. Kunden, die zahlen werden bevorzugt behandelt. Oder du optimierst deine Seite für MSN. Seit kurzem hat MSN einen eigenen Bot und benutzt nicht mehr den Inktomi-Bot. Angeblich achtet der MSN-Bot auf ganz spezielle Dinge.
Schau mal hier vorbei http://notizen.joergkrusesweb.de/2003_2/msn.html
Wieviel Wahrheitsgehalt dran ist, weiß ich nicht, da der MSN-Bot noch relativ unerforscht, sag mich mal, ist. Aber ich würd MS zutrauen, dass Seiten, die "Optimiert für Internet Explorer" drauf stehen haben und mit Frontpage erstellt wurden, höher bewertet werden.

Als Statistikauswertung kann ich nur Getchoo empfehlen.
Netizen
ZITAT
http://notizen.joergkrusesweb.de/2003_2/msn.html
Wieviel Wahrheitsgehalt dran ist, weiß ich nicht, da der MSN-Bot noch relativ unerforscht, sag mich mal, ist.

Hypsch ... biggrin.gif

ZITAT
Als Statistikauswertung kann ich nur Getchoo empfehlen.

Sieht ganz gut aus, wobei ich aber die folgenden Punkte für zweifelhaft halte, da nicht zuverlässig ermittelbar (bzw. irrelevant):
[list]Aus welchen Ländern kommen meine Besucher?

[*]Haben meine Besucher Browser-Plugins wie z.B. Macromedia Flash installiert?

[*]Anzeige der Besucher, die sich gerade auf der Website befinden

[*]Bewegungsgschritte eines Besuchers durch Website verfolgen

[*]Betriebssystemauswertung (OS, Version, Auflösung, Farbtiefe)

[*]Modemgeschwindigkeit
[list]

Gruß
n!
waltari
ZITAT
Aus welchen Ländern kommen meine Besucher?
Stimmt. Wenn sie aus "Netzwerk" oder "Kommerziell" kommen, ist das wenig aussagekräftig. Aber für einen groben Abriss reicht es aus. Zumindest kann ich mir aus den Hochrechnungen ein Bild machen, dass die meisten Besucher bei mir noch immer aus Finnland kommen.

ZITAT
Haben meine Besucher Browser-Plugins wie z.B. Macromedia Flash installiert?


Das geht mit JavaScript sehr gut. Das haben immer noch mehr eingeschaltet, als man denkt. Wenn es ausgeschaltet ist, ist es natürlich nicht ermittelbar.

ZITAT
Anzeige der Besucher, die sich gerade auf der Website befinden
Klar. Das Skript kann nicht wissen, ob die Seite nur im Browser aufgerufen ist oder ob da wirklich ein Mensch sitzt, der die Seite betrachtet. Von daher ist das also eh relativ. Getchoo ist allerdings so programmiert, dass es Bots nicht als Besucher sieht, die gerade online sind.
ZITAT
Bewegungsgschritte eines Besuchers durch Website verfolgen


Bevor du das behauptest, teste es. Mit dem Getchoo-Skript geht es. Ich habe es selbst ausprobiert. Alle meine Schritte wurden korrekt aufgezeichnet.

ZITAT
Betriebssystemauswertung (OS, Version, Auflösung, Farbtiefe)
OS und Version lässt sich zuverlässig mit php ermitteln. Das andere mit JavaScript. Hier gilt das Gleiche wie schon bei den Plug-Ins.
Klar, kann man in manchen Browsern, z.B. Opera einstellen, dass er dem Browser ein anderes Betriebssystem und einen anderen Browser vorgibt. Aber die wenigsten benutzen solche Funktionen, deshalb liefert es schon zuverlässige Ergebnisse. Das Tarnen des Browsers lässt sich mit php sowieso ganz leicht umgehen. Wer auf meine Seite (http://www.planetwaltari.de)mit Opera 5 oder 6 geht, bekommt immer eine andere Version zu sehen, als einer, der mit IE drauf geht, ganz gleich, ob sich Opera gerade als Opera oder Netscape oder IE ausgibt.

ZITAT
Modemgeschwindigkeit


Weiß ich nicht. Der Punkt interessiert mich auch nicht.

Timo
Netizen
ZITAT
Stimmt. Wenn sie aus "Netzwerk" oder "Kommerziell" kommen,  ist das wenig aussagekräftig. Aber für einen groben Abriss reicht es aus.
Man kann höchstens anhand der IP versuchen zu ermitteln, aus welchem Land der zugehörige Provider stammt. Das muß aber nicht immer funktionieren und sagt obendrein nichts über die tatsächliche Herkunft der Besucher. Grober Abriss bzw. Tendenz ja, aber nicht repräsentativ.

ZITAT
Klar. Das Skript kann nicht wissen, ob die Seite nur im Browser aufgerufen ist oder ob da wirklich ein Mensch sitzt, der die Seite betrachtet.

Das meinte ich gar nicht mal, ich meinte eher, daß nicht zuverlässig ermittelbar ist, ob wer "auf der Seite" ist, egal ob Bot oder Mensch. Woran will man das festmachen? Am letzten Zugriff auf eine bestimmte Seite? Für wie lange nach einem Zugriff gilt der Besucher noch als online? Wenn er die Seite nur mal kurz überflogen hat und gleich wieder zumacht, wird er immer noch als online in der Statistik auftauchen, obwohl er längst weg ist. Das kann nicht funktionieren. Und die nächste Frage ist, welchen Sinn diese "Information" überhaupt hat.

ZITAT
ZITAT
Bewegungsgschritte eines Besuchers durch Website verfolgen

Bevor du das behauptest, teste es. Mit dem Getchoo-Skript geht es. Ich habe es selbst ausprobiert. Alle meine Schritte wurden korrekt aufgezeichnet.

Ohne es getestet zu haben fallen mir nur zwei Möglichkeiten ein, Benutzer zu "verfolgen": Entweder über die IP oder den Referrer. Beides ist nicht zuverlässig (z.B. wenn ein Proxy dazwischenhängt oder der Referrer abgeschaltet ist). Auch eine chronologische Auswertung der Seitenzugriffe muß nicht zwangsläufig dem tatsächlichen Weg entsprechen, den der Benutzer genommen hat.

ZITAT
Das Tarnen des Browsers lässt sich mit php sowieso ganz leicht umgehen. Wer auf meine Seite (http://www.planetwaltari.de)mit Opera 5 oder 6 geht, bekommt immer eine andere Version zu sehen, als einer, der mit IE drauf geht, ganz gleich, ob sich Opera gerade als Opera oder Netscape oder IE ausgibt.

Kein Thema, da Opera im Browserstring immer "Opera" mitschickt, egal was davorsteht. Somit läßt sich das in diesem speziellen Fall erkennen bzw. umgehen, im Allgemeinen aber eher nicht.

ZITAT
ZITAT
Modemgeschwindigkeit

Weiß ich nicht. Der Punkt interessiert mich auch nicht.

Schade, das wäre das einzige was micht interessieren täte - nämlich wie sie das messen wollen ... :wink:

In Kurzform:
Ich hab ja nix gegen das Programm selbst gesagt, nur halte ich einige der angebotenen Informationen für so unzuverlässig, daß man auch gleich drauf verzichten könnte. Ich halte es für unnötig, ein Programm auf Teufel komm raus mit Features vollzustopfen bzw. noch und nöcher Informationen aus dem gebotenen "Rohmaterial" herauszuinterpretieren. Vieles läßt sich nunmal nur zweifelsfrei feststellen, wenn man dem Besucher beim Surfen direkt über die Schulter guckt ...

Sind zwar noch paar Stunden, aber schon mal 'nen Guten Rutsch biggrin.gif

n!
waltari
ZITAT
Man kann höchstens anhand der IP versuchen zu ermitteln, aus welchem Land der zugehörige Provider stammt. Das muß aber nicht immer funktionieren und sagt obendrein nichts über die tatsächliche Herkunft der Besucher. Grober Abriss bzw. Tendenz ja, aber nicht repräsentativ.
Repräsentativ genug, um zu wissen, dass ich mehr Besucher aus Finnland habe als aus Deutschland.


ZITAT
Das meinte ich gar nicht mal, ich meinte eher, daß nicht zuverlässig ermittelbar ist, ob wer "auf der Seite" ist, egal ob Bot oder Mensch. Woran will man das festmachen? Am letzten Zugriff auf eine bestimmte Seite? Für wie lange nach einem Zugriff gilt der Besucher noch als online? Wenn er die Seite nur mal kurz überflogen hat und gleich wieder zumacht, wird er immer noch als online in der Statistik auftauchen, obwohl er längst weg ist. Das kann nicht funktionieren. Und die nächste Frage ist, welchen Sinn diese "Information" überhaupt hat.

Bevor du das behauptest, teste es. Mit dem Getchoo-Skript geht es. Ich habe es selbst ausprobiert. Alle meine Schritte wurden korrekt aufgezeichnet.


Diese beiden Punkte diskutiere ich einfach nicht mehr mit dir. Deine Antworten zeigen, dass du Getchoo nicht in der Praxis getestet hast. Du hast dir wahrscheinlich nur die Demo auf der Seite angeschaut, weißt aber trotzdem sofort alles besser. Und über die Möglichkeiten, die PHP zu diesen Punkten bietet bist du dir auch nicht wirklich im Klaren.

ZITAT
Kein Thema, da Opera im Browserstring immer "Opera" mitschickt, egal was davorsteht. Somit läßt sich das in diesem speziellen Fall erkennen bzw. umgehen, im Allgemeinen aber eher nicht.
Ich habe Opera als Beispiel genommen, weil er dieses Feature sofort eingebaut hat. Bei Mozillla muss man erst noch ein zusätzliches Plug-In einbauen. Wenn man es im Allgemeinen umgehen kann, ist es nur schlampig programmiert. Ich habe mein Skript so programmiert, dass es auch die Mozilla-Tarnung durchbricht. Leider programmieren viele Webmaster ihre Browserweichen so schlampig, vor allem, weil viele auch glauben andere Browser als IE aussperren zu müssen. Viele kennen Opera nicht einmal.

ZITAT
Modemgeschwindigkeit
Schade, das wäre das einzige was micht interessieren täte - nämlich wie sie das messen wollen ..


Das steht in der Dokumentation beschrieben. Aber wenn ich das jetzt hier erkläre, heißt es deinerseits ja eh nur wieder: Das kann man nicht zuverlässig messen.

ZITAT
nur halte ich einige der angebotenen Informationen für so unzuverlässig, daß man auch gleich drauf verzichten könnte.
Du stellst einfach irgendwelche Behauptungen auf, die du anhand der Benutzeroberfläche festgestellt hast. Um das behaupten zu können, sollte man sich das Skript anschauen und analysieren, wie es das macht. Und das hast du mit Sicherheit nicht.

ZITAT
Ich halte es für unnötig, ein Programm auf Teufel komm raus mit Features vollzustopfen bzw. noch und nöcher Informationen aus dem gebotenen "Rohmaterial" herauszuinterpretieren.


Dann bin ich nur wieder froh, dass es Idioten gibt, die sich die Zeit nehmen, Features zu programmieren für Programme, die eh nicht funktionieren und die sowieso keiner braucht.

ZITAT
Vieles läßt sich nunmal nur zweifelsfrei feststellen, wenn man dem Besucher beim Surfen direkt über die Schulter guckt ...


Und weil gerade das nicht geht, brauchst du so etwas wie Getchoo.

Stell doch mal eine Alternative vor, die besser ist als Getchoo! Ich bin mit Getchoo sehr zufrieden. Bei meinem Provider ist WebAlizer vorinstalliert. WebAlizer finde ich viel weniger aussagekräftig und es ist viel unübersichtlicher als Getchoo.

Und was stört dich so dermaßen an Getchoo, dass du es gerade schlecht machst? In dem Thread wurde auch AW-Stats oder AXS erwähnt. Aber über ziehst du nicht im geringsten her. Sind die deiner Meinung nach zuverlässig? Oder hast du sie dir einfach nicht angeschaut? Zieh doch mal Vergleiche zu Getchoo.
Netizen
Eins vorweg: Ich mache das Programm nicht schlecht, ich äußere lediglich meine persönliche Meinung zu einigen Dingen, basierend auf meinen bisherigen Kenntnissen von HTTP und HTML. Das wird wohl noch erlaubt sein.

ZITAT
Diese beiden Punkte diskutiere ich einfach nicht mehr mit dir. Deine Antworten zeigen, dass du Getchoo nicht in der Praxis getestet hast. Du hast dir wahrscheinlich nur die Demo auf der Seite angeschaut, weißt aber trotzdem sofort alles besser.
Ich kann es auch nicht komplett testen, da die Vollversion Geld kostet. Und selbst bei der Online-Demo hatte ich schon Schwierigkeiten, überhaupt reinzukommen (Cookies erforderlich).

ZITAT
Und über die Möglichkeiten, die PHP zu diesen Punkten bietet bist du dir auch nicht wirklich im Klaren.

Die da z.B. wären?

ZITAT
ZITAT
Modemgeschwindigkeit
Schade, das wäre das einzige was micht interessieren täte - nämlich wie sie das messen wollen ..

Das steht in der Dokumentation beschrieben. Aber wenn ich das jetzt hier erkläre, heißt es deinerseits ja eh nur wieder: Das kann man nicht zuverlässig messen.

Gehe ich recht in der Annahme, daß die Doku nur in der bezahlten Vollversion enthalten ist? In der Light-Version und auf der Webseite selbst findet sich nichts. Somit wäre ich Dir durchaus dankbar, die entsprechenden Stellen mal zu quoten bzw. sinnerhaltend wiederzugeben. Meine Meinung dazu beruht schlicht und ergreifend auf meinen bisherigen Erfahrungen und Kenntnissen, ich bin aber durchaus lernfähig.

ZITAT
Du stellst einfach irgendwelche Behauptungen auf, die du anhand der Benutzeroberfläche festgestellt hast. Um das behaupten zu können, sollte man sich das Skript anschauen und analysieren, wie es das macht. Und das hast du mit Sicherheit nicht.
Richtig. Die Light-Version gibt nichts her und die Vollversion kostet Geld. So wichtig ist es mir dann doch nicht.

ZITAT
Dann bin ich nur wieder froh, dass es Idioten gibt, die sich die Zeit nehmen, Features zu programmieren für Programme, die eh nicht funktionieren und die sowieso keiner braucht.

Das habe ich nicht gesagt, ich schrub lediglich, was ich persönlich davon halte.

ZITAT
In dem Thread wurde auch AW-Stats oder AXS erwähnt. Aber über ziehst du nicht im geringsten her. Sind die deiner Meinung nach zuverlässig? Oder hast du sie dir einfach nicht angeschaut? Zieh doch mal Vergleiche zu Getchoo.

Auf einer meiner Seiten ist vom Provider her AWStats installiert. Es bietet die für mich relevanten Informationen (wobei ich einige andere für ebenso unnötig finde, somit erübrigt sich IMHO ein direkter Vergleich zu Getchoo). Wichtig für mich persönlich sind:
[list]Aufgerufene Seiten, welche wann wie häufig

[*]Besuche von Bots

[*]externe Referrer, sprich: Links von anderen Seiten zu meinen

[*]Suchworte/-ausdrücke, mit denen Besucher von Suchmaschinen aus auf meine Seiten gelangten

[*]404 und andere Fehler

[*]rein aus Interesse: verwendete Browser[list]
Bestimmte weitere Informationen sind zwar interessant, für mich aber nicht von Belang. Und bestimmte Sachen halte ich einfach für sinnlos. Nochmal: Das ist einzig und allein meine persönliche Meinung und nicht gegen irgendwen/-was gerichtet.

Gruß
n!
waltari
ZITAT
Eins vorweg: Ich mache das Programm nicht schlecht, ich äußere lediglich meine persönliche Meinung zu einigen Dingen, basierend auf meinen bisherigen Kenntnissen von HTTP und HTML. Das wird wohl noch erlaubt sein.


In meinen Augen wirkt es eher wie eine persönliche Kritik.

ZITAT
ZITAT
Und über die Möglichkeiten, die PHP zu diesen Punkten bietet bist du dir auch nicht wirklich im Klaren.

Die da z.B. wären?


Da ich wenig Lust habe, diese Diskussion weiterzuführen, gehe ir auf diesen Punkt nicht mit technischen Details ein. Es sei nur gesagt, dass du in der Installation von Getchoo einstellen kannst, nach wieviel Minuten ein Besucher ohne Aktivität noch als online gilt. Du kannst eine Minute einstellen oder auch jede beliebige andere Zahl.

ZITAT
Gehe ich recht in der Annahme, daß die Doku nur in der bezahlten Vollversion enthalten ist? In der Light-Version und auf der Webseite selbst findet sich nichts.
So schaut's aus. Also gibst du damit auch indirekt zu nicht über alles im Bilde zu sein.
ZITAT
Somit wäre ich Dir durchaus dankbar, die entsprechenden Stellen mal zu quoten bzw. sinnerhaltend wiederzugeben. Meine Meinung dazu beruht schlicht und ergreifend auf meinen bisherigen Erfahrungen und Kenntnissen, ich bin aber durchaus lernfähig.


Bitte schön. Die Antwort wird dir nicht gefallen. Du wirst wieder darin bestätigt fühlen, dass es sich nicht zuverlässig ermitteln lässt. Der Unterschied zu anderen, ist der, dass Getchoo diese Funktion hat und man so immer noch zu einem groben Überblick gelangen kann.

ZITAT
Die Ermittlung der Verbindungsgeschwindigkeit:
Ebenfalls auf Javascript-Code basierend ist die Erkennung der Verbindungsgeschwindigkeit eines
Besuchers. Dabei wird dem Besucher eine für ihn nicht sichtbare Bilddatei übermittelt, die je nach
vorhandener Verbindungsgeschwindigkeit mehr oder weniger schnell von getchooSTAT versendet
werden kann. getchooSTAT ordnet diesem Besucher anhand der benötigten Zeit eine
entsprechende Verbindungsgeschwindigkeit zu.
Bitte beachten Sie, dass die von getchooSTAT ermittelten Verbindungsgeschwindigkeiten nur
Schätzungen darstellen, die von den tatsächlich vorhandenen Verbindungsgeschwindigkeiten
abweichen können. Die Ergebnisse können insbesondere dann variieren, wenn ein Besucher beim
Aufruf Ihrer Webseite parallel Dateien oder Datenströme aus dem Internet empfängt. getchooSTAT
steht in diesem Fall für die Übermittlung der Testdatei nicht mehr die volle Verbindungsbandbreite
zur Verfügung, was zur Erkennung einer niedrigen Verbindungsgeschwindigkeit führen kann (so
könnte z.B. eine DSL-Verbindung als 56K Modem qualifiziert werden).
ZITAT
Richtig. Die Light-Version gibt nichts her und die Vollversion kostet Geld. So wichtig ist es mir dann doch nicht.


Sie kostet 20,- Euro. Das ist keinesfalls zuviel verlangt! Bei mir auf dem Provider ist nur WebAlizer installiert. Und das finde ich auf gut deutsch gesagt nun mal sch***e. Getchoo war die erste Alternative, die ich gefunden habe. Es hat mir auf anhieb gefallen. Vielleicht gibt es ähnliche Programme, die das Gleiche bieten gratis. Aber dennoch bin ich der Überzeugung, dass Getchoo auf seinem Gebiet eines der besten ist.


ZITAT
ZITAT
In dem Thread wurde auch AW-Stats oder AXS erwähnt. Aber über ziehst du nicht im geringsten her. Sind die deiner Meinung nach zuverlässig? Oder hast du sie dir einfach nicht angeschaut? Zieh doch mal Vergleiche zu Getchoo.

Auf einer meiner Seiten ist vom Provider her AWStats installiert. Es bietet die für mich relevanten Informationen (wobei ich einige andere für ebenso unnötig finde, somit erübrigt sich IMHO ein direkter Vergleich zu Getchoo). Wichtig für mich persönlich sind:
[list]Aufgerufene Seiten, welche wann wie häufig

[*]Besuche von Bots

[*]externe Referrer, sprich: Links von anderen Seiten zu meinen

[*]Suchworte/-ausdrücke, mit denen Besucher von Suchmaschinen aus auf meine Seiten gelangten

[*]404 und andere Fehler

[*]rein aus Interesse: verwendete Browser[list]
Bestimmte weitere Informationen sind zwar interessant, für mich aber nicht von Belang. Und bestimmte Sachen halte ich einfach für sinnlos. Nochmal: Das ist einzig und allein meine persönliche Meinung und nicht gegen irgendwen/-was gerichtet.


All dies bietet auch Getchoo. Warum erübrigt sich hier ein Vergleich? Vergleich doch die für dich relevanten Informationen zwischen Getchoo und AWStats.

Und selbst, falls es bessere Programme für die Statistik gibt, hat Getchoo ein Feature, dass ich bisher noch nicht bei anderen entdeckt habe, dass mir persönlich gut gefällt und dass ich brauche: den Gast-Login. Du kannst einen Login für Gäste einrichten und festlegen, welche Statistiken sie sehen dürfen.

Gruß, Timo
Auge
ZITAT
ZITAT
Eins vorweg: Ich mache das Programm nicht schlecht, ich äußere lediglich meine persönliche Meinung zu einigen Dingen ...


In meinen Augen wirkt es eher wie eine persönliche Kritik.


... an dem Programm, und das ist erlaubt. Zumal ich Netizen
anhand seiner Beiträge hier im Forum für durchaus fachlich informiert halte.

ZITAT
Es sei nur gesagt, dass du in der Installation von Getchoo einstellen kannst, nach wieviel Minuten ein Besucher ohne Aktivität noch als online gilt. Du kannst eine Minute einstellen oder auch jede beliebige andere Zahl.
Wie aussagekräftig kann eine solche Angabe sein? Für mehr als eine
Schätzung ist das nicht geeignet. HTTP als Protokoll ist zustandslos,
was bedeutet, daß nach einer Anfrage einer Seite und deren Auslieferung
die Verbindung zwischen dem Server und dem Client (Browser) beendet
wird. Danach weiß der Server nichts mehr vom Browser, also auch vom
Besucher der Seite.

ZITAT
So schaut's aus. Also gibst du damit auch indirekt zu nicht über alles im Bilde zu sein.


Aber er kennt die zugrundeliegenden Techniken, und erlaubt sich
daher eine Einschätzung.

ZITAT
... Der Unterschied zu anderen, ist der, dass Getchoo diese Funktion hat und man so immer noch zu einem groben Überblick gelangen kann.
Zu mehr aber auch nicht. Das gilt übrigens, zu deiner Beruhigung,
auch für andere Programme, die soetwas ermitteln wollen.

ZITAT
ZITAT
Richtig. Die Light-Version gibt nichts her und die Vollversion kostet Geld. So wichtig ist es mir dann doch nicht.


Sie kostet 20,- Euro. Das ist keinesfalls zuviel verlangt!


Nur um die Skripte auf deinen Wunsch hin zu analysieren, halte
ich 20 EUR für sehr viel Geld.

Ob es nun das von dir favorisierte oder ein anderes Programm
oder auch ein Statistikprogramm von einer externen Website ist,
das per Link eingebunden wird, man sollte sich immer im Klaren sein,
daß es dort Angaben gibt, die nicht voll vertrauenswürdig sind.

Tschö, Auge
waltari
ZITAT
... an dem Programm, und das ist erlaubt. Zumal ich Netizen
anhand seiner Beiträge hier im Forum für durchaus fachlich informiert halte.


Ich spreche ihm das Recht auf persönliche Kritik nicht ab. Genausowenig spreche ich ihm seine fachliche Kompetenz ab. Eine Kritik beinhaltet die eigene Meinung, ist aber weitaus mehr als nur die Meinung in meinen Augen.

ZITAT
ZITAT
Es sei nur gesagt, dass du in der Installation von Getchoo einstellen kannst, nach wieviel Minuten ein Besucher ohne Aktivität noch als online gilt. Du kannst eine Minute einstellen oder auch jede beliebige andere Zahl.


Wie aussagekräftig kann eine solche Angabe sein? Für mehr als eine
Schätzung ist das nicht geeignet. HTTP als Protokoll ist zustandslos,
was bedeutet, daß nach einer Anfrage einer Seite und deren Auslieferung
die Verbindung zwischen dem Server und dem Client (Browser) beendet
wird. Danach weiß der Server nichts mehr vom Browser, also auch vom
Besucher der Seite.


Genau, darum geht es doch hier bei! Ist schon klar, dass der Server danach nichts mehr vom Besucher weiß. Dem Skript gibst du allerdings an, wie lange er noch als "bekannt" angezeigt werden soll. Wenn er also eine Seite geladen hat, kann man eben angeben, dass er noch 1 - "sonstwas" Minuten als online gezeigt werden soll. Klickt er einen Link beginnt das wieder von vorne. So erscheint er nicht, solange der Zeitwert nicht überschritten wird zwischendurch mal als offline, solange er keine neue Seite lädt.

ZITAT
ZITAT
So schaut's aus. Also gibst du damit auch indirekt zu nicht über alles im Bilde zu sein.


Aber er kennt die zugrundeliegenden Techniken, und erlaubt sich
daher eine Einschätzung.


Was heißt, er kennt die zugrunde liegenden Techniken? Er kennt vielleicht allgemeine Lösungen zu dem Problem. Hier ging es aber speziell, um die von Getchoo verwendeten Techniken. Und vom besagtem hat er den Quellcode nicht gesehen, ergo kennt er nicht alle zugrunde liegenden Techniken.

ZITAT
ZITAT
... Der Unterschied zu anderen, ist der, dass Getchoo diese Funktion hat und man so immer noch zu einem groben Überblick gelangen kann.


Zu mehr aber auch nicht. Das gilt übrigens, zu deiner Beruhigung,
auch für andere Programme, die soetwas ermitteln wollen.


...zu meiner Beruhigung. pfff :|
Wie gesagt: Bei anderen kann man sich davon nicht mal einen groben Überblick verschaffen.

ZITAT
ZITAT
Richtig. Die Light-Version gibt nichts her und die Vollversion kostet Geld. So wichtig ist es mir dann doch nicht.


ZITAT
Sie kostet 20,- Euro. Das ist keinesfalls zuviel verlangt!


Nur um die Skripte auf deinen Wunsch hin zu analysieren, halte
ich 20 EUR für sehr viel Geld.


Diesen Wunsch habe ich nicht geäußert. Ich habe lediglich festgestellt, dass er keine ausreichenden Kenntnisse über die Vollversion hat und die Feststellung gemacht, dass 20,- Euro in meinen Augen nicht zuviel verlangt ist für Getchoo. Dass er sich das Programm nicht kaufen wird, um es ausreichend zu testen, ist mir klar und auch nicht in meinem Sinn.
Dass das zuviel verlangt ist, geht auch noch in mein kleines Spatzenhirn rein.

ZITAT
Ob es nun das von dir favorisierte oder ein anderes Programm
oder auch ein Statistikprogramm von einer externen Website ist,
das per Link eingebunden wird, man sollte sich immer im Klaren sein,
daß es dort Angaben gibt, die nicht voll vertrauenswürdig sind.


Ich bin nicht naiv. Ich habe nie behauptet den Angaben von Getchoo 100% zu vertrauen!

Timo
Auge
[quote][quote]Wie aussagekräftig kann eine solche Angabe sein? Für mehr als eine Schätzung ist das nicht geeignet.[/quote]
... So erscheint er nicht, solange der Zeitwert nicht überschritten wird zwischendurch mal als offline, solange er keine neue Seite lädt.[/quote]

Siehe meine obige Frage! Eine Schätzung, mehr nicht.

[quote][quote]Aber er kennt die zugrundeliegenden Techniken, und erlaubt sich daher eine Einschätzung.[/quote]

Was heißt, er kennt die zugrunde liegenden Techniken? Er kennt vielleicht allgemeine Lösungen zu dem Problem. Hier ging es aber speziell, um die von Getchoo verwendeten Techniken. Und vom besagtem hat er den Quellcode nicht gesehen, ergo kennt er nicht alle zugrunde liegenden Techniken.[/quote]

Ob nun Getchoo oder irgendein anderes Programm, sie alle
benötigen die Angaben der Clients und die Netzwerkprotokolle.
Wenn diese bestimmte Dinge aber nicht hergeben, tun sie dies nicht!
Dann ist aber auch egal, was im Quellcode irgendeines Programms steht,
Informationen, die eine Technik nicht zur Verfügung stellt, kann man
mit ihr auch nicht sammeln.

Das sind die zugrundeliegenden Techniken, deren Kenntnis ich Netizen zuspreche.

[quote]...zu meiner Beruhigung. pfff :|
Wie gesagt: Bei anderen kann man sich davon nicht mal einen groben Überblick verschaffen.[/quote]

Wenn dir die Funktion gefällt, bitte.
Aber wozu brauche ich einen Überblick über die Verbindungs-
geschwindigkeit, deren, gelinde gesagt, grobe Schätzung auf
einer zweifelhaften Technik beruht?

[quote][quote][quote]Richtig. Die Light-Version gibt nichts her und die Vollversion kostet Geld. So wichtig ist es mir dann doch nicht.[/quote]

[quote]Sie kostet 20,- Euro. Das ist keinesfalls zuviel verlangt![/quote]

Nur um die Skripte auf deinen Wunsch hin zu analysieren, halte
ich 20 EUR für sehr viel Geld. [/quote]

Diesen Wunsch habe ich nicht geäußert.[/quote]

Aha:

[quote][quote]
Bewegungsgschritte eines Besuchers durch Website verfolgen[/quote]

[quote]Bevor du das behauptest, teste es. Mit dem Getchoo-Skript geht es. ...[/quote][/quote]

Das halte ich schon für eine Aufforderung, die Skripte zu testen. Womit wir
wieder bei den ominösen 20 EUR wären. :-)

[quote]Ich bin nicht naiv. Ich habe nie behauptet den Angaben von Getchoo 100% zu vertrauen![/quote]

Und ich habe nie behauptet, du wärest naiv. Also unterstelle mir das
auch nicht!
Du hast dich hier angepisst gefühlt, als Netizen einige Funktionen
deines bevorzugten Statistikprogramms als unzuverlässig
ermittelbar bzw. als in ihrer Aussagekraft irrelevant bezeichnete.

[quote][quote]Als Statistikauswertung kann ich nur Getchoo empfehlen.[/quote]
Sieht ganz gut aus, wobei ich aber die folgenden Punkte für zweifelhaft halte, da nicht zuverlässig ermittelbar (bzw. irrelevant):
[list]

[*] Aus welchen Ländern kommen meine Besucher?

[*] Haben meine Besucher Browser-Plugins wie z.B. Macromedia Flash installiert?

[*] Anzeige der Besucher, die sich gerade auf der Website befinden

[*] Bewegungsgschritte eines Besuchers durch Website verfolgen

[*] Betriebssystemauswertung (OS, Version, Auflösung, Farbtiefe)

[*] Modemgeschwindigkeit
[list]

Wenn du glaubst, dich gegen einen nicht erfolgten Angriff wehren
zu müssen, ist das dein Bier, und das bleibt es auch.

Tschö, Auge
waltari
@Auge

Weißt du was? Ich habe einfach null Bock mehr auf diese Diskussion. Ich habe nur noch überflogen, was du geschrieben hast.

Ihr findet Getchoo nicht so toll, ich finde es toll.
Ihr braucht Getchoo nicht, ich brauch es.
Ihr verwendet Getchoo nicht, ich verwende es.

Lass uns alle mit diesem Zustand glücklich werden. Dieser Thread ging ursprünglich um einen Eintrag bei Google und nicht darum, was Getchoo leistet. Ich bin von Getchoo begeistert und halte es für das beste Programm auf seinem Gebiet, ganz gleich was ein paar Pappnasen dagegen sprechen.

Du hast mir nicht direkt unterstellt naiv zu sein, aber jetzt unterstellst du mir, dass ich angepisst bin und mich angegriffen fühle. Wenn ich gegen seine Zweifel argumentiere bin ich nicht angepisst oder fühle mich angegriffen.
Wenn ich mich von einem angepisst fühle, dann bist das eher du als Netizen. Netizen wird durchaus noch in der Lage sein für sich selbst zu sprechen und selbst wenn ich etwas forsch geantwortet habe, wird er damit alleine klar kommen und braucht keinen moralischen und seelischen Beistand von dir, indem du meine Meinung und die von Getchoo verwendeten Techniken genauso zerreißt.
Dieses ist eine vereinfachte Darstellung unseres Foreninhaltes. Um die detaillierte Vollansicht mit Formatierung und Bildern zu betrachten, bitte hier klicken.
Invision Power Board © 2001-2024 Invision Power Services, Inc.