Schlagwort-Archiv: nutzungsverhalten

Missing Links: Einzelfall oder Trend?

von Stefan Evertz am 25.06.10 um 8:05 Uhr | 7 Antworten

One way to nature
Lizenz: Creative Commons License Photo: unmundane

Aus aktuellem Anlass habe ich in den letzten Tagen einige durchweg lesenswerte Blog-Artikel rund um das VideoCamp im Netz gefunden, die mich allerdings allesamt in einem Punkt wirklich irritiert haben: Sie verlinken nicht.

Nun kann das viele Gründe haben, z.B. technische Probleme (je nach System werden Links – auch zu Twitter-Accounts- automatisch umgewandelt; hier kann es aber eben auch zu Störungen kommen). Eventuell gibt es auch „redaktionelle“ Gründe oder es ist die auch in den letzten 10 Jahren nicht ausgestorbene Sorge, wegen unklarer Haftungsfragen durch einen externen Link umgehend in einer Vorhölle zu landen.

Natürlich kann es auch einfach Unachtsamkeit sein – was im konkreten Fall (bei Artikeln über ein sponsorenfinanziertes BarCamp wie das VideoCamp im doppelten Sinne schade wäre. Denn schließlich kann man durch Links wunderbar auf vertiefende Informationen verweisen, statt den Leser erst auf die Suche bei Google schicken zu müssen. Und ein wenig mehr Aufmerksamkeit auf die Website der BarCamp-Plattform kann man durchaus als kleine Gegenleistung für das Engagement der Sponsoren sehen – das direkte Verlinken von Sponsoren passiert ja (gerade auf Teilnehmerseite) ohnehin kaum noch.

Vielleicht ist es auch einfach der Wunsch, mit dem eigenen Text am liebsten eine Sackgasse zu sein. Eingehend Links nimmt man im Zweifelsfall gerne, ausgehende Links dagegen würden ja den Leser „weglocken“. Im Sinne eines offenen Netzes wäre das wohl die unangenehmste Sichtweise

Es gibt jedenfalls viele denkbare Gründe, warum in den Artikeln quasi keine Links gesetzt wurden. Und es geht mir nicht darum, hier die einzelnen Autoren anzuprangern oder die Gründe einzeln zu sezieren – es fiel mir halt einfach die Häufung auf (Hier die Beispiele: steadynews, steuerungb, vj-news; beim letzten Text ist genau 1 Link enthalten – zum neu gestarteten Feedback-Netzwerk – die dort genannten Twitter-Accounts sind aber eben genausowenig verlinkt wie das VideoCamp). Ich gehe ohnehin immer erst mal davon aus, dass hier eher Unachtsamkeit als z.B. so etwas wie Absicht vorliegt.

Ich habe aber eben den subjektiven Eindruck einer wachsenden Linkmüdigkeit – gerade bei Blogs und Blog-ähnlichen Texten. Zusammen mit der nie stark ausgeprägten Verlinkungsbereitschaft bei den Online-Ablegern diverser Verlagshäuser wäre das ein beunruhigender Trend.

Daher meine Frage an Euch (und ich freue mich ja immer über Kommentare, diesmal bin ich aber besonders neugierig!): Sind das Einzelfälle? Oder habt ihr ähnliche Beispiele und vor allem ähnliche Eindrücke?

Feedburner lernt deutsch

von Stefan Evertz am 18.05.07 um 8:36 Uhr | 11 Antworten

Als ich über Feedburner (www.feedburner.com), das interessante Statistik-Tool für RSS-Feeds (und mittlerweile auch für Blog-Seiten), hörte, dass man dort noch in dieser Woche auch eine deutschsprachige Variante starten wolle, habe ich das doch nicht so ganz glauben wollen. Wenn der Tag lang ist, wird ja gerne mal viel erzählt.

Aber irgendwann in den letzten 24 Stunden kam nun zu den bereits verfügbaren Sprachen (Spanisch, Russisch und Portugiesisch) unter www.feedburner.com[2] auch die Möglichkeit hinzu, die „interne“ Oberfläche von Feedburner in Deutsch zu nutzen.

Feedburner lernt deutsch

Wie der Screenshot zeigt, trägt die deutsche Übersetzung durchaus zu Recht den Zusatz „beta“, da einige Bereiche noch nicht übersetzt sind – und für die chinesische und japanische Variante (wenn ich die Schriftzeichen richtig erkenne) dürfte dies wohl auch gelten. Gerade im Kernbereich „Feedstats“ (der Erfassung der Feednutzung) habe ich auf Anhieb keinen einzigen deutschen Wortfetzen gefunden. Aber die ersten Schritte sind schon mal vielversprechend.

Sofern nun der Beta-Status nicht zum Dauerzustand wird und mittelbar z.B. auch das E-Mail-Abonnement in Deutsch möglich sein sollte (siehe auch „Feedburner Email: Neue Funktionen„), dürfte Feedburner zunehmend auch für einen Nutzerkreis in Frage kommen, der nicht so im englischen Sprachkreis „daheim“ ist. Man darf also gespannt sein 😉

Was ist da im Blogcensus-Kochtopf?

von Stefan Evertz am 01.05.07 um 23:55 Uhr | 3 Antworten

Ich muss gestehen: Ich bin neugierig. Neugierig, was wohl herauskommen wird, wenn sich die beiden wichtigsten Blogzähler der deutschen Blogosphäre zusammen an den Herd stellen. Denn genau dies haben sie offenbar getan, wie ein Blick auf die (ansonsten noch leere) Seite unter www.blogcensus.de verrät:

Ein Projekt von Dirk Olbertz (Blogscout.de) und Jens Schröder (deutsche blogcharts).

Scheinbar war der gemeinsame Workshop bei der re:publica vor zwei Wochen in Berlin (siehe auch programm.re-publica.de) nicht nur interessant (wenn man so die Berichte unter www.plomlompom.de und blog.oliver-gassner.de liest), sondern auch produktiv 😉

Es darf nun geraten werden, ob hier „nur“ die Daten der beiden zusammengeführt werden (Technorati-Daten von Jens, blogscout-Daten von Dirk) – oder ob da ein neuer nationaler „Blograng“ ermittelt wird. Auf die Formel wäre ich dann aber noch neugieriger als auf die Formel der blogscout-Topliste (siehe auch „Der BlogRang von Blogscout„) 🙄

Hoffentlich müssen wir jetzt nicht mehr allzu lange auf eine erste Kostprobe warten…

(via blog.the-exit.net)

Surfen im öffentlichen Dienst: Milliardenfache Verschwendung?

von Stefan Evertz am 14.04.07 um 15:38 Uhr | 6 Antworten

Während unter www.heise.de[1] noch „Rechnungshof kritisiert private Internetnutzung in Berliner Verwaltung“ getitelt wurde, erregte der Titel bei www.spiegel.de wesentlich stärker mein Gemüt Interesse: „Private Surftouren für 50 Millionen Euro“

Und es ist in der Tat häßlich, aber nicht überraschend, was da laut taz der Landesrechnungshof Berlin festgestellt hat (siehe auch www.taz.de):

Insgesamt verfügen die Verwaltungen Berlins über schätzungsweise rund 60.000 bis 70.000 Computer mit Internetanschluss. Durch die missbräuchliche Verwendung von Arbeitszeit und Internetnutzung der Staatsdiener entstehen dem Land jährlich Kosten im Bereich von „deutlich über 50 Millionen Euro“, so der Bericht.

Der Betrag an sich ist schon „beeindruckend“. Wirklich erschreckend wird es aber, wenn man diese Werte auf die gesamte Bundesrepublik hochrechnet, was ich im folgenden in zwei Varianten versuchen möchte:

Variante A
Basis: Werte des Statistischen Bundesamtes für 2005, siehe auch www.statistik-portal.de):

Beschäftigte Berlin („Berlin“): 140.200
Beschäftigte öffentlicher Dienst („BRD“): 4.599.000
Berechnung: BRD / Berlin x 50 Millionen = 1.640.156.919 Euro – oder kurz gesagt: 1,6 Milliarden Euro!

Variante B
Laut www.statistik-portal.de[2] entstanden im Jahr 2005 dem Land Berlin 6,642 Mrd. Euro Personalkosten. Umgerechnet auf die 140.000 Beschäftigten (und ca. 1.600 Arbeitsstunden pro Jahr) kostet die einzelne Stunde knapp 30 Euro. Wenn man nun die laut einem Urteil des Landesarbeitsgerichts Köln (siehe auch „Private Internet-Nutzung am Arbeitsplatz„) „als nicht übermäßig einzustufende“ Surfzeit von 100 Stunden pro Jahr ansetzt, entspricht dies knapp 3.000 Euro „Surfkosten“ pro Person. Bei 70.000 Computern würde dies auf jährliche Surfkosten von bis zu 200 Millionen Euro nur für das Land Berlin bzw. mehr als 6 Milliarden Euro für alle Beschäftigten im öffentlichen Dienst hinauslaufen.

Internet-Nutzung / Tag
Schauen wir uns nun noch kurz die tägliche Surfzeit an, die sich aus beiden Varianten ergeben würde. Wenn man den vom Landesrechnungshof genannten Schaden auf die Zahl der Computer bezieht, betragen die jeweiligen Kosten 713 Euro jährlich; bei einem durchschnittlichen Stundensatz von 29,60 Euro entspricht dies 24 Surfstunden pro Jahr. Die Zeit für die private Internetnutzung beträgt daher bei Variante A 7 Minuten pro Arbeitstag (bei 200 Tagen pro Jahr).

In Variante B wären es etwa 30 Minuten pro Arbeitstag (100 Stunden auf 200 Arbeitstage). Nicht nur an Arbeitsplätzen „mit Publikumsverkehr“ dürfte es allerdings schwer werden, eine halbe Stunde mit (privatem) Surfen zu verbringen – und die im Urteil genannten Werte sind sicherlich als Maximal- und nicht als Durchschnittswerte zu sehen. Die 7 Minuten (auf Basis der Rechnungshofs-Werte) scheinen mir allerdings sehr plausibel und auch realisierbar zu sein.

Erwähnenswert ist dann noch der Versuch des Berliner Innensenators Ehrhart Körting, die Höhe des „Schadens“ herunterzuspielen (siehe www.heise.de[2]):

Für abwegig halte er auch, aus der vermeintlich überwiegend privaten Nutzung des Internets einen Schaden von 50 Millionen Euro für das Land zu konstruieren, sagte Körting. Dieser geschätzte Schaden beruhe auf „tiefstem Gewerkschaftsdenken“, wer privat im Internet unterwegs ist, arbeite nicht und verschwende öffentliches Geld. „Nein, es kommt nicht nur auf die Zeit an, es kommt auf die Leistung an“, betonte der Innensenator. Es gebe eine Dienstvereinbarung für die öffentliche Verwaltung, das Internet nur in Ausnahmefällen privat zu nutzen. „Doch es ist weltfremd, die private Nutzung ganz verbieten zu wollen, wenn die Mitarbeiter ihren Job top erledigen.“

Es ist sicherlich erfreulich, dass sich der Innensenator vor seine Mitarbeiter stellt. Das Argument hinkt allerdings ein wenig: Auch wenn die Mitarbeiter die geforderte Leistung erbringen, kann etwas mit Stellenzuschnitten und Arbeitsplatzbeschreibungen nicht stimmen, wenn noch Zeit für private Surftouren verfügbar ist – egal ob nun 7 oder 30 Minuten pro Tag. Es würde mich nicht wundern, wenn dieses Argument als Bumerang den Kopf des Innensenators kostet trifft.

Fazit
Man kann sich insgesamt durchaus über die Belastbarkeit der genannten und berechneten Zahlen streiten. Gerade die Werte der Variante B dürften angesichts des wachsenden Leistungsdrucks auch im öffentlichen Dienst nur schwer zu erreichen sein. Und selbst die vom Landesrechnungshof ermittelten Werte basieren auf stichprobenartiger Erhebung der aufgerufenen Seiten, ohne die zeitliche Dimension zu berücksichtigen.

Andererseits befürchte ich, dass der Umfang der privaten Internet-Nutzung am Arbeitsplatz mit 7 Minuten pro Tag bestenfalls einen Minimalwert darstellt und wohl eher als Spitze des Eisbergs anzusehen ist…

Ich glaube übrigens nicht, dass es hier einen erwähnenswerten Unterschied zwischen öffentlichen oder privaten Arbeitgebern gibt. Obwohl, einen kleinen Unterschied gibt es dann doch: Die Privatunternehmen bzw. deren Beschäftigten verschwenden nicht auf diese Weise mindestens 1 Milliarde „unserer“ Steuergelder pro Jahr!

Insofern ist es ganz sicher nicht damit getan, nur auf die Berliner Senatsverwaltung zu blicken – ich sehe leider keinen Grund, warum das Problem nicht genauso bei allen anderen öffentlichen Verwaltungen auftreten sollte. Es wundert mich daher schon, warum noch niemand obige Berechnungen angestellt hat. Oder liege ich mit meinen Berechnungen und Überlegungen so sehr falsch? Irgendwie hoffe ich das jedenfalls… 👿

Der BlogRang von Blogscout

von Stefan Evertz am 10.03.07 um 0:03 Uhr | 4 Antworten

Ich hatte ja bereits unter „Blogscout-Sudoku“ über die neu berechnete Top-Liste des Zählers von Dirk Olbertz geschrieben, um mich dann unter „Blogscout: Ranking by Obscurity“ über die Entscheidung von Dirk zu ärgern, die Formel (doch) nicht zu veröffentlichen.

Erfreulicherweise hat sich Dirk nun doch anders besonnen – und die Formel für den BlogRang veröffentlicht (siehe auch blog.blogscout.de):

Die Punkte werden nun wie folgt errechnet: bei jedem Blog wird die Anzahl der In-Blogs genommen und als Punkte auf alle Out-Blogs des Blogs addiert. Wenn mein Blog also 10 In-Blogs hat und ich 5 Out-Blogs habe, bekommt jedes der 5 Out-Blogs 10 Punkte von mir. Betrachtet werden dabei immer die letzten 7 Tage.

Somit ist auch klar, wie das System manipuliert werden kann: möglichst viel in anderen Blogs kommentieren und anschließend auf den Link zum eigenen Blog klicken…

Anders formuliert: Wenn 10 Blogs auf Blog A verlinken (im Beitrag oder per Kommentar) und diese Links angeklickt werden, hat Blog A einen „In-Blog-Wert“ von 10, den es an alle Blogs „vererbt“, die in Blog A verlinkt und deren Links angeklickt wurden. All das gilt natürlich nur für die schätzungsweise 2.400 Blogs, die Blogscout als Zähler nutzen.

Ein erster kleiner Schwachpunkt wäre also ausgemacht: Die Verlinkung aus Foren und anderen Websites oder eben aus Blogs, die nicht durch Blogscout erfasst werden, fällt aus der Berechnung heraus. Bei der ersten Gruppe kann man den gewünschten Bezug zur „Blogosphäre“ wohl kaum vermuten. Und die Nicht-Blogscout-Benutzer kriegen wir auch noch 👿

Ansonsten wäre noch ein weiteres, eher theoretisches Problem zu nennen, das allerdings nicht nur für Blogscout gilt bzw. gelten könnte: Die (angeklickten) Links, die direkt mit der vielgenutzten Blog-Software „WordPress“ zusammenhängen (Standard-Blogroll der WP-DE-Edition, die meisten Themes und einzelne Plugins, die externe Links enthalten; siehe auch www.popkulturjunkie.de).

Zur Zeit scheint dieses Phänomen allerdings noch nicht aufgetreten zu sein; ob dies daran liegt, dass die betreffenden Blogs Blogscout nicht einsetzen oder einfach die entsprechenden Links nicht angeklickt wurden, kann ich nicht beurteilen.

Ein dritter diskussionswürdiger Aspekt betrifft die „Anbieter“ von Erweiterungen für Blog-Software, vor allem die WordPress-Plugins. Mein Video- und MP3-Plugin „Flash Cortex“ zum Beispiel wird laut www.technorati.com aktuell von 34 Blogs verlinkt. Täglich gehen auf die entsprechende Seite etwa 30-40 Besucher (2-3 % aller täglichen Besucher). Auch wenn (bei mir) ein Großteil dieser Besucher über Suchmaschinen kommen (und somit nicht in den BlogRang einfließen würden), stellt sich – vor allem bei anderen vielfrequentierten Plugin-Seiten – die Frage, ob solche Links „vollwertige“ Links sind und in den „In-Blog-Wert“ einfließen sollten? Ich würde zwar meinen, dass auch diese Form der Vernetzung eine Referenz an die (programmierenden) Bemühungen der jeweiligen Macher darstellt. Aber da kann man sicher auch anderer Meinung sein.

Fazit:
Nachdem nun die Formel veröffentlicht ist und in meinen Augen eine sinnvolle Bündelung der erhobenen Besucherzahlen darstellt, hat die so generierte Top-Liste von Blogscout gute Chancen, den BlogRang eines Blogs realistisch abzubilden – sofern Blogscout künftig eine weitergehende bzw. ausreichende Verbreitung als „Zähler“ findet und Dirks Server mitspielen ;). Ich bin jedenfalls zuversichtlich, dass die vorgenannten „Haken“ das Gesamtbild nur marginal verfälschen können. Genaueres werden aber wohl erst die nächsten Wochen und Monate zeigen… 🙄

Blogscout: Ranking by Obscurity

von Stefan Evertz am 03.03.07 um 17:34 Uhr | 3 Antworten

Vor einigen Wochen hatte ich ja schon kurz über die neue Blogscout-„Topliste“ berichtet, die auf einer „neuen“ und bislang nicht veröffentlichten Formel basierte (siehe auch „Blogscout-Sudoku„).

Dirk Olbertz, der „Macher“ des Blogscout-Dienstes, ist leider kurz danach zurückgerudert (siehe auch blog.blogscout.de):

Ich hab ein wirklich schlechtes Gewissen, weil ich bei der ersten Veröffentlichung der neuen Blog-Topliste versprochen hatte, den Algorithmus nachzureichen.

Inzwischen habe ich ihn ein paar Leuten erklärt, die allesamt positiv auf das Ergebnis und den Weg dahin reagiert haben. Gleichzeitig haben sie aber auch sehr schnell erkannt, wie er manipuliert werden kann. Und da Blogs schon zu sehr unter Kommentar- und Trackback-Spam zu leiden haben, möchte ich nicht noch eine neue Form des Spams hinzufügen. […]

Im Gegensatz zur momentanen Topliste (welche nach der Umstellung in Form einer Top-Reichenweite-Liste weiter bestehen wird), legt die neue Topliste dabei aber mehr Wert darauf, die Blogs weiter oben zu führen, die tatsächlich auch als Blogs in der Blogosphäre wahrgenommen werden.

Auf Anhieb fällt mir da nur eins ein: Schade, Dirk!

Denn so sehr ich Dirks Leistung rund um diesen Dienst respektiere und bewundere, finde ich diese Entscheidung sehr bedauerlich. Ich würde gerne glauben, dass der Algorithmus diejenigen Blogs bevorzugt, die tatsächlich auch als Blogs wahrgenommen werden. Ich kenne aber auch den Spruch „Glaube nur einer Statistik, die du auch selber gefälscht hast“. Und deshalb ist eine solche Topliste ohne eine transparente Formel ohne jeden Wert, denn ich kann die einzelnen Positionen nicht „überprüfen“.

Über den Wert und die Aussagekraft von „Charts“ lässt sich grundsätzlich lang und ausdauern streiten. Seien es die – auf einer vor allem in den USA eingesetzten Toolbar basierenden – Traffic-Werte von Alexa, oder die gerne auch Blogrolls berücksichtigenden Link-Zahlen bei Technorati – allen gemeinsam ist das Problem, dass man schon den Ausgangszahlen mit größter Vorsicht begegnen sollte.

Sobald man aber mit solchen Zahlen nach einer geheimen Formel „weiterrechnet“, ist jedwede Glaubwürdigkeit meines Erachtens endgültig verspielt. Angesichts der bisher ausgesprochen vielversprechenden Bestrebungen von Dirk, mit Blogscout einen ernstzunehmenden „Wegweiser durch die Blogosphäre“ zu etablieren, stellt diese Entscheidung definitiv einen Rückschritt dar.

Ich bezweifle jedenfalls, dass die „Nicht-Veröffentlichung“ der Formel auf Dauer den gewünschten Schutzeffekt gegen Spam haben wird, der ja scheinbar den Hauptgrund für die Verschwiegenheit darstellt. Und das dahinterstehende Verständnis von „Security by Obscurity“ (siehe auch de.wikipedia.org) hätte ich bei Dirk wohl auch nicht erwartet.

Natürlich hätte mich die Formel interessiert. Aber ich werde es wohl noch gerade schaffen, ohne diese Information durchs Leben zu gehen. Und ich werde auch weiterhin den Dienst nutzen, nicht nur wegen der Auswertungen, sondern weil ich die Idee hinter Blogscout gut finde und bislang nichts vergleichbares im Netz entdeckt habe (und z.B. Seitwert in Sachen Transparenz noch diffuser ist , siehe auch Auswertung für dieses Blog unter www.seitwert.de). Aber der Einsatz einer „obskuren Formel“ ist ein erster Schritt zur Neuorientierung 🙁

Kleines Jubiläum

von Stefan Evertz am 25.02.07 um 22:31 Uhr | 1 Antwort

Da musste ich doch etwas schmunzeln, als ich heute abend (so gegen 19:13 Uhr) in der laufenden Auswertung meines Besucherzählers Sitemeter stöberte:

Screenshot: Der 333.333 Besucher

Der Besucher Nr. 333.333 (seit dem 18.11.05) kam über Google(.at) und suchte nach „youtube video download“. Ich hoffe nun, dass er unter „Videos von Google und YouTube speichern“ auch ein passendes Jubiläums-Geschenk gefunden hat 😉

Und mir bleibt eigentlich nur noch ein leicht verhustetes „Dankeschön!“ an euch alle, die übrigen 333.332 Besucher und Leser.

Ach, telefonieren kann man damit auch?

von Stefan Evertz am 19.02.07 um 0:55 Uhr | 8 Antworten

Gerade stolpere ich bei über eine interessante Studie mit etwa 15.000 Teilnehmern aus 37 Ländern zum Thema „Mobilfunk“, deren Ergebnisse unter www.spiegel.de u.a. so zusammengefasst werden:

Die Ergebnisse zeigen, dass sowohl für die Durchschnittskunden mit niedrigen Ansprüchen, als auch für die experimentierfreudigen „Early Adopters“ Mobiltelefone eine regelmäßige Frustrationsquelle darstellen.

Der nicht näher spezifizierte Anteil der Durchschnittsnutzer leidet vor allem an „Funktions-Ermüdung“: Ein Großteil aller Handy-Besitzer will eben einfach nur Telefonieren, SMS versenden und die Alarmfunktion nutzen, aber darüber hinaus möglichst nicht mit Kameras, MP3-Playern, Video-Telefonie oder opulenten Organisern belästigt werden. Aber auch die Nutzer, die prinzipiell daran interessiert sind, mit ihrem Handy mehr anzustellen, als zu Telefonieren, werden durch kryptische Menuführungen oft davon abgehalten.

Als große Überraschung präsentiert die Studie unterdessen, dass Nutzer aus Entwicklungs- und Schwellenländern alle gebotenen Funktionen der High-Tech-Handys auch wirklich verwenden.

Zumindest der letzte Punkt überrascht mich nicht. Zumindest in Ägypten hatte ich vielfach Gelegenheit, die Ägypter im souveränen Umgang mit diesen – fast immer zur neuesten Generation zählenden – Geräten live zu erleben. Von den gelegentlichen mitleidigen Blicken auf die „unmodernen“ Handies der Touristen will ich da gar nicht erst reden 😉

Und dem herauszulesenden Ärger über die zunehmende „Featuritis“ moderner Mobiltelefone kann ich mich ebenso anschließen wie die beschriebene „Funktions-Ermüdung“ plausibel klingt.

Ein Blick auf die ursprünglichen Quellen lässt mich zwar kurz grübeln, woher der Autor die Wünsche des „Großteils der Handy-Besitzer“ kennt. In den unter www.fameforusers.org als PDF-Datei abrufbaren „Key observation highlights“ heißt es lediglich:

The industry’s preoccupation with one-upmanship on features and functions does little to improve the elegance and appeal of products. The number one problem voiced by users in every region was “too many functions I did not use.”

This was compounded by other reported problems including user manuals not being very good, devices being hard to configure or customize, and simple product requirements, like volume control, being deficit.

Aber recht hat der Autor in jedem Fall – finde ich 👿

Blogscout-Sudoku

von Stefan Evertz am 19.02.07 um 0:24 Uhr | 4 Antworten

Bereits im Dezember hatte Dirk Olbertz damit begonnen, die durch seinen Blog-Besucherzähler (counter.blogscout.de) erhobenen Besucherbewegungen auf der Spielwiese (spielwiese.blogscout.de) transparent zu machen (siehe auch blog.blogscout.de):

Für jedes Blog wird die Anzahl der Clicks, die von einem anderen Blog auf dieses Blog gemacht wurden, die Anzahl der unterschiedlichen Links, die dafür genutzt wurden und die Anzahl der unterschiedlichen Blogs, von denen die Clicks kamen, angezeigt. Das gleiche gilt für die andere Richtung, also wieviele Clicks, zu welchen anderen Blogs gingen. Durch Klick auf das [ + ] vor einer Zeile, werden die Informationen über die einzelnen In- und Out-Blogs nachgeladen, zusammen mit der Information, wieviele Clicks über diese Blogs reinkamen oder rausgingen. Die Gesamtliste der Blogs lässt sich durch Click auf die jeweilige Spalte sortieren. Es wird dabei im Moment immer nur absteigend sortiert (größte Zahlen oben).

Warum ich diese Liste so spannend finde? Weil sich dadurch vielleicht eine neue Möglichkeit gibt, Blogs einzuschätzen und sie zu bewerten. Nicht mehr alleine die Anzahl der Links, die von einem Blog ausgehen, oder die bei einem Blog ankommen, ist relevant, sondern doch auch, wie oft so ein Link-Angebot auch genutzt wird.

Insgesamt war es schon damals eine durchaus interessante Spielerei, auch wenn sich aus diesen Zahlen meines Wissens bisher kein neuer „PageRank“-Algorithmus ergeben hat. Als neuesten Wurf lässt Dirk nun täglich eine Top-Liste errechnen (siehe auch blog.blogscout.de[2]):

Unter spielwiese.blogscout.de[2] wird ab sofort eine Top-Liste von Blogs geführt, die nicht mehr auf der Reichweite eines Blogs basiert. Statt dessen werden die Zahlen der Spielwiese verwendet.

Auf welche Art und Weise die Punkte berechnet werden, will ich erst in den nächsten Tagen veröffentlichen, da ich eine eventuell aufkommende Diskussion erst einmal auf die Liste selbst fokussieren möchte.

Ich muss gestehen, dass ich auf die Formel von Dirks Liste wirklich gespannt bin – eine Diskussion der Ergebnisse ohne die Berechnungsdetails halte ich dagegen für schwierig. Ich wundere mich zwar etwas, dass mein kleines Blog aktuell auf Platz 63 liegt. Aber das wird sich wohl nur durch die Formel klären lassen. Und deshalb werde ich wohl warten müssen, bis Dirk die Formel veröffentlicht – meine Versuche des „Reverse Calculating“ waren jedenfalls bisher erfolglos und erinnerten mich an meine Bemühungen bei schwereren Sudoku-Rätseln 🙁

Auf den ersten Blick sehen die Ergebnisse der mittlerweile auf den letzten 7 Tagen basierenden Liste jedenfalls vielversprechend aus. Das allgewaltige Bildblog liegt nur auf Platz 4 und nicht wie sonst – z.B. in den auf Technorati basierenden Deutschen Blogcharts (www.deutscheblogcharts.de) – auf Platz 1. Ich tippe mal, dass bei Dirks Berechnungen die ausgehenden Links – anders als bei den meisten anderen Zählern bzw. Ranglisten – einen höheren Stellenwert haben – oder wird die gesamte Vernetzung (ein- und ausgehend) berücksichtigt?

Sofern sich jedenfalls die Formel als „belastbar“ herausstellt, könnte somit die erste wirklich ernstzunehmende „BlogRang„-Liste entstehen – wenn da nicht die Tatsache wäre, dass die Zahlen nur auf die etwa 2.100 Blogs anwendbar wären, die Dirks Counter benutzen. Aber was ist schon perfekt 😉

Feedburner: Traffic-Daten ausblenden

von Stefan Evertz am 13.01.07 um 17:30 Uhr | 2 Antworten

Vor kurzem habe ich berichtet, dass man offensichtlich die Leserzahlen eines RSS-Feeds auslesen kann, sofern dieser über Feedburner läuft (siehe auch „Feedburner: Transparente Traffic-Daten„). Es machte dabei keinen Unterschied, ob die sog. „Awareness-API“ (siehe auch www.feedburner.com; englisch) aktiviert war oder nicht.

So ganz konnte ich aber von diesem Thema nicht lassen, und nach einem netten mehrtägigen Mailwechsel mit Feedburner (Thanks, Eric!) konnten wir – nach mehreren Theorien, die schnell wieder verworfen wurden – eine Lösung für das Problem finden:

Wer nicht möchte, dass die Leserzahlen seines RSS-Feeds durch dritte ausgelesen werden können, muss sowohl die Awareness-API als auch die sog. „FeedCount“-Funktion deaktivieren. Es dauert dann eine gewisse Zeit („gefühlte“ 15-30 Minuten), bis dann die API keine Daten mehr liefert.

So hat es zumindest bei mir mehrfach geklappt, testweise den Zugriff auf meine Traffic-Daten zu sperren, auch wenn ich ja grundsätzlich diese Daten weiter „öffentlich“ lassen will.

Alles in allem ist es zwar schade, dass dieser Zusammenhang aus den – ansonsten eigentlich recht eindeutigen – Texten bei Feedburner nicht deutlich wird. Aber dafür war es immerhin möglich, das Problem im Dialog mit einem Mitglied des Feedburner-Teams zu identifizieren bzw. zu lösen. Davon könnte sich Technorati mal eine dicke Scheibe abschneiden 👿