Archive for the 'Google' Category

Ein Recht auf Existenz? Der Fall BMW

Monday, February 6th, 2006

Ein wenig Schadenfreude schwingt hier und dort schon mit, wenn die Blogosphäre über BMWs Rauswurf aus dem Google-Index berichtet. Die “Manipulaton” der eigenen Website, um Google besser zugefallen, wird dabei immer wieder als Old-Economy vs. New Economy gedeutet. Dabei dürfte Google durchaus als Gegner auf Augenhöhe gelten und sollte langsam in den Kommentaren sein Garagen-Image verlieren.

Spannend bei diesem Beispiel ist die Frage: Besitzen Unternehmen, Personen oder Themen ein digitales Existenzrecht? Denn wer bei Google nicht erscheint, existiert nicht. Das hat auch schon der französische Staatspräsident Jaques Chirac begriffen:

Heute entsteht eine neue Geographie des Wissens und der Kulturen. Was morgen nicht online verfügbar ist, läuft Gefahr, unsichtbar zu werden”, so Chirac in seiner Neujahransprache.

Gibt es ein einklagbares Recht, bei Monopolführer Google gelistet werden zu müssen?

Natürlich glaubt niemand daran, dass dieses “Aussperren” von langer Dauer sein wird. Doch was ist mit den vielen kleinen Unternehmen, die sich keine teure Optimierung leisten können? Was mit denen, die auf Platz 100 landen? Machen die schlechtere Arbeit?

Die PR-Inszenierung von Google zeigt dagegen, wie relevant es heutzutage ist, bei Google gelistet zu sein. Warum hat Google eigentlich nicht einfach die BMW-Site auf Platz 1.000 gesetzt. Das wäre der gleiche Effekt, aber weniger Spektakel. In Sachen Guerillia-Marketing hat Google damit wieder mal gepunktet.

Blackbox Suchmaschine (VII)

Wednesday, November 2nd, 2005

Wolfgang Sander-Beuermann vom SuMa e.V. beschäftigt sich mit der Entwicklung von Suchmaschinen und engagiert sich für einen freien Zugang zu Wissen im Netz. Dies ist der zweite Teil eines Interviews für das Buch “Die Google-Gesellschaft”.

Wie können Alternativen zu Wissensmonopolen aussehen?
Alternativen müssen möglichst unabhängig und frei, und allein durch ihre Organisation und Struktur prinzipiell kaum monopolisierbar sein. Dazu sehe ich drei Möglichkeiten:

1. Die öffentlich-rechtliche Suchmaschine: Unabhängigkeit könnte einerseits der Staat durch eine öffentlich-rechtliche Suchmaschine etablieren, genauso wie er das seit langen Jahren in den konventionellen Medien tut – es ist eigentlich nahe liegend, dies für die Neuen Medien zu übernehmen. Wesentlich ist dabei jedoch, dass dann nicht »der Staat selbst« wiederum Monopolist wird – also müsste die Unabhängigkeit einer öffentlich-rechtlichen Suchmaschine durch Gremien und Beiräte abgesichert werden, was etliche Folgeprobleme aufwirft.

2. Peer-to-Peer: Auf der anderen Seite eines Spektrums möglicher Alternativen steht das genaue Gegenteil: ein unstrukturiertes Gebilde aus lose kooperierenden kleinen Suchmaschinen, die sich zu einem großen Datenraum zusammenschließen. Technisch kann so eine Lösung durch eine Peer-to-Peer (P2P)-Software realisiert werden; hierzu gibt es auch bereits einen funktionierenden Ansatz, das YACY-Projekt von Michael Christen.

Der Vorteil einer solchen unstrukturiert verteilten Suchmaschinen-Infrastruktur ist seine inhärente Nicht-Monopolisierbarkeit: Niemand kann ein solches Gebilde in seiner Gesamtheit kontrollieren. Der Nachteil ist, dass diese strukturell in ihren Wegen nicht vorab definierten Datenflüsse nicht unbedingt effektiv, also meist zeitaufwändig sind – der Nutzer muss länger auf das Ergebnis warten. Die von Google gewohnten Antwortzeiten unter einer Sekunde sind illusorisch.

3. Kombinationen aus beiden Ansätzen. Sie stehen zwischen den beiden genannten Enden des Spektrums. Am sinnvollsten erscheint mir, ein Verbund aus Hunderten von kleinen Suchmaschinen (Mini-Suchern) teilt den zu erfassenden Datenraum unter sich auf; diese Absprache kann in der Anfangsphase tatsächlich durch verbale Kommunikation geschehen, sollte später aber automatisiert zwischen den beteiligten Rechnern ablaufen. Betreiber solcher Mini-Sucher können nun einerseits Privatpersonen oder Vereine sein, andererseits aber Organisationen des »öffentlich-rechtlichen Raumes«, wie Bibliotheken und Universitäten.

Letztere bieten Verlässlichkeit staatlicher Institutionen, sind aber in Grenzen durchaus unabhängig. Private Betreiber können ihrerseits auch Peer-to-Peer-Datenquellen einspeisen und so die weitere Unabhängigkeit sichern. Um diesen Verbund für den Nutzer zusammenzuführen, und einen einfachen Einstieg zu ermöglichen, können Meta-Sucher als zentrale Einstiegspunkte dienen. Dreh- und Angelpunkt ist die Organisation und das kooperative Zusammenwirken aller Teilnehmer: Jeder kann mitmachen, muss sich aber in Schnittstellen einpassen und kann bei Missbrauch ausgeschlossen werden.

Was ist das Besondere an dem Projekt Nutch?
Nutch ist eines von mehreren Projekten, die freie Suchmaschinensoftware auf Open-Source-Basis entwickeln – neben »Mngosearch« und »Aspseek«, die für bis zu ein paar Millionen Webseiten geeignet sind. In den USA wurde im Umfeld von www.archive.org »Heritrix« entwickelt, mit bereits deutlich höheren Ambitionen. Allein Nutch aber hat das hohe Ziel, eine Alternative zu Google zu werden und viele Milliarden Webseiten zu erfassen. Bis dahin ist es noch ein weiter Weg. Ich halte es für unrealistisch, diesen Weg gradlinig verwirklichen zu können: Allein die zu bewegenden Datenströme verlangen immense Ressourcen. Aber Nutch könnte in einem »Konzert von vielen die erste Geige spielen«.

Wo sehen Sie die digitale Informationskultur im Jahre 2010?
Wenn ich einen pessimistischen Tag habe, dann sehe ich das, was an Informationskultur noch übrig bleibt, in der Hand von ein oder zwei globalen Konzernen, die damit unser Denken und unser Weltbild beliebig formen können. Meist aber sehe ich die Welt optimistisch und als eine kooperative Wissensinfrastruktur, an der jeder teilnehmen kann – als Konsument, Lieferant und Mitgestalter. Aber Optimismus allein genügt nicht, um Visionen zu realisieren. Daher habe ich im Juli 2004 den »Gemeinnützigen Verein zur Förderung der Suchmaschinentechnologie und des freien Wissenszugangs« initiiert, kurz SuMa-eV .

Dieses Interview ist dem Beitrag Blackbox Suchmaschinen entnommen, der in dem Buch Die Google-Gesellschaft erschienen ist. Das Interview wurde zum Jahreswechsel 2005 geführt. Die ersten Teile (I, II, III) dieser Serie wurden für das Weblog aktualisiert. Ein Interview mit Marcel Machill ist hier zu lesen: IV, V. Der erste Teil des Interviews ist hier zu lesen.

Google demnächst

Tuesday, November 1st, 2005

Randy Siegels Version von Google 2084 (Copyright NYT)
Ob nun Generation G oder Google Society: Strittig unter den recht zynischen Beiträgen zur Zukunft Googles, der Medien und der Welt ist lediglich das Datum, an dem Google die Weltherrschaft übernimmt.

Anfang Oktober hat Googles CEO Eric Schmidt die offizielle Version verkündet. Danach werde es noch gut 300 Jahre dauern, bis Googles Mission, die Informationen der Welt zu organisieren, erreicht sein wird. Wie dies aussehen kann, hat das Satire-Magazin The Onion schon mit Google Purge auf die Schippe genommen. Wer da noch lachen kann, schluckt spätestens dann, wenn er Schmidts Zitat im Manager Magazin entdeckt (wiedergefunden bei Yahoo!):

Sämtliche Informationen auf dem Planeten sollen googelbar gemacht werden.

Also doch Die Weltherrschaft? Alles wird googlebar gemacht und der Rest vernichtet?

Einen Blick auf Google 2084, also nach nicht einmal einem Drittel des noch ausstehenden Weges, hat Randy Siegel in der New York Times vom 10. Oktober geworfen (gefunden bei if:book).

Bisher noch nicht eingetreten sind die Visionen, die The Onion für 2005 vorhersagte:

- Launch Google Good Man, as good man have historically been hard to find
- Google Apartment, which will let users search for shoes, wallets, and keys
- Patent the idea of looking for something

und vieles mehr…

Was sagt The Onion doch so schön zu Googles Zukunft?

Until yesterday’s news conference, the company’s unofficial slogan had been “Don’t be evil.” The slogan has now been expanded to “Don’t be evil, unless it’s necessary for the greater good.”

Blackbox Suchmaschine (VI)

Monday, October 31st, 2005

Wolfgang Sander-Beuermann vom SuMa e.V. beschäftigt sich mit der Entwicklung von Suchmaschinen und engagiert sich für einen freien Zugang zu Wissen im Netz. Dies ist der erste Teil eines Interviews für das Buch “Die Google-Gesellschaft”.

Herr Sander-Beuermann, wie bewerten Sie die Stellung von Google im Internet? Ist der freie Zugang zu Wissen gefährdet?
Der freie Zugang zum digitalen Weltwissen ist durch jedes De-facto-Wissensmonopol gefährdet. Eine solche Situation ist vergleichbar derjenigen, bei der es in den Print-Medien nur noch eine einzige Zeitung oder nur noch eine Bibliothek auf der Welt gäbe. Dabei ist es gleichgültig, wie der De-facto-Monopolist gerade heißen mag. Derzeit ist es Google, aber die Situation würde durchaus nicht besser, wenn bspw. der Erzkonkurrent Microsoft diese Position übernähme.

Der Code of Conduct versucht, Suchmaschinen zur Eigeninitiative anzuregen. Für wie erfolgversprechend halten sie diesen Ansatz?
Dieser Ansatz geht in eine andere Richtung: Es geht dabei nicht um Monopole, sondern um eine freiwillige Selbstverpflichtung von Suchmaschinenbetreibern hinsichtlich der findbaren Inhalte; für Deutschland spielt das Jugendschutzgesetz bspw. eine wesentliche Rolle. So etwas ist bei der Globalität des Internet und der Regionalität der unterschiedlichen Rechtsnormen sicherlich noch schwieriger – der vorgeschlagene Code of Conduct der Bertelsmann Stiftung blieb erfolglos. Die FSM (Freiwilligen Selbstkontrolle Multimedia) versucht jetzt in dieser Frage zu praktikableren Lösungen zu kommen.

Oft werden die intransparenten Bewertungskriterien der Suchmaschinen kritisiert – allen voran »PageRanking« von Google, weil es auf Masse statt Klasse setzt. Welche Vor- und Nachteile sehen sie?
Das PageRank-Verfahren von Google war vor Jahren ein bahnbrechender Erfolg. Es ist im Prinzip auch heute noch nicht völlig verkehrt, selbst wenn es mittlerweile eine Art »Sport« von Suchmaschinen-Optimierern geworden ist, das Verfahren auszutricksen. Das Problem liegt woanders: Wenn es fast nur noch eine einzige Suchmaschine gibt, dann entscheidet allein deren Ranking-Verfahren über Sein oder Nicht-Sein im Web. Wenn es hingegen eine Vielfalt von Informationsanbietern gibt, dann gibt es auch eine Vielzahl an Ranking-Verfahren (die auch nicht alle gleichzeitig technisch austricksbar sind). Das Ziel muss also sein, hier wieder eine Vielfalt herzustellen.

Verglichen mit der großen Kritik an Google, gibt es in Deutschland kaum Gegenwind für den Marktführer. Traut sich niemand?
Ich denke, es ist eher so, dass die meisten Nutzer hier noch gar kein Problembewusstsein entwickelt haben: »Ich nehme immer Google, die sind doch gut«, so das häufige Credo. Dass sie vielleicht doch nicht so gut sind, zeigen dann erst Berichte wie »Google zugemüllt« (c’t, Heft 20, 2003) oder Pressemeldungen wie »Suchmaschinenbetreiber ist Komplize der Zensoren in Peking«. Wenn sich jemand tatsächlich nicht trauen sollte, gegen Google Initiative zu ergreifen, dann müsste er schon die »tiefe Einsicht verinnerlicht« haben, dass dann Google eventuell seine Existenz im WWW auslöschen könnte. Aber diese Einsicht ist noch so selten, dass dies kaum der Grund sein wird.

Dieses Interview ist dem Beitrag Blackbox Suchmaschinen entnommen, der in dem Buch Die Google-Gesellschaft erschienen ist. Das Interview wurde zum Jahreswechsel 2005 geführt. Die ersten Teile (I, II, III) dieser Serie wurden für das Weblog aktualisiert. Ein Interview mit Marcel Machill ist hier zu lesen: IV, V. Der zweite Teil des Interviews ist hier in den kommenden Tagen zu lesen.

Geldmaschine Google

Tuesday, October 25th, 2005

Google verblüfft die Börse, meldete vor wenigen Tagen der Tagesspiegel zu den neuen Quartalszahlen aus Mountain View. Anders als Spiegel Online, schafft es Henrik Mortsiefer aber die Zahlen einzuordnen. So relativiert sich der angeblich versiebenfachte Quartalsgewinn von 381 Mio. Dollar, wenn man weiß, dass Google letztes Jahr im Sommer 201 Mio. Dollar an Yahoo! wegen eines Patentstreites zahlen musste. 39 Prozent seines Umsatzes erwirtschaftet Google im Ausland. Einen Großteil davon dürfte auf Deutschland entfallen, ist es doch das zweitumsatzstärkste Google-Land.

Der Aktienkurs von Google liegt nun bei 300 Prozent seines Ausgabewertes. Das Unternehmen ist demnach knapp unter 100 Mrd. Dollar wert und ungefähr so teuer wie Daimler-Chrysler, BMW und VW zusammen.

Unklar ist weiterhin, was Google mit seinen Barmitteln in Höhe von 7,6 Milliarden Dollar plant. Gerüchten zufolge soll sich Google um den Kauf von AOL bemühen. Kooperationen mit der NASA und SUN beflügeln zudem die Phantasie. Auch die Hotspot-Ambitionen in San Francisco sind ein völlig neuer Bereich des Suchmaschinenbetreibers.

Blackbox Suchmaschine (IV)

Wednesday, October 19th, 2005

Prof. Dr. Marcel Machill von der Universität Leipzig hat im Rahmen eines Projekts für die Bertelsmann Stiftung an der Entwicklung eines »Code of Conduct« (CoC) (PDF-Datei) mitgewirkt. Der CoC legt den Betreibern von Suchmaschinen nahe, sich einer Selbstverpflichtung zu unterziehen. Im Rahmen des Buches “Die Google-Gesellschaft” hat Marcel Machill mir ein Interview gegeben, dass ich wegen der Länge in zwei Teilen veröffentliche.

Herr Machill, der Bundestags-Ausschuss »Neue Medien« bezeichnet die Situation am Suchmaschinenmarkt als unbefriedigend. Wie ernst ist es mit der Monopolstellung von Google?

Der Marktanteil von Google am deutschen Suchmaschinenmarkt liegt je nach Erhebungsmethode zwischen 69 und 83 Prozent. Der größte Mitbewerber Yahoo! erreicht in Deutschland gerade einmal knapp zweistellige Marktanteile. Insofern kann man bei Google durchaus von einem Monopol reden – allerdings mit Einschränkungen, denn niemand ist gezwungen, für eine Suche auf Google zurückzugreifen. Die Nutzer verzichten leider allzu oft darauf, Zweit- oder Drittquellen zu befragen. Alternativen gäbe es genug. Googles technologischer Vorsprung schmilzt aber zusammen und die anderen Suchmaschinen werden wieder aufholen. Dies erklärt die vielen Aktivitäten von Google abseits der Websuche; es geht um die Bindung von Nutzern an die Marke. Auf lange Sicht werden wir uns in Deutschland auf Verhältnisse ähnlich wie in den USA einstellen müssen, wo sich einige große Suchmaschinen den Markt teilen.

Welche Stolpersteine birgt der Umgang mit Suchmaschinen?

Zuerst einmal die Annahme, mit einer Suchmaschine könne man sich einen umfassenden Überblick verschaffen. Google hat mittlerweile über acht Milliarden Internetseiten in seinem Index, aber auch dies ist nur ein Bruchteil des gesamten Netzes. Eine annähernd brauchbare Übersicht über ein Thema erhält nur, wer mehrere Suchmaschinen parallel nutzt. Viele Informationen sind im Netz auch gar nicht auffindbar, sondern machen immer noch den Gang in Bibliotheken notwendig.

Den Nutzern fehlt das Wissen für den Umgang mit Suchmaschinen. Viele arbeiten nur mit wenigen, oft sehr allgemein gehaltenen Schlüsselwörtern. Das führt dazu, dass die Suchmaschine eine Masse von Suchergebnissen präsentiert, von denen der Großteil durch Werbung oder Spam nicht relevant ist. Wie man eine Suche sinnvoll eingrenzen kann, haben viele Menschen nicht gelernt. Hinzu kommt, dass sich in den Ergebnislisten Ergebnisse tummeln, die dort überhaupt nicht hingehören, z.B. Werbung oder Spam.

Wie setzt der von Ihnen erarbeitete Code of Conduct (CoC) hier an?

Die Nutzer brauchen vor allem Transparenz bei den Ergebnissen. Es muss klar sein, wie Suchergebnisse zu Stande kommen, etwa wie die Suchmaschine gewichtet und ob ein Link werbefinanziert ist oder aber aus der freien Websuche stammt. Auch ist der Aspekt des Rückkanals zur Suchmaschine von großer Bedeutung: Die Nutzer brauchen einfach Ansprechpartner, bspw. eine Hotline, wenn sie Probleme haben.
Des Weiteren müssen Bewertungsmechanismen für die Suchmaschinen selbst geschaffen werden. Wir hatten hier ein Gütesiegel und eine Freiwillige Selbstkontrolle Suchmaschinen (FSS) angeregt.

Erleichtern transparente Bewertungsverfahren bei Suchmaschinen den Spammern nicht die Arbeit?

Im Gegenteil – mehr Transparenz erschwert Spammern die Arbeit. Notorische Spammer verfügen auch heute schon über umfangreiches Wissen über die Funktionsweise von Suchmaschinen. Es gibt eine ganze Branche, die Search-Engine-Optimizer (SEO), die im Versuch-und-Irrtum-Verfahren die Funktionsweise der einzelnen Suchmaschinen bis ins Detail auskundschaften, um dann ihre Kunden gezielt in den Ergebnislisten zu pushen. Nun sind SEOs nicht automatisch Spammer, aber sie liefern den echten Spammern oftmals das notwendige Wissen.

Wenn nun aber jeder normale Nutzer durch mehr Transparenz weiß, wie die Suchalgorithmen funktionieren, so kann er seine eigene Internetseite entsprechend gestalten, dass sie auch gefunden wird. Gleichzeitig können die Suchmaschinen viel restriktiver gegen Spam vorgehen. Die Schaffung von Transparenz muss einhergehen mit klaren Regeln, wo Spam beginnt – und dann können sie die Spammer auch sanktionieren, sprich aus dem Index löschen. Diese zwei Seiten der Medaille stehen explizit im CoC.

Einige Suchmaschinen haben sich dem CoC schon verpflichtet. Mehr Transparenz ist aber nicht erkennbar. Wie beurteilen Sie die Umsetzung und Effizienz der CoC-Regeln?

Die Regeln des CoC bedürfen einer neutralen Kontrollinstanz, sprich einer Institution à la FSS. Bisher fehlt diese Instanz jedoch, weshalb die Ergebnisse noch nicht so sind, wie sie sein könnten. Es fehlen noch die Anreize, beispielsweise ein marktwirksames Gütesiegel, damit sich diese Regeln im hart umkämpften Markt stärker durchsetzen werden. Hier könnte die (deutsche) Medienpolitik einiges tun, wenn sie nur wollte.

Dieses Interview ist dem Beitrag Blackbox Suchmaschinen entnommen, der in dem Buch Die Google-Gesellschaft erschienen ist. Das Interview wurde zum Jahreswechsel 2005 geführt. Die ersten Teile (I, II, III) dieser Serie wurden für das Weblog aktualisiert.

Endlich: SpamGoogle

Wednesday, October 12th, 2005

Phillipp Lenssen (Google Blogoscoped) präsentiert SpamGoogle: Endlich eine Suchmaschine, bei der man garantiert nichts findet… außer Spam!

www.spamgoogle.com

If you’re also tired of web pages not trying to sell you something, endless explanatory stuff from university servers, or blogs without Google ads, this is for you. You can learn the latest about cheap viagra, poker parties, or download just the spyware you need. Don’t forget to turn on JavaScript in your browser for that little extra some of the pages offer.

Gefunden bei Suchmaschinen News (statt die abonnierten Feeds zu lesen).

Google.org: Don’t be evil

Wednesday, October 12th, 2005

Welcome to Google.org – the philanthropic arm of Google
Das Firmenmotto von Google - Don’t be evil - wird greifbarer: 1 Prozent seiner Gewinne und seines Eigenkapitals will der Suchmaschinenriese aus Mountain View zukünftig zur Verfügung stellen. Eine Stiftung mit 90 Millionen US-Dollar Stiftungskapital wird zukünftig unter google.org über ihre Arbeit und die Wohltaten Googles berichten. In den nächsten drei Jahren sollen insgesamt 175 Mio. US-Dollar für gemeinnützige Projekte ausgegeben werden.

Denn nicht nur mit der Google Foundation, sondern einer Reihe von Engagements starten Sergey Brin und Larry Page “the philanthropic arm of Google“:

We’ve contributed $5 million to support Acumen Fund, a non-profit venture fund that invests in market-based solutions to global poverty. (…)

We’re also working with TechnoServe to build small businesses that create jobs and promote economic growth in the developing world. (…)

In addition, we are working with Alix Zwane and Edward Miguel of UC Berkeley and Michael Kremer of Harvard University to support research in western Kenya to identify ways to prevent child deaths caused by poor water quality.

Google.org also includes projects we manage on our own (…). An example is the Google Grants program, which gives free advertising to selected nonprofits. To date, Google Grants has donated $33 million in advertising to more than 850 nonprofit organizations in 10 countries.

Current Google Grants participants include:
Make-a-Wish Foundation - grants the wishes of children with life-threatening medical conditions. More than 25 percent of their online donations are made as a result of their Google ads.

Doctors Without Borders - delivers emergency medical aid to people affected by armed conflict, epidemics, disasters, and exclusion from health care in nearly 70 countries. Google Grants has assisted them with recruiting experienced doctors and nurses for their field programs, which has helped them increase applications by 30 percent this year.

Grameen Foundation USA - uses microfinance and innovative technology to help the world’s poorest people escape poverty. Google Grants has helped them attract donors and broaden their newsletter subscriber base.

With Google.org, we’ll also support entities with strong social missions which use market-based solutions for sustainable economic development. One example is our recent donation of $2 million to the One Laptop Per Child program.

(Hervorhebungen durch mich, gefunden im Google-Blog.)

Nachtrag:
Die New York Times ordnet Googles Spendensegen ein wenig ein:

Even with the $1 billion commitment, Google.org will be dwarfed by other philanthropic efforts. Twenty foundations nationwide had more than $2 billion in assets through 2003, according to the latest statistic available from the Foundation Center, a group that tracks philanthropy. The list was topped by The Bill & Melinda Gates Foundation, which had $26.8 billion in assets. Microsoft Corp. Chairman Bill Gates, the world’s wealthiest man, bankrolled that foundation.

Good-bye Technorati?

Tuesday, September 20th, 2005

Hier, hier und dort ist ja schon kurz über Google Blog Search geschrieben worden. Zwar werden Blogs bereits über die Websuche von Google gefunden, doch die neue Suchfunktion kramt gezielt nach Weblogs in der Datenbank. Zudem erfasst Google Blog Search neue Einträge über die RSS-Feeds und kann die Datenbank deutlich schneller aktualisieren, als dies über eine standardmäßige Websuche mögliche wäre.

Wenig zu lesen war bisher über die Folgen dieses neuen Angebots, waren doch bisher Anbieter wie Technorati (mit 17,5 Mio. Blogs) oder Feedster auf dieses Gebiet spezialisiert. Die Vermutung liegt nahe, das Google nun Technorati & Co. microsofted. Ähnlich wie bei dem Software-Monopolisten aus Redmond ist befürchten, dass neue Angebote und Geschäftsfelder von Google deutlich bei konkurrierenden Anbietern aufräumen wird. Aus den Platzhirschen (so Spiegel Online) dürften durch den Frischling Google Blogsearch schnell graue Mäuschen werden.

Noch bietet Technorati mehr als eine reine Suche.

Technorati displays what’s important in the blogosphere — which bloggers are commanding attention, what ideas are rising in prominence, and the speed at which these conversations are taking place. Technorati makes it possible for you to find out what people on the Internet are saying about you, your company, your products, your competitors, your politics, or other areas of interest — all in real-time. All this activity is monitored and indexed within minutes of posting. Technorati provides a live view of the global conversation of the web.

Aber es ist wohl nur eine Frage der Zeit, bis auch Google mit Funktionen wie Google Blog News nachlegen wird. Noch am 4. September behauptete das Wall Street Journal über Technorati & Co.:

The race is on to become the Google of blogs.

Mit dem Beta-Start von Google Blogsearch nur wenige Tage später dürfte dieser Satz hinfällig sein. Und auch das Verhältnis von (altem) David zu (neuem) Goliath dürfte die Zukunft Google-alternativer Blogsuchen in kritischem Licht erscheinen lassen:

The new blog-search sites draw only a sliver of the visitors that Google, Yahoo and Microsoft’s MSN do. Most of them didn’t have enough traffic in July to register on the radar of Internet-tracking firm Nielsen/NetRatings. Technorati did, with 642,000 unique visitors. But its traffic still made up less than 1% of Google’s visitors that month.

Nachtrag

Hier ein paar Diskussionen in der Blogosphäre:

Google (Purge) ist alles!

Thursday, September 15th, 2005

Unlängst wurde hier und hier über die SatireGoogle Announces Plan To Destroy All Information It Can’t Index” des US-Magazins THE ONION berichtet. Demnach solle das neue Produkt Google Purge nach und nach alle von Google nicht indexierbaren Daten vernichten.

Hinter der Geschichte steckt aber mehr als nur ein netter Lacher, ein ernster Kern sozusagen. Schauen wir einmal in den Plot.

As a part of Purge’s first phase, executives will destroy all copyrighted materials that cannot be searched by Google.

A year ago, Google offered to scan every book on the planet for its Google Print project. Now, they are promising to burn the rest,” John Battelle wrote in his widely read “Searchblog.” “Thanks to Google Purge, you’ll never have to worry that your search has missed some obscure book, because that book will no longer exist. And the same goes for movies, art, and music.”

“We believe that Google Desktop Search is the best way to unlock the information hidden on your hard drive,” Schmidt said. “If you haven’t given it a try, now’s the time. In one week, the deleting begins.”

Ausgangspunkt dieser kleinen, feinen Story ist eine ernst gemeinte Aussage des Unternehmens aus Mountain View, dem so genannten Mission Statement: Das Ziel von Google besteht darin, die Informationen der Welt zu organisieren und allgemein nutzbar und zugänglich zu machen.

Was so flockig daher kommt, lässt jeden Wissenssoziologen unruhig schlafen. Denn: Die Informationen der Welt sind in ihrer Gesamtheit keine Ware, die sich ähnlich praktisch zu Pyramiden stapeln lässt wie Obstkonserven. Mit viel Leidenschaft, einer Menge guter Ideen und jeder Menge Venture Capital verbreitet Google seinen Charme und Info-Segen auf der ganzen Welt (denn mit weniger gibt sich Google ja nicht zufrieden). Ähnlich naiv versucht ein George W. Bush aus Washington, Demokratie zu organisieren.

Dennoch hat jede Satire auch ein Fünkchen Wahrheit. Googles faktisches Monopol, das in Deutschland und anderen westlichen Ländern (aber nicht in China) besteht, formt aus Informationsbedürfnissen Tatsachen: Was bei Google nicht steht, existiert eben nicht. Gleiches gilt längst für alle Suchergebnisse in den Trefferlisten jenseits des 25. Eintrags. Zahlreiche Studien (PDF) bestätigen dies.

Informationen, die zukünftig bei Google im Netz nicht stehen oder nicht auf Anhieb gefunden werden, werden für die Nutzer nicht existieren. Dies wird auch auf klassische Offline-Medien wie Bücher ausstrahlen. Warum also sollte sich Google die Arbeit machen, extra ein Programm dafür zu schreiben, das diese Infos vernichtet, wenn für uns bald Google alles ist? ;-)