Maexotic

It's a maexotic world ...

Facebook and DNS - not friends

Facebook failDNS is a core technology of the Internet since 1987, when P. Mockapetris published RFC 1024: "Domain Names - Concepts and Facilities". DNS-Servers all over the Internet translate names to addresses, serve Mail eXchanger information, LOCation data and - amongst others - since 2000 there is RFC 2782: "A DNS RR for specifying the location of services (DNS SRV)".

In February 2010 Facebook opened up their WebChat via XMPP so you can have it in your instant messaging client. XMPP uses DNS SRV RRs to find servers. If your XMPP account is joe@im.example.com (yes, it looks like an email address) clients would query the DNS for a SRV RR of

_xmpp-client._tcp.im.example.com

and the answer would either be NXDOMAIN, if no such service / resource record exists or something like

_xmpp-client._tcp.im.example.com.  300  IN  SRV  100  100  5222  chatserver.example.com.

The client would then connect to the host chatserver.example.com on port 5222. If no SRV records exists the client would try im.example.com as a host and the default port 5222.
Zillions of XMPP servers all over the Internet work that way.

Now let's take a look at Facebook. All chat addresses have the form user@chat.facebook.com (as mentioned on "Facebook Chat. Everywhere"). So, clients do a DNS SRV lookup for chat.facebook.com:

$ dig _xmpp-client._tcp.chat.facebook.com. srv
;; ->>HEADER<<- opcode: QUERY, status: NOERROR, id: 34540
;; flags: qr aa rd ra; QUERY: 1, ANSWER: 1, AUTHORITY: 1, ADDITIONAL: 0
;; ANSWER SECTION:
_xmpp-client._tcp.chat.facebook.com. 30	IN CNAME chat.facebook.com.

Woopsie! A NOERROR response with an answer type (CNAME) undefined for a SRV query. And it doesn't even make sense, either.
Using a different DNS cache server (BIND instead of djbdns) even gives:

;; ->>HEADER<<- opcode: QUERY, status: SERVFAIL, id: 50544

I guess most clients can handle that, at least pidgin can. Nevertheless it is another example how Facebook is messing up their DNS and also their chat. And I thought it couldn't get worse as their XMPP server don't support SSL/TLS for secure communication.

★ Oh, for a pro! ★

Der Hype Train fährt weiter

Unter Berufung auf die Marktforscher von Forrester Research ist heute auf Pressetext zu lesen:

Überraschend: Facebook und Co verlieren an Reiz
User sind sehr passiv, nur zehn Prozent erzeugen neue Inhalte

und der "Branchenkenner" Klaus Eck sagt dazu:

"Die Menschen zeigen sich in sozialen Medien viel passiver als zu erwarten"

Überraschung?

Jeder, für den diese Entwicklung überraschend ist, hat das Internet immer noch nicht begriffen.
Das Internet ändert die Menschen nicht, es schafft Möglichkeiten, zusätzlich zu denen, die die Menschen schon haben. Es liegt im Wesen des Menschen, dass alles was neu ist, erst einmal interessant ist. Hat man dann ein wenig darüber geredet und ein bisserl gegafft, dann wird es aber auch schnell wieder uninteressant. Dieses Problem kennt jeder Aktivist oder Redner; es ist leichter eine Menge Menschen spontan für etwas zu begeistern, als diese momentane Begeisterung dann über die Zeit zu retten.

hype trainIm Internet geht das noch viel schneller von statten. Es gibt eine Reihe von Early Adopters, die neue Dienste aufgreifen, darüber reden und Schienen legen. Auf denen fährt dann die Spaßgemeinde mit dem Hype Train in den Bahnhof. Zu diesem Zeitpunkt sind die Early Adopters aber schon weitergezogen. Manche Dienste haben ein gewisses Potenzial und einen Nutzen, der dafür sorgt, dass sie auch weiterexistieren, wenn der Hype Train wieder abgefahren ist und Bestandteil des täglichen Internet werden; andere sterben einfach still und leise.

Oft erkennt man, dass der Zug wieder losfährt daran, dass die Marketing-Fuzzis im Zug nach hinten zum letzten Wagon laufen und mit schlauen Strategie-Papers und Marketing-Ratschlägen den Mitreisenden vorgaukeln, dass der Zug noch im Bahnhof steht.

Passivität?

Nehmen wir Facebook. Facebook ist ein soziales Netzwerksystem. Aufgrund des großen Zulaufs ist es überaus gut dafür geeignet, dass man frühere Kontakte wiederfindet: Menschen, zu denen man früher schon im Internet Kontakt hatte (und noch hat), alte Bekannte, Schulkameraden. Viele davon sind Menschen, mit denen man auch vor Facebook schon wenig bis gar keinen Kontakt hatte. Solange es neu ist, ist man enthusiastisch, sucht nach Bekannten, vergrößert schon fast besessen seinen Freundeskreis, tauscht Nachrichten aus, man "netzwerkt" extensiv ... bis man feststellt, dass die Freundesliste in Facebook eigentlich gar nicht so verschieden ist von dem alten Telefonbuch, das in einer Schublade im Schrank liegt (bei den Älteren) oder der endlosen Liste von Namen und Nummern im Mobiltelefon.

Es gibt einen Grund, warum man die Leute auf der Telefonliste nicht anruft. Durch Facebook ändert sich dieser nicht und aus diesem gleichen Grund interessiert einen eigentlich nicht wirklich, was sie so alle treiben. Der Mensch ist ein Sammler. Die Kontakte zu haben ist gut, dass sie sich automagisch auf dem neuesten Stand halten und sich nicht alle zwei Minuten die E-Mail Adresse ändert ist noch besser - das reicht dann aber auch für die meisten.

Dazu kommt, dass die wenigsten Benutzer ihre "Freunde" wirklich verwalten - die Dienste unterstützen sie dabei auch nicht sonderlich gut. Letzteres ist wiederum fast verständlich, da die Dienste ja davon leben, dass "viel passiert". Facebook hat das erkannt und bietet immer wieder an, dass man "Freunden", mit denen länger nichts ausgetauscht hat, doch einmal wieder eine Nachricht hinterlassen solle. Hat man aber eine gewisse Anzahl von "Freunden" erreicht wird genau das zum Problem: Reizüberflutung. Ganz ehrlich? Ich kann es verschmerzen, nicht täglich mit 30 Links zu Youtube-Videos oder 20 Musik-Listen oder 100 Katzenbildern zugeschüttet zu werden. Zumal das oft das Einzige ist, was diese "Freunde" an Inhalt generieren und sich mein Geschmack und der meiner "Freunde" manchmal durchaus stark unterscheiden. Will man also den Blick auf das Wesentliche (die Themen und die Menschen, die einen interessieren) behalten und nicht seitenweise Uninteressantes durchforsten, wird man früher oder später konsequent die "Störenfriede" ausblenden.

"Also den N. habe ich gleich am nächsten Tag nachdem ich ihn als Freund hinzugefügt habe auf "ignorieren" gesetzt, weil die Menge an Katzenbildern war einfach nicht auszuhalten."

Auf twitter habe ich selbst vor kurzem mehrere soziale Todsünden begangen und mich bei Leuten, die ich teilweise sogar persönlich kenne "entfollowed". Aber es war wie eine Befreiung - für mich und meine Timeline - und ich habe deshalb noch weitere auf eine Bewährungsliste gesetzt. Der Grund waren nicht die Leute selbst, sondern ihr Kommunikationsverhalten im virtuellen Medium. Das dadurch generierte Hintergrundrauschen an für mich völlig sinnlosen, ja teilweise nervenden Nachrichten war irgendwann einfach zu viel.

Dies führt aber dazu, dass man sich bald eh wieder nur mit den Leuten befasst, mit denen man sich auch außerhalb des Internet befasst. Und mit denen tauscht man sich dann eher in direkter Kommunikation aus, als es in der Öffentlichkeit breit zu treten, was dann den Anschein von Passivität vermittelt. Mit Freunden chattet man eben nicht über twitter, wenn man Alternativen hat, die einem zumindest teilweise Kontrolle über seine eigenen Äußerungen erhalten läßt.

Inhalte

Zunächst einmal ist zu definieren, was denn nun der magische "Content" sein soll, von dem alle reden. In dem eingangs verlinkten Artikel erfolgt eine Aufteilung in

Die Gruppe der "Creators", die einen Blog betreiben, Videos und Musik hochladen oder Artikel verfassen [ ... ] "Critics", die Produkte bewerten, fremde Blogs kommentieren oder in Wikis und Diskussionsforen teilnehmen [ ... ] "Collectors", die beispielsweise Feeds abonnieren und Content zugunsten anderer User organisieren.

Jeder, der das einmal gemacht hat weiß, dass gerade die ersten beiden Gruppen Arbeit bedeuten, viel Arbeit. Dazu kommt dann möglicherweise der Frust, wenn man mit viel Zeit und Mühe 10 Artikel verfasst hat und keinen interessiert es.

Die "Critics" haben zusätzlich mit der Desorganisation des Systems zu kämpfen: wie behält man seine gemachten Kommentare im Auge, um auf Antworten zu reagieren? Gerade wenn man sie nicht in einem geschlossenen System macht, sondern mal hier mal da bei Blogs, über die man so stolpert.
Ein weiterer Spaßkiller sind sogenannte Edit Wars. Wikis locken mit "jeder kann mitmachen und soll beitragen", die Realität sieht dann aber ganz anders aus und der Enthusiasmus geht schnell verloren.

Und natürlich muß man dranbleiben. Will man Anerkennung für Content, braucht man eine Leserschaft. Die schafft man sich aber nicht, wenn man nur einmal im Monat oder gar noch seltener schreibt und dann Belangloses ("Heute waren Fifi und ich im Park" *gähn*). Wie an Neujahr werden hier die guten Vorsätze schnell von der Realität eingeholt. Ich kenne unzählige Blogs, die nach einer 1-6 monatigen Aktivphase nun seit Jahren brach liegen.

Ein weiterer wichtiger Punkt sollte sein, dass die Menschen mehr darüber nachdenken, was sie von sich veröffentlichen, und nicht mehr so freizügig mit ihren Lebensumständen und Privatleben im Internet und den sozialen Netzen hausieren gehen. Auch wenn die Zahlen nicht differenziert genug sind, so hoffe ich doch, dass dies mit ein Grund für den Rückgang ist.

Sieht man sich parallel zum Rückgang der nutzergenerierten Inhalte an wie webbasierte Spiele im Moment boomen, erkennt man sofort, wohin die freigewordene Zeit geht. Laut der Liste von AppData erreichen die Top 40 Spiele zusammen 551.468.199 (eine halbe Milliarde) aktive Spieler pro Monat und stolze 102.371.189 (100 Millionen) Spieler, die täglich spielen.

Metriken

Sucht man zB. bei Google nach Social Media Metrics hat man genug Stoff, um die nächsten Runden Bullshit Bingo problemlos zu gewinnen. Chris Brogan liefert in seinem Blogartikel "Social Media Metrics" hingegen viel realistischere und brauchbarere Ansätze.

Selbst wenn man die Menschen dazu bringt, dass sie ein Thema/eine Website liken, bedeutet das noch lange nicht, dass sie dem Informationsstrom auch folgen. Sieht man sich an, wieviele Themen viele Leute mit like quasi abonnieren, wird schnell klar, dass sie vor Überflutung gar nicht folgen können. Bei einer nicht unrealistischen Annahme von 100 abonnierten Themen und 150 Freunden sind das bei nur einer Meldung pro Woche pro Kontakt 250 Meldungen pro Woche oder 35 Meldungen pro Tag. Der Durchschnitt dürfte aber wesentlich höher und bei 200-300 Meldungen pro Tag liegen. Dies führt dazu, dass die Benutzer die Website Schnurzlprnft zwar liken, aber bei der ersten Gelegenheit aus ihrer Timeline verbannen. Dann, gemessen an der Zahl der Freunde, davon zu sprechen wie beliebt man sei und welche Reichweite man durch eine Präsenz bei Facebook oder Twitter hat, ist mehr als nur naiv.

Eine weitere Quelle von Zahlen lieferte diese Woche sysomos in "Replies and Retweets on Twitter", die zwar nett aber nicht aussagekräftig sind. Sie schreiben, sie haben 1.2 Millarden Tweets untersucht. Woher kamen die? Waren die ohne Filter aus der generellen Twitter-Timeline aller Benutzer genommen? Wurden bestimmte Tweets aussortiert? Was ist mit dummen Retweet-Bots, die einfach dem Stream der Timeline folgen und alles was zu einem Satz Schlüsselwörter passt retweeten, die aber außer dem Spam-Netzwerk, dem sie angehören, aber keinerlei echte Follower haben. Was ist mit Spam-Netzwerken? Ich habe Netzwerke von 5000 und mehr Followers gesehen, die quasi nur aus sich selbst bestehen und durch gegenseitige Retweets versuchen im Ranking oder den trending topics zu erscheinen und Klicks abzugreifen. Diese in die Statistik aufzunehmen ist, als würde man die Anzahl der versandten (nicht der angekommenen) Spam-Mails als Maß dafür heranziehen, wie verbreitet E-Mail Marketing ist und wie gut es offensichtlich funktioniert.

Und jetzt?

Im Internet sterben permanent Hypes. Manche langsam und schleichend, wie Second Life oder MySpace, manche mit etwas mehr Getöse, wie gerade eben Google Wave und manche erhalten immense Vorschusslorbeeren und schaffen es dennoch nicht den Zug zum Halten zu bringen, so wie es ganz sicher diaspora ergehen wird.

Außer den Marketing-Fuzzies ist auch niemand wirklich traurig über derartige Entwicklungen, denn - wie gesagt - war es gut, bleibt es erhalten und den anderen muß man als Benutzer nicht groß hinterherweinen.

*tuuuuuuuuuuut*
Tja, ich muß jetzt Schluß machen, die Schienen sind gelegt, die Weichen gestellt, der Zug fährt weiter. Nächster Halt? Lasst euch überraschen :-)

Die Vertraulichkeit unserer Daten

Datenvertraulichkeit

"Datenschutz" ist wieder in aller Munde. Ein böser "Hacker" hat einmal mehr Daten von StudiVZ "geklaut". Na ja, nicht wirklich, er hat nur automatisiert die Daten der Benutzer abgegriffen, die diese bereit waren ihm, einem Mitglied von StudiVZ, zu geben. Getan hat er das mit einem sogenannten Crawler, also einem Programm, das sich von Webseite zu Webseite hangelt, so wie zB. Suchmaschinen das auch tun.

Es gibt eine ganze Reihe von sogenannten Personensuchmaschinen, die machen nichts anderes. Sie haben einen Crawler, der Webseiten abruft und sie haben ein data mining Programm, das diese Seiten analysiert, versucht Personeninformationen zu finden und zu extrahieren und danach werden diese Informationen - mehr oder weniger intelligent - gruppiert. Dies passiert mit den zusammengetragenen Benutzerdaten von tausenden von Webseiten. Manche dieser Suchmaschinen bieten ihre Daten öffentlich an (yasni.de, 123people, myONID.de, wink.com, spock.com), andere verkaufen diese Information für viel Geld an Personalabteilungen, die so ihre Bewerber abklopfen.

"Normale" Suchmaschinen können das auch ... vielleicht sogar noch besser. Ein Beispiel dafür ist der Social Circle von Google. Dadurch, dass sich Menschen auf verschiedenen Plattformen (XING, Twitter, Facebook, FriendFeed usw.) vernetzen und diese Informationen teilweise öffentlich sind (Friends, Followers), können Suchmaschinen diese Beziehungsinformationen auswerten, Profile erstellen und Verknüpfungsgeflechte generieren. Anhand weiterer Daten (semantisch gekennzeichnete Verweise auf Homepage, Blog, XYZ-Profil) lassen sich derartige plattformübergreifenden Profile sehr gut befüllen und so ist es dann auch nicht verwunderlich, dass, wenn ich bei Google angemeldet bin und eine Suchanfrage mache, mir Google ganz nebenbei mitteilt, dass einer meiner "sozialen Kontakte" gerade einen neuen Artikel in seinem Blog veröffentlicht hat.

Dieses data mining ist nicht nur auf Personendaten beschränkt. Manche Firmen haben sich auf Urheberrechtsverletzungen spezialisiert (PicScout), andere überwachen Markennamen (Brandwatch). Allen gemein ist, sie scannen permanent das gesamte Internet (oder versuchen es zumindest) und generieren und speichern verschiedene Arten von Profilen.

Social Networks

Der Begriff "Social Networks", wie er im Deutschen gemeinhin verwendet wird, ist falsch. "Social Networking Sites" trifft es schon viel besser und macht den organisatorischen Bezug zu den Mailboxsystemen früherer Zeiten deutlich.

Bei einer Social Networking Site handelt es sich um ein mehr oder eher weniger abgeschlossenes System.

  • mehr, weil man für manches Mitglied sein muß.
  • weniger, weil die Geschlossenheit keine wirkliche ist, sondern primär der Authentifizierung der Benutzer und der Generierung neuer Mitglieder dient. Jeder kann Mitglied werden, somit ist die Geschlossenheit nur formal.

Die Vertraulichkeits-Voreinstellungen solcher Systeme sind natürlich immer systemfreundlich: das ganze Internet darf nicht, alle Benutzer des Systems dürfen schon. Klar, soll ja neue Mitglieder anlocken und intern so viel wie möglich bieten. Dass der vorgegaukelte Unterschied zwischen "alle im System" und "das ganze Internet" nur formal existiert (jeder kann Mitglied werden) und gar keinen wirklichen Sinn macht, ist ein Mißverständnis, das sich für viele Teilnehmer nicht oder nur sehr spät (zu spät?) auflöst. Die Voreinstellung sollte immer so eng wie möglich sein, damit der Benutzer bewusst Rechte einräumen muß, widerspricht so aber dem Vernetzungsgedanken.

Zudem sollten solche Systeme vom Benutzer frei konfigurierbare Zugriffsbeschränkungen implementieren. Daran scheitern schon sehr viele, die meist nur drei oder vier vordefinierte Gruppen anbieten. Ein weiteres Manko ist oft die Granularität zur Vergabe der Rechte. So kann man ein Bilderalbum (thematische Gruppierung von Bildern) zwar einer Rechtegruppe zuordnen, nicht aber die einzelnen Bilder darin (nocheinmal gesondert).
Warum man das will? Beispiel: Fete. Alle Bilder des Albums "Fete" sollen für Mitglieder der Gruppe "Fete" sichtbar sein, nicht jedoch das Bild "Joe peinlich", das nur für "Joe" sichtbar sein soll.

Ein weiteres Problem tritt mit obigem Beispiel ebenfalls zutage: alle müssen Mitglieder dieses Systems sein, da sonst das System sie nicht identifizieren und authentifizieren kann. Ein "Ich habe die Bilder der Fete unter dem URL ... abgelegt. Benutzername/Passwort zum Anschauen sind ..." funktioniert nicht. Fetenteilnehmer, die nicht im System registriert sind können die Bilder nicht ansehen.

Dies führt direkt zu einem weiteren Problem dieser Systeme und der Vertraulichkeit von Daten.

Vertrauen

Daten sind immer nur so vertraulich, wie man der Person/Organisation vertrauen kann, an die man sie weitergibt.

Was nützt es Daten in einem geschlossenen und geschütztem System zu haben, wenn die Personen, die Zugriff darauf haben, (absichtlich oder nicht absichtlich) nicht vertrauenswürdig sind.

  • bei "absichtlich nicht vertrauenswürdig" sollte klar sein, was es bedeutet.
  • bei "unabsichtlich nicht vertrauenswürdig" besteht vielleicht Erklärungsbedarf.
    Betrachtet man obiges Besipiel der Fotos des Festes wird auffallen, dass es ziemlich unwahrscheinlich ist, dass alle Teilnehmer der Fete auch Mitglieder des Systems sind, in welchem die Fotos veröffentlicht wurden. Dies führt dann zu dem Fall, in dem ein Mitglied mit Zugriff darauf diese Fotos aus dem System "entfernt" und einem Fetenteilnehmer, der kein Mitglied ist, zB. per E-Mail zuschickt. Dem Mitglied wird in diesem Moment sicher nicht klar, dass er einen Vertrauensmißbrauch begeht, denn "die Fotos waren doch für die Teilnehmer der Fete".
    Diese Annahme ist aber falsch, denn es war für "die Teilnehmer der Fete, die Mitglieder der Gruppe "Fete" des Benutzers des Systems sind, der die Bilder eingebracht hat". Eventuell hätte dieser ja das eine oder andere Bild nicht eingestellt, wenn die externe Person ebenfalls Mitglied gewesen wäre oder er hätte die Zugriffsberechtigungen (einiger Bilder) anders gesetzt.

Durch die Entnahme der Bilder aus dem Schutz des Systems wurde die Vertraulichkeit der Daten ausgehebelt.

Ein weitergehender Verlust der Vertraulichkeit der Daten erfolgt in dem Moment, in dem die externe Person diese per E-Mail erhaltenen Bilder an eigene Freunde weiterschickt, die vielleicht gar nicht auf der Fete waren: "das sind Bilder der tollen Fete, auf der ich am Wochenende war". Der Totalverlust tritt ein, wenn die Bilder ungeschützt in zB. einer Foto-Community veröffentlicht werden.

Kopieren verboten

Mit dem Slogan "Kopieren verboten" hat eine Firma auf einem Sicherheitskongress vor ein paar Jahren ihr Produkt angepriesen und wollte damit "die Vertraulichkeit Ihrer Dokumente schützen". Sie haben damals meinen Kommentar dazu "was ich sehe gehört mir" nicht verstanden. Das Produkt hat auf Betriebssystembasis verhindert, dass man zB. PDF-Dokumente kopieren kann und sollte damit eine Vertraulichkeit des Dokuments erreichen. Das ist aber zu kurz gedacht. Niemand hat verhindert, dass

  • Screenshots von jeder Seite des Dokuments gemacht werden können
  • das Dokument seitenweise vom Bildschirm abfotografiert werden kann
  • das Dokument per Hand auf Papier übertragen werden kann
  • und nicht zuletzt: der Inhalt des Dokuments mündlich weitergegeben werden kann

What has been seen cannot be unseen.

Ein weiteres Beispiel dafür, wie schnell man die Kontrolle über "vertrauliche Daten" verlieren kann, zeigt sich beim Sexting. Damit wird das "sex texting" erotischer Fotos vom eigenen Körper bezeichnet, aufgenommen mit der Fotofunktion des Mobiltelefons und anschließend per MMS direkt verschickt.
Mag das eine Laune gewesen, als anregende Unterstützung für Cyber-/Telefonsex gedacht oder auch nur ein Vertrauensbeweis gewesen sein, kann dies schnell aus dem Ruder laufen, wenn der Empfänger diese Bilder im (meist gleichgeschlechtlichen) Freundeskreis quasi als Trophäe präsentiert oder wenn nach dem Ende einer Beziehung der/die Verlassene glaubt sich rächen zu müssen, indem er/sie die Bilder veröffentlicht.

Tolle neue Social Networks

Nach all der Kritik an den bestehenden Social Networks hat vor allem diaspora* in den letzten Tagen den vollen Medienhype erlebt. Es ist nicht das einzige Projekt, das mit dem Anspruch an den Start geht mehr Datenschutz zu gewährleisten. Eine Liste solcher Projekte wird von der Free Software Foundation (FSF) als Gegenüberstellung verwaltet.

Ein paar der Systeme habe ich mir angeschaut. Ich brainstorme selbst seit etwa 3 Jahren an so einem System, denke also ich kann mir hierzu einen Kommentar erlauben :-). All diese Systeme verfehlen ihre Ziele. Es ist nicht die Herausforderung ein paar hundert oder tausend Zeilen in PHP runterzuhacken und man hat was Tolles.
Die Herausforderung ist ein prinzipielles System zu entwerfen

  • das verteilt ist (gib' nicht einem Anbieter alle Deine Daten)
  • das trotz der Verteilung auch bei Millionen von Benutzern noch skaliert
  • das Sicherheit in Form von Identifizierung und Authentifizierung enthält ("signed messages")
  • das ein Reputationssystem (ala "web of trust") integriert
  • das eine "Schaltzentrale" bietet, auf die man von überall her (steuernd) zugreifen kann und alle Funktionalität, die man haben will, integrieren kann (soetwas wie IMAP4 für E-Mails, das aber E-Mails, Microblogging, Bookmarks, Chat, RSS/ATOM Feeds, Blogs, Bilderalben und und und ... integriert; raindrop aus den Mozilla Labs ist schon einmal ein Stück in die richtige Richtung)
  • das problemlos erweiterbar und integrierbar ist
  • das plattformunabhängig ist

So ein verteiltes System muß also primär Schemata, Protokolle und Abläufe definieren, so dass die verschiedenen Knoten sauber und effizient interagieren können. Dies ist die Herausforderung - danach den Code (egal in welcher Sprache oder welchem Framework) runterzuhacken ist es nicht. Sicher kann man dazu auf bereits bestehende Dinge zurückgreifen, wie OpenID, OAuth, pubsub, ... integrieren muß man es trotzdem sauber und vieles von Grund auf neu machen.

Eingangs beschriebene Probleme mit der Vertraulichkeit oder dem Schutz der Daten werden aber auch diese Systeme alle nicht lösen, weil diese Probleme weder systemimmanent sind noch programmatisch gelöst werden können.

So, we're doomed

You can't take something off the Internet, that's like trying to take pee out of a swimming pool.
Once it's in there, it's in there.
-- NewsRadio clip, episode 2x17 "Physical Graffiti" [via YouTube]

Nein, bei weitem nicht!

So wie vor zehn oder zwanzig Jahren die wenigsten von uns damals darüber nachgedacht haben dürften, dass Artikel, die sie im USENET veröffentlicht haben und die regelmässig auf den lokalen Newsservern expired und damit veschwunden waren, plötzlich wieder auftauchen und durchsuchbar sind, so waren und sind viele im Moment noch etwas leichtsinnig, was ihren digitalen Footprint angeht. Da sowohl Soziale Netzwerke als auch für viele das Internet und nicht nur das Konsumieren in Form von Surfen, sondern gerade auch das Publizieren Neuland ist, ist dies auch keineswegs verwunderlich.

Das sind Schäden, die nicht wieder gutzumachen sind, aber solange wir alle aus diesen Schäden lernen und ein entsprechendes Bewusstsein entsteht, das anderen Neulingen hilft, diese Fehler erst gar nicht zu begehen, denke ich, ist nicht alles verloren.

Man muß sich jedoch immer vor Augen halten:

Das Internet vergisst nichts!

... und Aussagen wie "The photograph has now been removed from the internet" sind und bleiben nichts als fromme Wünsche von Leuten ohne Realitätsbewusstsein.

Spherble I - Spinne oder Fliege

Spinne oder Fliege?

Eine wohl berechtigte Frage in Zeiten des Internet, World Wide Web (WWW) und massiv steigender Zahlen diverser, in sich geschlossener, Social Networks.
Bist Du die Spinne, die ein Netz webt, sich darin bewegt und die Daten kontrolliert, oder bist Du die Fliege, gefangen im Netz der Spinne ohne Kontrolle über Deine Daten?

Geschichtlicher Hintergrund

In den 70er und 80er Jahren des letzten Jahrtausends hatte man nur geringe Chancen jemanden online zu treffen, der in einem anderen Land wohnte oder bei einer anderen Mailbox (BBS) angemeldet war.
Sorry an Tim Berners-Lee, für die Anlehnung an das berühmte Zitat:

Anyone who slaps a 'this page is best viewed with Browser X' label on a Web page appears to be yearning for the bad old days, before the Web, when you had very little chance of reading a document written on another computer, another word processor, or another network.

-- Tim Berners-Lee in Technology Review, July 1996

Mit der Verbreitung des Internet und vor allem Anfang der 1990er Jahre mit der Erfindung und Etablierung von HTTP und HTML - und damit mit der Geburtsstunde des World Wide Web - hat sich dies grundlegend geändert.
Alle Informationen weltweit sind plötzlich nur noch einen Klick entfernt, internetweit vernetzte Chatsysteme wie der Internet Relay Chat (IRC) ermöglichen durch verbundene Server Echtzeitkommunikation ohne Grenzen und "Free Webspace" (geocities, einer der größten und bekanntesten Anbieter der 90er Jahre und später von Yahoo übernommen, schließt Ende Oktober 2009 seine Pforten) gibt jedermann die Chance eigene Informationen ins Internet zu stellen. Die erste Internet Bibliothek (WWW Virtual Library) versucht über gepflegte Linksammlungen einen zentralen und geordneten Einstiegspunkt zu Wissen zu etablieren.

Gleichzeitig existiert quasi parallel zum Web ein System names Usenet. Beschreiben läßt es sich vielleicht als vielfach repliziertes, hierarchisches Forensystem. Es gibt eine riesige Menge sogenannter Newsserver, die sich gegenseitig synchronisieren, die in unzähligen Gruppen zu den verschiedensten Themen eingestellten Artikel replizieren und somit die eher knappen WAN Ressourcen optimal nutzen. Der eher chaotisch anmutenden Struktur liegen in weiten Teilen demokratisch organisierte Regeln zugrunde, die dem System zusätzlich soziale Stabilität verleihen.

Sehr schön umgesetzt ist außerdem das Prinzip "divide et impera" ("teile und herrsche"). Der Ausfall eines oder mehrerer Knoten hat so gut wie keinen Einfluß auf die Verfügbarkeit des Gesamtsystems.

Durch die tausendfache Replikation ist damit wohl auch der maximale Grad an Offenheit der eingestellten Informationen erreicht. Auch wenn jeder Artikel einen weltweit eindeutigen Identifikator hat, der eine Löschung von Artikeln erlaubt, gibt der Verfasser prima face jegliche Kontrolle über die von ihm eingestelle Information erst einmal auf. Ein Prinzip, das später wiederentdeckt wird, im World Wide Web als "Streisand-Effekt" bekannt ist und durch tausendfache Replikation verhindern soll, dass Daten einfach gelöscht werden. Gegen eine Person vorzugehen mag noch Erfolg haben, etwas gegen Tausende weltweit durchzusetzen ist so gut wie unmöglich.

Heute würde man diese Artikel wohl mit einer (nichtkommerziellen) Creative Commons Lizenz attributieren. Dennoch gehen aus der Sammlung dieser Daten einige kommerzielle Projekte hervor, das bekannteste ist wohl die aus der Newsgruppe rec.arts.movies (via Google)hervorgegangene Internet Movie Database (IMDb). Zuerst werden die Artikel zu Filmen nur umformatiert und für HTML aufbereitet, später zur Kostendeckung mit Werbung versehen und danach - nicht zuletzt aus rechtlichen Gründen - in eine Firma überführt. Ein weiteres bekanntes Projekt ist die Buchausgabe der in der Newsgruppe rec.humor.funny (via Google) zusammengestellten Artikel.

Aus Platzgründen (Plattenplatz ist noch sehr teuer) werden die Artikel auf den Servern oft nur 2-4 Wochen vorgehalten, so dass ein gewisser Kontrollverlust die meisten Benutzer nicht weiter stört oder gar als Problem angesehen wird. Zudem ist der Anteil an persönlichen Daten, die über das System verteilt werden, bestenfalls marginal.
Erst als Deja News und - nach der Übernahme - Google komplette, über viele Jahre zurückreichende Archive des Usenet veröffentlicht und durchsuchbar macht, entsteht bei vielen der "alten Hasen" ob der einen oder anderen "Jugendsünde" diesbezüglich ein neues - aber in diesem Fall zu spätes - Bewusstsein.

Massives Anwachsen von Spam und Mißbrauch und vor allem mangelnde Promotion und geringe Unterstützung bei Massen-ISPs sorgen für eine Abwanderung aus dem Usenet und eine Tendenz hin zu webbasierten Standalone-Forensystemen. Doch auch diese werden von den Spammern sehr schnell als lohnende Ziele ausgemacht, was zu Benutzerregistrierungen und in diesem Zusammenhang auch geschlossenen (selbst zum Lesen anmeldungspflichtigen) Foren führt.

Dies ist die Geburtsstunde der Communities, was aufgrund von Uneinigkeit über Regeln und Machtgelüsten/-kämpfen der Administratoren und Initiatoren sehr schnell dazu führt, dass laufend viele themengleiche aber konkurrierende Communities entstehen - und auch wieder sterben.