Maexotic

It's a maexotic world ...

Terroristen und Flugzeuge

BKA-Präsident Jörg Ziercke sagt der "Welt am Sonntag" im Interview "BKA warnt vor Attentaten durch radikale Einzeltäter":

Der Flugverkehr bleibt das herausragende Ziel des Terrorismus, weil Anschläge auf Flugzeuge in besonderem Maße geeignet sind, die Bevölkerung zu beunruhigen.

Ist das so? Ich denke die ganze Panik wird klar von den Behörden dahingehend geleitet. Die Gründe sind relativ klar:

  • Man will eine begrenzte, kontrollierbare Terror-Angst, im Rahmen derer man den Anschein erwecken kann, dass immer mehr Kontrolle in allen Bereich des Lebens helfen kann, die Terror-Gefahr abzuwehren.

  • Flugzeuge sind keine Verkehrmittel des täglichen Lebens für die meisten Menschen. Zudem ist die Anzahl der Zugangspunkte (Flughäfen) überschaubar und halbwegs kontrollierbar.

  • Der Anschlag in den USA gegen das World Trade Center wurde mit Flugzeugen ausgeführt. Der kollektive psychische Zusammenbruch aller Amerikaner, resultierend aus der Tatsache, dass das erstemal der Schrecken in ihr Land getragen wurde und die damit verbundenen Reaktionen halfen, das Flugzeug als Ziel und Machtmittel Nummer 1 des Terrorismus zu etablieren. Der Anschlag auf Züge in Madrid (2004) oder der Anschlag auf die U-Bahn in London (2005) gerieten dagegen schnell wieder in Vergessenheit.

Aber warum sollten Terroristen wirklich Flugzeuge als Ziel Nummer 1 auswählen?

Horrorszenarien

Der "Vorteil" von Flugzeugen ist, dass sie einen Großteil der Sprengkraft selbst in Form von Kerosin mit sich führen. Wenn es erst einmal wummst, dann aber richtig. Der "Nachteil" ist, dass bei einem Flugzeug in der Luft so gut wie keinerlei grössere Sekundärschäden, etwa durch die Druckwelle der Explosion, auftreten.

Eine oder mehrere gut platzierte Bomben mittlerer Größe in der U-Bahn dürften erheblich mehr Schaden anrichten:

  • Ich könnte mir vorstellen, dass gegen 17 Uhr im Münchener U-Bahnhof Marienplatz sich neben den ca. 1000 Passagieren im U-Bahnzug etwa die gleiche Anzahl auf dem Bahnsteig befinden. Dies dann mit zwei multipliziert für zwei Züge und zwei Bahnsteige macht schon an die 4000 Passagiere. Dazu kommen jede Menge Menschen auf den Rolltreppen, die von der Explosionswelle in den engen Röhren sicher ebenfalls erfasst würden. Der worst case wäre wohl erreicht, wenn es durch die Explosion zu einer strukturellen Instabilität kommen würde, so dass auch das darüberliegende S-Bahn Geschoß betroffen wäre.

  • Der Zugang ist für jedermann ohne jegliche Kontrollen möglich, entweder durch direkten Zugang oder durch "Anreise mit der U-Bahn/S-Bahn".

  • Ein zerstörter U-Bahnhof Marienplatz wäre auf Monate, wenn nicht auf Jahre hinaus unbenutzbar, was eine der Hauptlinien für diese Zeit lahmlegen würde und wahrscheinlich ebenso die in der Innenstadt einzige S-Bahn-Trasse, die ebenfalls durch den Marienplatz führt.

Ich weiß nicht, woher BKA-Präsident Jörg Ziercke seine Horrorszenarien zieht, aber ich weiß, dass mich mein oben skizziertes Horrorszenario bei weitem mehr beunruhigen würde ... und der U-Bahnhof Marienplatz in München ist sicher von der Ausgestaltung her weltweit kein Einzelfall.

Das Internet lacht - heute über: Jörg Ziercke

Dass der BKA-Präsident Jörg Ziercke nicht immer so ganz auf der Höhe ist, hat er uns in der Vergangenheit ja mehrfach bewiesen. Neues Jahr neues Glück. Nun hat er der Welt am Sonntag ein Interview gegeben. Darin sagt er:

Sperren gegen Kinderpornografie wirken, wie das Beispiel Skandinavien zeigt, abschreckend. Dies gilt nach meiner Auffassung auch weiterhin. Denn wer solche Warnschilder bewusst umgeht, hinterlässt Spuren auf seinem Computer. Natürlich veranlassen wir sofortige Löschungen. Aber: Wer mit großem Aufwand Kinderpornografie produziert, verfügt immer auch über Kopien des Materials. Das alleinige Löschen einer IP-Adresse führt damit nicht zum Verschwinden der schrecklichen Bilder aus dem Internet. Natürlich werden wir die im Koalitionsvertrag vorgesehene Evaluierung unterstützen. Die Ergebnisse werden dann zu diskutieren sein.

So so, nun werden also nicht die Bilder und die Webserver gelöscht, jetzt veranlasst das BKA sogar schon, dass IP-Adressen gelöscht werden. :-D Ich wusste bisher nicht, dass man IP-Adressen löschen kann. Aber überlegene Technik des BKA, Made in Germany, macht alles möglich. Ich tippe ja auf den Einsatz von Fisting-Attacken. Dieses Vorgehen des BKA ist jedoch ziemlich asozial, denn der IPv4-Adressraum ist ohnehin schon ziemlich ausgeschöpft und wenn das BKA jetzt daraus auch noch IP-Adressen löscht, führt das zu einer weiteren Verknappung. Obwohl diese Maßnahme unter IPv6-Experten teilweise gar nicht so negativ gesehen wird, könnte sie doch die Einführung von IPv6 beschleunigen:

Also von mir aus kann er den ganzen IPv4-Adressraum löschen und verbieten, nur von IPv6 soll er die Finger lassen!


Mal sehen, ob und was das BKA auf die Anfrage von Jörg Tauss antwortet.


Ein Körnchen Wahrheit

Bei aller Häme, die momentan durch das Internet tobt scheint aber ein Punkt komplett unterzugehen:

Diese Aussage ist der Beweis dafür, dass das BKA selbst nicht glaubt, dass die Warnschilder helfen, denn auch mit Warnschild gilt immer noch:

[...] Wer mit großem Aufwand Kinderpornografie produziert, verfügt immer auch über Kopien des Materials. Das alleinige Löschen einer IP-Adresse Blockieren eines Domainnamens führt damit nicht zum Verschwinden der schrecklichen Bilder aus dem Internet. [...]

Damit wird auch klar, dass die ganze Diskussion um die Internetsperren nur eine schmierige Wahlkampfkampagne war und es weniger um missbrauchte Kinder als politischen Stimmenfang und die Etablierung einer Kontroll- und Zensurinfrastruktur ging. Alleine der Herr Ziercke scheint immer noch nicht verstanden zu haben, dass der Wahlkampf jetzt erst mal durch ist.

Auch bei seinen Aussagen zur Wirksamkeit von Internetsperren scheint Ziercke wenig lernfähig. Schon im März 2009 hatte der Chef der Polizeiermittlungsgruppe gegen Kinderpornografie und Kindesmisshandlung in Stockholm, Björn Sellström, in einem Interview gegenüber focus online erklärt:

Unsere Sperrmaßnahmen tragen leider nicht dazu bei, die Produktion von Webpornografie zu vermindern.

Spass mit Webspiders II

FAIL-spider

Mit Hilfe der Datei robots.txt im Root-Verzeichnis eines Webservers (also zB. http://www.example.com/robots.txt) kann man Webspiders rudimentär steuern. Will man nicht, dass diese Crawlers einen bestimmten Bereich des Webservers ablaufen, schreibt man Einträge der Form:

User-Agent: *
Disallow: /g2/main.php/tag/

Schön wäre es nun, wenn sich die Crawlers auch daran halten würden. Manche tun das nämlich nicht, obwohl sie das /robots.txt abrufen:

20100128 16:18:22dotnetdotcom.orgGET200515/robots.txt
20100128 17:14:55dotnetdotcom.orgGET20020193/g2/main.php/tag/steckerlfisch
...
20100128 20:15:30dotnetdotcom.orgGET200515/robots.txt
20100128 21:06:41dotnetdotcom.orgGET20030934/g2/main.php/tag/brugmansia
20100128 21:06:45dotnetdotcom.orgGET20016502/g2/main.php/tag/butterfly
20100128 21:06:59dotnetdotcom.orgGET20016423/g2/main.php/tag/eucalyptus
20100128 21:07:25dotnetdotcom.orgGET20057129/g2/main.php/tag/wallersdorf
...
20100129 00:02:40dotnetdotcom.orgGET200515/robots.txt
20100129 00:51:20dotnetdotcom.orgGET20016484/g2/main.php/tag/24indigo
20100129 00:52:04dotnetdotcom.orgGET20025027/g2/main.php/tag/siegestor
...
20100129 03:43:11dotnetdotcom.orgGET200515/robots.txt
20100129 04:31:11dotnetdotcom.orgGET20016483/g2/main.php/tag/bambus
20100129 04:31:15dotnetdotcom.orgGET20016382/g2/main.php/tag/banana
20100129 04:31:19dotnetdotcom.orgGET20016413/g2/main.php/tag/buddha
20100129 04:31:23dotnetdotcom.orgGET20056972/g2/main.php/tag/canico
20100129 08:11:38dotnetdotcom.orgGET20055245/g2/main.php/tag/winter
...

[UPDATE] Mittlerweile habe ich Antwort erhalten. dotnetdotcom.org hält sich an den Robot Exclusion Standard. Das Problem liegt darin, dass ich mehrere Zeilen mit "User-Agent: *" in meinen robots.txt hatte. dotnetdotcom.org interpretiert das als Fehler. Ich habe es entsprechend abgeändert.
Weitere Recherche führte dann zu B.4.1 Search robots: The robots.txt file. Hier wird es genauer spezifiziert (was mir bisher neu war):

There must be exactly one "User-agent" field per record. The robot should be liberal in interpreting this field. A case-insensitive substring match of the name without version information is recommended.
If the value is "*", the record describes the default access policy for any robot that has not matched any of the other records. It is not allowed to have multiple such records in the "/robots.txt" file.

[/UPDATE]

In solchen Fällen empfiehlt sich dann ein Block in der Konfiguration des Webservers. Im Falle von

Mozilla/5.0 (compatible; DotBot/1.1; http://www.dotnetdotcom.org/, crawler@dotnetdotcom.org)

und eines apache Webservers wäre das dann ein Eintrag

# dotnetdotcom.org crawler
Deny from 208.115.111.240/28

Eine E-Mail an die Betreiber hat natürlich innerhalb von 36 Stunden weder eine Antwort noch eine Änderung gebracht. [UPDATE] Dafür aber kurz danach.[/UPDATE].

Wo sind die Bücher abgeblieben?

Zum Geburtstag von Steffs Neffen wollten wir ihm gerne ein Buch schenken. Für einen dann 16-jährigen, der nicht gerade eine Leseratte ist, ein etwas schwierigeres Unterfangen. Aufgrund seiner sonstigen Hobbies dachten wir, dass der Bereich Science Fiction und Fantasy wohl noch am ehesten Anklang finden könnte. Also haben wir eine Liste gemacht, was uns so an "Klassikern" einfällt und nicht zu dick ist. Ich bin noch mein altes Taschenbuchregal zur Gedächntisstütze durchgegangen. Wir hatten dann auch recht schnell eine Liste. Na, das war doch halbwegs einfach.

Auftritt: Amazon.

  • Isaac Asimov, "Der Mann von drüben"
    Oh! Hmmmm .... sieht so aus als würde Heyne das Buch nicht mehr auflegen. Gibt nur noch gebrauchte Ausgaben und dann auch noch die uralten, nicht mal die Version aus den 1980ern, die ich hier stehen habe. Na gut, weiter!
  • Anne McCaffrey, "Die Welt der Drachen"
    Oh! Hmmmm .... sieht so aus als würde Heyne das Buch nicht mehr auflegen. Und nicht nur den ersten Band, sondern die ganze Serie gibt es nur noch als gebrauchte Ausgaben. Auch die Hardcover Ausgabe, die meine Eltern von Bertelsmann-Buchclub damals hatten gibt es nur noch gebraucht. Naaa guuut, weiter!
  • Philip J. Farmer, "Meister der Dimensionen"
    Oh! Hmmmm .... sieht so aus als würde Knaur das Buch nicht mehr auflegen. Und nicht nur den ersten Band, sondern die ganze Serie gibt es nur noch als gebrauchte Ausgaben.

Natürlich hatten wir auch Douglas Adams mit "Per Anhalter durch die Galaxis" auf der Liste. Da er aber den Film gesehen hatte, schätzten wir die Lesebereitschaft als eher gering ein. Gestrichen. (Zumindest wäre das lieferbar gewesen, immerhin!)

Nach drei oder vier weiteren Fehlversuchen stellt sich ein WTF?-Feeling ein. Die Bücher sind alle vor bis zu 40 Jahren geschrieben und die Originalversionen verkaufen sich bei Amazon auch heute noch wie Hölle. Wieso sind die deutschen Ausgaben nicht zu bekommen? Sind die alle bekloppt? Ist ja nicht so, dass sie das erst neu übersetzen müssten.

Ein bißchen Hintergrundinfo gefällig?

Nach dem Tod von Wilhelm Heynes Sohn Rolf Heyne ging der zweitgrößte Taschenbuchverlag Deutschlands 2001 an den Axel Springer Verlag und wurde 2003 von der Bertelsmann AG über ihre Tochter Random House übernommen (Quelle: Wikipedia).

Knaur, oder besser die Verlagsgruppe Droemer-Knaur wurde 1980 an die Verlagsgruppe Georg von Holtzbrinck verkauft. Seit 1999 gehört sie zu gleichen Teilen den Verlagsgruppen von Holtzbrinck und Weltbild (Quelle: Wikipedia).

Also ihr Verlags-Schreihälse und Loser-Manager, hört auf rumzuheulen. Euer ganzer Umsatzeinbruch, Verlust und was auch immer euch sonst noch an Tränendrüsenstories einfällt ist nämlich ein typischer Fall von "Selber schuld, kein Mitleid!". Da kann das "böse Internet" gar nix für.
Und schliesslich leben wir in Zeiten des Digitaldrucks ... nur einmal so nebenbei bemerkt.

Spass mit Webspiders

Wir haben eine kleine Galerie (naja, eher ein Fotoalbum) mit nicht allzu vielen Fotos, für das wir gallery2 (in fast aktuellster Version) einsetzen. Neben dem Core System gibt es - wie so üblich - jede Menge Plugins. Ich weiss nicht mehr vor wie langer Zeit haben wir spaßeshalber das rating-Plugin aktiviert. Als ich gestern gesucht habe, warum sich der apache so anstrengt, habe ich folgende Zugriffe im Logfile gefunden:

/g2/main.php?g2_view=rating.RatingCallback&g2_command=rate&g2_itemId=147&g2_rating=1
/g2/main.php?g2_view=rating.RatingCallback&g2_command=rate&g2_itemId=147&g2_rating=2
/g2/main.php?g2_view=rating.RatingCallback&g2_command=rate&g2_itemId=147&g2_rating=3
/g2/main.php?g2_view=rating.RatingCallback&g2_command=rate&g2_itemId=147&g2_rating=4
/g2/main.php?g2_view=rating.RatingCallback&g2_command=rate&g2_itemId=147&g2_rating=5

... und das natürlich nicht nur für das eine Photo (g2_itemId), sondern für alle. Da war ich dann erst einmal froh, dass das Rating nur von 1-5 geht und nicht von 1-10 oder so.

Daraufhin habe ich etwas im Code gegraben und die Links, also die <a href="...> um den Parameter rel="nofollow" erweitert. Das nofollow ist an die Notatation der META Information des Robot Exclusion Standards angelehnt und existiert seit 2005, als es von Google und Blogger.com angekündigt wurde und recht schnell Akzeptanz fand.

Die Sematik ist jedoch leider unterschiedlich:

<meta name="robots" content="nofollow">
damit wird ausgedrückt, dass Webspiders generell allen Hyperlinks auf dieser Seite nicht folgen sollen.
rel="nofollow"
damit wird ausgedrückt, dass der Hyperlink keine Bewertung durch das Setzen des Links erhalten soll. Dies zielt auf den Bereich SEO und die Versuche von Spammern durch Setzen von Links zB. in Blogkommentaren das Ranking der Zielseite in der Suchmaschine zu verbessern.
Soweit ich das bisher beobachten konnte, führt es aber auch dazu, dass Webspiders diesen Links nicht folgen, was ja mein Ziel wäre.

Ich werde sehen was passiert :-D

Was aber schon gehörig nervt ist, dass es sehr schwierig bis unmöglich ist Webspiders von bestimmen Bereichen auszuschliessen (nicht um es zu verstecken, sondern weil es für sie sinnlos ist). Dies betrifft zB. den Login-Link für den Administrator. Der ist (nicht nur) bei gallery2 so gestaltet, dass er die Information enthält, von welcher Seite aus der Login erfolgt ist, um den Benutzer - nach erfolgreicher Anmeldung - erst einmal wieder dorthin zurückzuschicken:

/g2/main.php?g2_view=core.UserAdmin&g2_subView=core.UserLogin&g2_fromNavId=x7170925e

Wie man unschwer erkennen kann, wird durch den Parameter g2_fromNavId dieser Link auf jeder Seite unterschiedlich, was dazu führt, dass ihn die Webspiders immer und immer wieder anlaufen. Die lässt sich auch mit Hilfe einer /robots.txt nicht wirklich verhindern, da diese nur Dateien oder Verzeichnisse spezifiziert, jedoch keine Scripts mit Parameterversorgung. Folgendes geht also (dokumentiert) nur bei Google:

User-Agent: *
Disallow: /g2/main.php?g2_view=core.UserAdmin*

Was meiner Meinung nach dringend fehlt sind Möglichkeiten bestimmte Links und Bestandteile der Seite durch entsprechende Kennzeichnung auszuschliessen. Yahoo hat dazu 2007 mit class="robots-nocontent" einen Vorstoss gewagt, der aber keinen Anklang gefunden hat und wohl auch nur von Yahoo honoriert wird. Leider.
Einen Vorschlag für ein entsprechendes Microformat gibt es bereits seit 2005, passiert ist bisher nichts.

Aber auch die Programmierer sind hierbei gefragt, denn diese können durch entsprechende Gestaltung der URLs durchaus dazu beitragen, dass man bessere Kontrolle darüber erhält, was die Webspiders so abgrasen.

E-Mails, PDF-Anhänge und die Telekom

Telekom FAIL!

Meine Mutter hat ein neues Notebook. Das Windows 7, das vorinstalliert war, habe ich auf die Hälfte geshrinkt und dann ein recht minimalistisches Fedora 12 mit GNOME-Desktop draufgepackt. Ein paar Einstellungen vom alten System übernommen, ein paar Add-Ons für den Firefox, alles kein großer Akt.

Dann noch schnell den Thunderbird konfiguriert, den sie eigentlich nur verwendet, um die Rechnungen der Telekom zu erhalten und anzusehen. Um das möglichst unkompliziert abzuwickeln, soll ein Klick auf das PDF-Dokument im Anhang dies natürlich gleich im entsprechenden Viewer (in diesem Fall evince) öffnen.

Aber irgendwie wollte das nicht klappen. Thunderbird hat mir nur immer wieder angeboten, die Datei zu speichern. Dies hätte bedeutet, dass man sie anschliessend annavigieren und z.B. per Doppelklick hätte öffnen müssen. Viel zu kompliziert.

Also habe ich gesucht, warum das so ist und habe es auch gefunden. Die Telekom versendet das PDF-Dokument der Rechnung in den E-Mails als:

Content-Type: application/octet-stream; name=2009_12rechnung_nnnn.pdf
Content-Transfer-Encoding: base64
Content-Disposition: attachment; filename=2009_12rechnung_nnnn.pdf

Das PDF gibt es seit 1993. Im selben Jahr wurde der MIME-Typ application/pdf dafür registriert. Seit 2004 gibt es den RFC 3778: "The application/pdf Media Type", der das - unter anderem - nochmal explizit festklopft. Manche "Dialekte" von PDF sind internationale Standards. Dennoch schafft es die Telekom nicht, im Jahre 2010, also 17 Jahre später, den Anhang in ihren E-Mails mit dem korrekten MIME-Typ auszuzeichen.
Und da mag Schnarri dann groß rumheulen, wenn es Unternehmen gibt, die am Puls der Zeit arbeiten und deshalb erfolgreich sind.

★ Einmal mit Profis! ★

Die Lösung, die ich dann gewählt habe ist, dass ich in die Datei $HOME/.mailcap den Eintrag
application/octet-stream; /usr/bin/xdg-open %s
hinzugefügt habe. Nicht perfekt, aber in dieser Umgebung ist es akzeptabel.

Die E-Mail enthält übrigens auch noch einen ganz, ganz supertollen, mega-wichtigen Disclaimer. Der totale Brüller:

Die Inhalte dieser Mail sind vertraulich und nur für den konkret genannten Adressaten der Anlage bestimmt. Falls Sie nicht der richtige Empfänger dieser E-Mail sind, senden Sie uns bitte eine Information an info@telekom.de und löschen Sie diese E-Mail.
Das unerlaubte Kopieren sowie die unbefugte Weitergabe dieser E-Mail und der darin enthaltenen Informationen sind nicht gestattet.

Allen, die jetzt verständnislos schauen, sei der wirklich hervorragende Podcast von Herrn Rechtsanwalt Dr. Bahr ans Herz gelegt: "Der Disclaimer - 10 Jahre unausrottbarer Schwachsinn"; 6:10 Minuten, die sich lohnen.