Dienstag, 15. Dezember 2009

Gruseliger Moloch Facebook. Und Google?

Kürzlich ist mir etwas passiert, was mir einen kleinen Schauer über den Rücken schickte:
Wie es ja immer mal wieder passiert, hatte mich jemand zu Facebook eingeladen. Da ich keine Lust auf solche Communities habe, habe ich mich wieder einmal nicht angemeldet.
Das unheimliche war aber: Obwohl ich kein Facebook-Mitglied bin und noch nie war, zeigte mir Facebook in der Einladungsmail unter „Diese Facebook-Mitglieder könnten Sie kennen“ einen engen Freund und einen Bekannten an.
Die Mail ging an meine geschäftliche E-Mail-Adresse („Einlader“ war ein australischer Kollege in der Firma).
Ich kann nur vermuten, dass mindestens diese beiden, die meine geschäftliche E-Mail-Adresse kennen, vermutlich aber noch diverse weitere Freunde, das Facebook-Feature benutzt haben, bei dem man Facebook den Zugriff auf eigene Online-Adressbücher geben kann, um nachzusehen, ob die dort eingetragenen Personen ebenfalls Facebook-Mitglieder sind.
Facebook nutzt das ganz offensichtlich nicht nur für diese einmalige Abfrage, sondern speichert die Daten für eigene Zwecke auf den Servern ab. Flugs ist aus dem eigentlich privaten Adressbuch bei einem Online-E-Mail-Dienst ein Bestandteil des Datenmolochs Facebook geworden, über den dieser frei verfügt.
Ich habe in Facebooks Privacy Policy nichts gefunden, was die Weitergabe dieser Informationen an beliebige Dritte ausschließen würde. In der Aussage, wofür diese Daten benutzt werden, sind zwar „lediglich“ die Freunde-Vorschläge gelistet, die Facebook dem Nutzer und anderen macht, aber ob das bedeutet, dass anderes definitiv nicht damit geschieht, bezweifle ich zumindest.
Das bedeutet also: Facebook bedient sich meiner Daten, obwohl ich dort nicht einmal Mitglied bin und keinerlei Einwilligung dazu erteilt habe. Als Nicht-Facebook-Mitglied kann man zwar auf dieser Seite eine Löschung der eigenen E-Mail-Adresse aus der Datenbank beantragen, letztlich bleibt sie aber doch gespeichert – mit der Information, dass man nichts mit Facebook zu tun haben will.
Wesentlich lieber wäre mir hier die Möglichkeit, mich komplett aus den Datenbanken entfernen zu können und das notfalls wieder zu tun, wenn irgendwer eine meiner E-Mail-Adressen an Facebook verfüttert.

Und was ist mit Google? Ich muss mich hier wohl auch an die eigene Nase fassen, schließlich wird mein Adressbuch auch mit Google synchronisiert.
Ich bilde mir ein, irgendwo gelesen zu haben, dass Google „derzeit“ nicht vorhat, ähnliche Vernetzungsprofile auf Basis der Adressbücher zu erstellen. Selbst wenn ich das richtig in Erinnerung habe, ist eine solche Datenverwendung für die Zukunft aber mit voller Absicht nicht ausgeschlossen.
Google bietet zwar mittlerweile die Möglichkeit, sich alle Daten anzuzeigen, die Google über einen gespeichert hat – das sind aber nur die, die man selbst eingegeben hat. Beliebige abgeleitete Informationen sind in dieser Ansicht nicht zu sehen.
Bin ich deshalb gewillt, auf Google Mail, den Kalender, Blogger, Google Docs und so weiter zu verzichten? Nicht wirklich, jedenfalls noch nicht. Und genau das ist das Problem.
Genau so denken sicher die Facebook-Nutzer, denen ich gerne das Hochladen meiner E-Mail-Adresse zu Facebook verbieten würde.
Es ist einfach zu praktisch. Es ist zu gut. Zu unverzichtbar.
Gibt es irgendwo einen Online-Service, der vielleicht Geld kostet, aber datenschutztechnisch vertrauenswürdiger ist als Google? Wo ich Kalender, Mails und Adressbuch online halten und jederzeit mit meinem Mac und möglichst mit beliebigen Mobiltelefonnen synchronisieren kann? Vielleicht auch Open Source, um es auf meiner Domain zu installieren?
Ich möchte eigentlich den Komfort von Google Mail nicht missen, besonders die Labels haben es mir angetan. Nach und nach denke ich aber so langsam doch darüber nach, ob es mir nicht zu gruselig ist …

Freitag, 11. Dezember 2009

DRM funktioniert nicht – auch nicht in eBooks

Wieder ein guter Beitrag von Ronald Schild im Libreka-Blog. Ich hoffe, hoffe, hoffe, dass seine wirklich guten und richtigen Analysen zum Thema DRM in eBooks bei den Verlagen endlich Gehör finden.
Denn, so sehr es sich die Verlage anders wünschen mögen, es bleibt dabei:
  1. DRM funktioniert nicht. Es wird immer knackbar sein und genkackt werden. Mir ist keine Ausnahme (bei Massenprodukten) bekannt.
  2. „Hartes“ DRM mit seinen Nutzungseinschränkungen stellt den ehrlichen Kunden schlechter als den Raubkopierer.
  3. Es macht nicht wenige potentielle Kunden erst zu Raubkopierern.
  4. Der Schaden überwiegt den Nutzen bei weitem.
  5. Immer und immer wieder: Schaut auf die Musikindustrie! Schaut darauf, wieviel Geld und Reputation dort durch „hartes“ DRM verlorenging! DRM sichert nicht Gewinne sondern generiert Verluste.
Das vom MVB/Libreka favorisierte „weiche“ DRM bringt dem ehrlichen Nutzer keine Einschränkungen, wird allgemein akzeptiert, ist unkompliziert (ganz anders als Adobe DRM), problemlos in Download-Stationen im stationären Buchhandel einsetzbar – und setzt eine gewisse Hürde vor's einfach-so-Weitergeben.
Selbstverständlich ist auch das nicht unknackbar. Selbstverständlich wird es Software geben, um diesen Schutz aus den Büchern zu entfernen. Das gilt für „hartes“ DRM aber auch.

Noch besteht Hoffnung, dass in deutschen Verlagshäusern ein Umdenken einsetzt. Ich bin sehr froh, dass es in deutschen Buchhandelskreisen mit Ronald Schild eine prominente Stimme gibt, die den Verlagen die Wahrheit sagt.
Niemand wird sagen können, er habe von nichts gewusst.

Adobe will „weicheres“ ePub-DRM ermöglichen

In Zukunft soll der Adobe Content Server auch eine Art einfachen Passwortschutz über die Adobe ID ermöglichen (als Alternative zum bislang verwendeten DRM-Verfahren). Im Gegensatz zu bisher wäre es damit möglich, DRM-geschützte ePub-Bücher auf beliebig vielen Endgeräten zu nutzen; der mehrfache Wechsel auf neuere Geräte etwa wäre kein Problem mehr.
Bleibt abzuwarte, ob die Verlage diese Chance nutzen werden.

Apple-Tablet mit eInk-Display?

lesen.net berichtet von einer Ankündigung des Display-Herstellers Pixel Qi. Dort ist folgender interessante Satz zu lesen:
We can now announce that the first units are going into specialized tablet devices with multi-touch.
Tablet mit Multi-Touch? Das klingt tatsächlich sehr nach Apples iTablet oder MacTablet oder wie auch immer es heißen wird – zumal die ersten Displays offenbar in besonders dünner Ausführung ausgeliefert werden. (Denkt da noch jemand außer mir an das MacBook Air?) Und das wäre natürlich auch der totale Hammer: Was Pixel Qi da im ersten Quartal 2010 erstmals ausliefern will, sind Displays mit einer Mischung eInk- und LCD-Display.
Damit kann man also augenfreundlich, scharf und gut lesbar Buchseiten (oder sonstiges Lesenswertes) darstellen, fast so angenehm für die Augen wie eine normale Buchseite. Nur in schwarz/weiß (bzw. Graustufen), aber dafür auch extrem stromsparend, weil nur dann Strom verbraucht wird, wenn sich der Displayinhalt ändert.
Zusätzlich können diese Displays über ihren LCD-Teil Farbiges und Bewegtes wie jedes übliche Computer-/Handy-Display darstellen.
Wenn sich Apple wirklich die Pixel-Qi-Displays gesichert haben sollte, wäre das ein echter Paukenschlag. Und das Apple Tablet würde noch viel mehr zu einem Gadget, das für mich fast zum Muss-Kauf würde, da wir ohnehin fürs Wohnzimmer noch etwas kleines, Surftaugliches brauchen.
Wenn man damit in eReader-Qualität auch noch Bücher lesen könnte, wäre das einfach nur perfekt.

Natürlich ist noch völlig unklar, ob Pixel Qis Partner tatsächlich Apple ist. Zumal weiter unten steht:
Pixel Qi will be at CES in Las Vegas in early January supporting our customers. We can’t yet announce with whom we will be showing but hope to shortly.
(Customers sind hier natürlich nicht die Endkunden, sondern die Firma, die die Displays verbauen will.)
Apple war noch nie auf der CES. Allerdings gab es Ende Juli Gerüchte, Apple wolle 2010 zur CES kommen.
In der Apple-Commuinty wurde das, wie im verlinkten Beitrag, für sehr unwahrscheinlich gehalten; vom WSJ, der Quelle des Gerüchts, schließlich sogar dementiert. So ein Tablet könnte aber ein Grund zum Messe-Auftritt sein, zumal mit einem eInk-Display völlig neue Kundenkreise angesprochen würden.
Ein eInk-Display war in letzter Zeit nicht Teil der aktuellen Gerüchte um das Apple Tablet. Es würde allerdings extrem gut zu den Gerüchten passen, dass Apple eine Plattform für Verlage ähnlich dem iTunes Store aufbauen möchte. Diesbezüglich hat Apple offenbar kürzlich verschiedene Verlage kontaktiert.

Insofern: Nichts genaues weiß man nicht, zumal noch nicht einmal ein „gewöhnlich gut Informierter“ etwas in dieser Richtung von sich gegeben hat. Es würde aber sehr gut zu den aktuellen Gerüchten passen – und es wäre mehr als nur „das gewisse Etwas“, um sich von der Konkurrenz abzusetzen.

Mittwoch, 9. Dezember 2009

Negatives zum N900

Heute bin ich auf einen kurzen Online-Artikel der FAZ gestoßen, den ich durchaus erhellend finde: Die erste Rezension eines Nutzers, dem das N900 nicht gefällt.
Und tatsächlich sind da Punkte gelistet, die ziemlich indiskutabel sind:
  • Tippen ist nicht möglich, wenn das Gerät auf dem Tisch liegt, weil die „Objektiv-Beule“ dazu führt, dass das N900 nur herumwackelt. Falls ein N900-Besitzer das liest: Geht das, wenn der kleine Ständer ausgeklappt ist? Wenn nicht würde mir das durchaus missfallen, auch wenn es nicht gerade ein Deal Breaker ist.
  • Keine HTML-Mails. Hallo? Das ist nun wirklich lächerlich. Das hat ein Smartphone zu beherrschen, und noch mehr wenn es als „Mini-Computer“ beworben wird, wie das N900. Unglaublich. Das ist ein Deal Breaker, solange es keine 3rd-Party-Software gibt, die diese Lücke schließt.Update: Fehlinformation.
  • Keine automatische Erkennung von Telefonnummern in Mails (und Webseiten, vermutlich?). Nicht arg schlimm, aber trotzdem fehlender Komfort, der heutzutage da sein sollte.
  • Keine Kennzeichnung in der Anrufliste, von welchem der einem Kontakt zugeordneten Nummern angerufen wurde. Hier bin ich mir nicht sicher, ob man da nicht noch eine Ebene tiefer in die die Anrufinformationen schauen kann, wie etwa beim iPhone – FAZ-Redakteure sind sicher keine Smartphone-Experten. Trotzdem – auch auf oberster Ebene sollte diese Information sofort erkenntlich sein, und es bedarf ja auch nur eines kleinen Wortes zusätzlich. Ich bilde mir allerdings ein, mal irgendwo gelesen zu haben, dass die Anrufliste und/oder die Kontaktliste zum telefonieren nur im Hochformat so richtig taugt, also wer weiß. Auch hier würde mich ein Kommentar eines Besitzers freuen.
In dem Artikel sind weitere Negativpunkte genannt, die ich aber entweder auf Wissensmangel der Redakteure zurückführe oder persönlich für unwichtig halte. Wer ein genaueres Bild möchte, sollte dem Link oben folgen.
Jedenfalls: Es wird immer klarer, dass vor einer Kaufentscheidung ein ausführlicher Test im Laden unverzichtbar sein wird.
Zum Glück wird wohl noch etwas Zeit vergehen, bis das Gerät für mich überhaupt theoretisch kaufbar wird: Ohne iSync-Plugin geht gar nichts.

Dienstag, 8. Dezember 2009

Zur Diskussion um eBooks

Bislang dachte ich immer, die Buchbranche sei einfach komplett taub, was eBook-Nutzer angeht, und die Manager würden sich in ihrem Elfenbeinturm anschicken, die Fehler der Musikbranche zu wiederholen, weil sie schlecht beraten wären und es einfach nicht besser wüssten.

Zwei Dinge sind mir dazu heute aufgegangen.
Erstens: Immerhin, innerhalb der Branche existiert sehr wohl gut informierte Diskussion zum Thema. Vor allem Ronald Schild, Geschäftsführer des MVB, drückt im Libreka-Blog, speziell hier und hier, genau das aus, was eigentlich allen klar sein müsste:
Um Piraterie so gering wie möglich zu halten, braucht es …
  • … ein großes eBook-Angebot, damit Kaufwillige nicht gezwungen sind, auf illegale Inhalte auszuweichen, weil es keine legale Quelle gibt.
  • … DRM-freie Angebote oder solche, die lediglich mit einem Wasserzeichen versehen sind, um nicht ehrliche Käufer gegenüber Tauschbörsennutzern zu benachteiligen.
  • … günstige Preise, die den gefühlten „Minderwert“ des eBooks gegenüber der gedruckten Ausgabe ausgleichen.
Eigentlich ist also alles klar. Eine gewichtige Stimme innerhalb der Buchbranche hat es deutlich und nachvollziehbar formuliert. Wer Ohren hat zu hören, der höre!
Libreka hat sogar extra zu diesem Zweck die Möglichkeit entwickelt, digitale Wasserzeichen ins ePub-Format einzubauen. Ob das genutzt wird, weiß ich nicht.
Die erwähnten Blogposts sind allerdings schon Monate alt, und Bewegung in der Verlagsbranche scheint sich derzeit nicht abzuzeichnen.
Warum, ich frage es mich immer wieder, warum nur will man krampfhaft versuchen, alles genauso falsch zu machen wie die Musikindustrie es tat?
Immerhin: Ein bisschen Stöbern bei libri.de bringt deutlich mehr Aktuelles hervor als noch vor ein paar Monaten, nicht selten liegen die Erscheinungsdaten der eBooks im Herbst 2009. Ein bisschen was tut sich also.
Aber: Weiterhin kosten fast alle eBooks das gleiche wie oder sind teils sogar teurer (!) als die günstigste gedruckte Ausgabe. Einige Cent mehr scheinen sogar recht häufig zu sein, in einem Fall fand ich gar ein Taschenbuch für € 7,–, während die eBook-Ausgabe € 8,99 kostete (Bertelsmann-Verlagsgruppe).
Was soll das?

Etwas erhellend kommt da meine zweite Erkenntnis des heutigen Tages ins Spiel: eBooks sind nicht wirklich billiger zu produzieren als gedruckte Ausgaben, oder jedenfalls nicht viel.
Als ehemaliger Buchhänder hätte ich mich daran schon früher erinnern können, aber erst jetzt kam es mir: In der Verlagskalkulation werden für die Herstellungskosten (inkl. Satz) maximal 15% des Nettopreises ohne Umsatzsteuer angesetzt. Für eine wirklich seriöse Kalkulation sollten es besser 10% sein.
Das senkt den Spielraum für billigere eBooks natürlich erheblich. Selbst bei einer Hardcover-Ausgabe sind 10% gerade einmal ein paar Euro.
Hinzu kommt ein weiteres Problem: Anders als bei papiernen Büchern muss für eBooks der volle Umsatzsteuersatz (19%) statt des reduzierten Satzes (7%) abgeführt werden. Für den Verlag bedeutet das 10% weniger Einnahmen bei gleichem Verkaufspreis.
Insofern sind gleichpreisige eBooks aus Sicht der Verlage ohnehin bereits reduziert, und zwar ziemlich genau um den Prozentsatz, den bei höheren Auflagen die Herstellungskosten ausmachen.
Da ist natürlich die Politik gefragt. Denn das Privileg des reduzierten Steuersatzes hat der Buch- und Zeitschriftenmarkt ja deshalb erhalten, weil er Kultur verbreitet. Das wird nicht wirklich anders, weil die Kultur jetzt in elektronischer Form vorliegt. Problematisch könnte natürlich sein, dass dann auch etwa der Inhalt von Webseiten unter die reduzierte Umsatzsteuer fallen könnte – vielleicht ist die schwierige Differenzierung einer der Gründe, warum das so gehandhabt wird.
So oder so: Auch wenn es weniger Gewinn für die Verlage bedeutet, der Kunde wird deutlichere Rabatte fordern. Das Medium, die Buchseiten sozusagen, hat er in Form des Readers ja für teures Geld selbst gekauft.

Ich kann mir schon vorstellen, dass das für die Verlage eine schwierige Situation darstellt, zumal die Digitalisierung der Backlist erst einmal deutlich mehr Geld kostet als bringt und bei Lizenztiteln (Übersetzungen) meist nicht einmal ohne Kauf zusätzlicher Lizenzen überhaupt möglich ist.
Trotzdem bleibt es Fakt: Wenn die Verlage sich nicht bewegen und das schnell tun, werden die Gesamtverluste durch neue Kosten und Piratierie sehr viel gravierender sein als bei zeitnaher Schaffung eines attraktiven Angebots.

Christoph Marzi

Heute einmal die Besprechung eines Buches, das ich gerade gelesen habe. Oder eigentlich fast mehr die Besprechung eines Autors:
Es handelt sich um Christoph Marzi und sein neues Buch Lyra.
Danny Darcy, der schon in „Fabula“ aufgetaucht war, hat mit einer Lüge zu kämpfen, die seine Mutter seiner Frau eingepflanzt hat: Sie glaubt, Danny mit eigenen Augen mit einer anderen Frau gesehen zu haben. Dannys Mutter Helen nämlich ist eine „Sherazade“ (also ganz absichtlich keine Sheherazade), die in der Lage ist, Geschichten zu erzählen, die für die Zuhörer Wahrheit werden. So bricht Danny mit seiner Frau zu den Sirenen auf, die heute in den Sümpfen Floridas leben, weil sie als Vorfahren der Sherazaden die einzigen sind, die in diesem Fall helfen können.
Klingt vermutlich etwas platt, nicht wahr?
Ist es aber überhaupt nicht. Christoph Marzi ist ein unglaublicher Erzähler, der in der gesamten Fantasy-Literatur seinesgleichen sucht. Das ist natürlich der Punkt, an dem zwingend der allgegenwärtige Tolkien-Vergleich kommen muss, und ich sage: Marzi ist besser als Tolkien. Viel besser.
Tolkien hat es zwar verstanden, ungeheuer faszinierende Welten zu erschaffen, mit einer Fantasie, die bis heute Basis vieler Fantasy-Romane ist. Trotz seiner hohen und ausgefeilten Sprache hat er aber eines mit den meisten anderen Fantasy-Autoren gemeinsam: Seine Bücher sind furchtbar trivial.
Bis auf wenige Ausnahmen sind die Rollen zwischen Gut und Böse klar verteilt, die guten sind Helden, die Bösen machen Fehler und/oder stolpern über ihre eigene Boshaftigkeit, und am Ende geht alles gut aus.
Marzi ist da wesentlich vielschichtiger. Zwar sind die Hauptpersonen meist ähnlich auf „gut und irgendwie Underdog-heldenhaft“ gestrickt wie bei Tolkien, richtig böse Figuren gibt es aber meist nicht. Selbst Figuren, die zunächst als die abgrundtief bösen Gegenspieler der Helden aufgebaut werden, entpuppen sich letztlich oft als Getriebene, deren Handeln zwar nicht schön, aber irgendwo verständlich ist – oder sogar alternativlos.
Vor allem in der Lycidas-Trilogie (Lycidas, Lilith, Lumen) hat Marzi meisterhaft solche Charaktere geschaffen.
Eine ganz besondere Faszination geht für mich aber von einem anderen Aspekt aus: Christoph Marzi kann Geschichten miteinander verweben wie kein anderer, und er scheint über einen nahezu enzyklopädischen Schatz davon zu verfügen.
Die Anspielungen auf und Einbeziehungen von Sagen, Romanen (teils treten sogar deren Figuren auf), Songtexten und historischen Begebenheiten sind in ihrer Anzahl fast schon grotesk. All das wird zu einer ganz neuen Geschichte verwoben, die aber immer völlig anders ist als zu erwarten gewesen wäre.
Die alten Geschichten erzählen bei Marzi nie die ganze Wahrheit, sondern nur einen Ausschnitt, und Marzi selbst liefert die „fehlende Information“, die den Blickwinkel vollkommen verändert und die Geschichten in einem ganz neuen Licht erscheinen lässt.
Zudem verbindet er sie so miteinander, dass alles perfekt ineinanderpasst, und das ohne dass mir je ein Fehler oder eine Veränderung an den Originalgeschichten aufgefallen wäre. Das macht Marzi so gut, dass ich mir fast sicher bin, dass es irgendwo im Internet schon Leute gibt, die darüber beraten, wieviel Wahrheit in seinen Büchern steckt und woher er das wohl weiß. :-)
Besonderen Spaß machen Christoph Marzis Bücher deshalb, wenn man sich gut in Mythologie und Esoterik auskennt, große Mengen besserer Literatur gelesen hat und die Texte von guten Songwritern (z.B. Dylan oder Cohen) kennt. Letzteres fehlt bei mir ziemlich, in den ersten beiden Kategorien kenne ich mich aber recht gut aus – und habe trotzdem den Eindruck, dass unzählige Anspielungen und Hommagen an mir vorbeigehen.
Die Neuinterpretation der alten Geschichten sind ungeheuer faszinierend. Ich kann das Genie, mit dem Marzi hier aus verschiedensten Puzzlestücken schlüssige Gesamtbilder erstellt, nur bewundern.
Gleichzeitig wohnt seinen Büchern eine etwas düstere Romantik inne, die mir ebenfalls sehr nahe liegt. Geschichten und ihr Wahrheitsgehalt haben immer einen großen Stellenwert und werden geradezu verehrt. Dazu kommt eine Welt, die nicht direkt böse ist, aber sicher indifferent, von der „die Guten“ letztlich nicht mehr zu erwarten haben als „die Bösen“.
Alles in allem kann ich diesen Autor nur wärmstens empfehlen. Er gehört mit Sicherheit zum Besten, was die Fantasy-Literatur (und nicht nur die deutsche) zu bieten hat, für mich ist er sogar der beste Autor seines Genres.
Als Leseempfehlung:
Um das Thema Geschichten erzählen, Macht der Geschichten und Musik drehen sich die Bücher Fabula und das neue Lyra (in dieser Reihenfolge, auch wenn die beiden Romane auch einzeln Sinn ergeben).
Mehr ins Mythologische (und für mich damit auch ins Faszinierendere) geht die Trilogie Lycidas, Lilith und Lumen mit dem zusätzlichen Band Somnia, der in der gleichen Welt, aber mit anderen Protagonisten spielt.

Donnerstag, 26. November 2009

Das N900 und das iPhone und der Mac

Nach und nach gibt es immer mehr Berichte über das neue N900 von Nokia, und ich muss sagen: Das klingt gut. Das klingt richtig gut.
Was mich im Speziellen reizt sind die große Offenheit der Plattform, die Integration von IM-Funktionen mit anderen Kommunikationsmöglichkeiten wie Telefon, E-Mail und SMS und nicht zuletzt, dass das Gerät im allgemeinen als „Computer mit Telefonfunktion“ beschrieben wird, statt dem „Telefon mit Zusatzfunktionen“, das die meisten Smartphones darstellen.
Klar, auch beim iPhone ist für mich die Nutzung der eigentlichen Telefonfunktion Nebensache. Viel mehr als das N900 bringt es aber Eigenheiten und vor allem Einschränkungen mit sich, die einem immer wieder klarmachen, dass das eben etwas ganz anderes ist als ein „kleiner Mac“.
Als das iPhone 3G herauskam, und mit ihm iPhone OS 2.0, war es ein absoluter Knüller. Es gab nichts, was ihm auch nur entfernt das Wasser reichen konnte, wenn es darum ging, das Internet in verschiedensten Ausprägungen auch unterwegs zu nutzen.
Heute ist das anders. Android- und WebOS-Telefone bieten ähnliche Möglichkeiten – vielleicht nicht ganz so perfekt, aber statt des himmelweiten Unterschieds stören nur noch marginale Kleinigkeiten.
Als Vorteil des iPhone wird immer wieder der AppStore genannt. Persönlich kann ich dazu mittlerweile nur noch müde lächeln. Ja, es gibt unglaublich viel dort, aber fast alles ist Kinderkram.
Ich bin kein Gamer, ich spiele weder am Computer noch am iPhone. Somit fällt eine Anwendungskategorie, in der das iPhone offenbar wirklich Qualität zeigt, für mich komplett flach – und mit ihr gleich ein Großteil aller Anwendungen, die überhaupt im AppStore erhältlich sind.
Dann natürlich die riesige Flut von „Fun-Apps“, die für mich totaler Blödsinn sind. Ein Getränk am Telefon austrinken, das war am Anfang ja noch ganz witzig. Aber eine Kerze ausblasen, wahlweise als Grafik auf dem Display oder mit dem Telefon eine echte, Lichtschwert-Sounds und natürlich hunderte von Furz-Applikationen? Das ist doch lächerlich.
Auf der anderen Seite fehlen aber Dinge, die mir eigentlich wichtig wären.
So gibt es nur eine einzige halbwegs benutzbare Kalender-Applikation. Apple lässt einen Zugriff auf den internen Kalender nicht zu, deshalb müssen externe Anwendungen eigene Datenbanken schaffen und sich selbst um Synchronisation kümmern. Für diesen Aufwand ist die Zielgruppe „ernsthafter“ iPhone-Anwender offenbar zu klein, ganz zu schweigen von möglicherweise in den Sand gesetzten Investitionen, weil man sich mit dem AppStore-Zulassungsprozess rumschlagen muss.
Fehlendes Multitasking mag eine bewusste Design-Entscheidung sein, aber dann muss man bei bestimmten Dingen für Ersatz sorgen. Das hat Apple nur teilweise getan. Die simple Möglichkeit, etwas Code oder eine Anwendung zu einem bestimmten Zeitpunkt ausführen zu lassen, fehlt etwa. So ist es unmöglich, einen sinnvollen (!) Wecker zu programmieren, der den arg beschränkten mitgelieferten ersetzen würde.
Es gibt keinerlei Möglichkeiten, verschiedene Einstellungsprofile zu definieren, geschweige denn, sie orts- oder wenigstens uhrzeitbasiert automatisch zu aktivieren.
Und was immer man tut, es muss das einzige sein. Gleichzeitig GPS-Daten aufzuzeichnen, wofür nun wirklich keine Anzeige auf dem Bildschirm notwendig ist, und telefonieren oder auch nur eine Adresse nachschlagen ist unmöglich.
Gute Synchronisation, wo man also das Telefon nicht so oft wie möglich per Kabel umständlich mit dem Computer verbinden muss, gibt es nur in Verbindung mit MobileMe. WLAN- oder Bluetooth-Sync, möglichst automatisch wenn das Gerät sich in der Nähe des Computers befindet, ist nicht vorgesehen. MobileMe aber kostet Geld, ist mit dem Zwang verbunden, eine @me.com-Adresse zu benutzen oder sich mit umständlichen Workarounds abzufinden, hat ein zwar hübsches, aber mit JavaScript dermaßen überladenes Web-Interface, dass es auf langsamen Rechnern nicht benutzbar ist und ist somit sein Geld nicht wert.
So sehr ich mein iPhone mochte, inzwischen gibt es Konkurrenz, die in für mich wichtigen Punkten besser ist, dafür aber nicht mit den nervigen Einschränkungen des iPhone geschlagen ist.
Heute würde ich das iPhone nur noch Leuten empfehlen, die vor allem spielen wollen. Für alles andere gibt es bessere Alternativen.

Zurück zum N900. Wie gut das letztlich zu mir passen würde, ist noch nicht ganz klar. Mir sind Kleinigkeiten wichtig, die in den diversen Reviews naturgemaäß nicht vorkommen.
So seltsam es klingen mag, ich kann es beispielsweise auf dem Tod nicht ausstehen, wenn ich die Labels für eine Telefonnummer/E-Mail-Adresse (Privat, Arbeit, Mobil usw.) nur aus einer vorgegebenen Liste auswählen kann, statt zusätzlich selbst freie Bezeichnungen zu vergeben. Epoc/Symbian konnte meinen Wunsch nach eigenen Labels schon immer erfüllen – ich hoffe nur, dass die enge Bindung an Microsoft dieses Feature nicht verschwinden lässt, denn Exchange kann das nicht.
Außerdem ist mir die Kalenderfunktion ein Herzensanliegen. DateBk auf dem Palm hat vorgemacht, wie gut ein Kalender auf einem so eingechränkten Gerät sein kann, welche Funktionen man bieten kann und wie schnell bedienbar ein PDA sein kann, wenn die Software etwas taugt. Ich habe nie sonst etwas gesehen, dass diesem Kalender das Wasser reichen konnte.
Am zweitbesten war aber der Epoc-Kalender, leicht abgewandelt später auf Symbian-Telefonen zu finden. So etwas leicht aufgebohrt, mit Zusatzfuktionen wie etwa Termin-Vorlagen versehen, das wäre ein Wort – gerne auch von Drittanbietern. Ich habe nichts dagegen, für Software zu bezahlen, wenn sie gut ist. Nur muss es sie erstmal geben.
Das sind Dinge, die ich mir im Laden einmal ansehen muss.

Bevor aber ein Kauf des N900 überhaupt denkbar wird, muss ein mehr als dickes Manko ausgeräumt werden: Die fehlende Synchronisation mit Mac OS X.
Man kann sich wohl mit einem Google-Account und ActiveSync behelfen, aber das ist aus mehreren Gründen keine Alternative:
  • Das, was OS X nativ als „Synchronisation“ mit Google bezeichnet, ist bestenfalls ein Witz. Kalender werden gar nicht synchronisiert, und Kontakte kommen zwar durch, aber es fehlt die Hälfte – zum Beispiel die Zuordnung zu Gruppen und die Geburtstage.
  • Abgeholfen werden kann dem mit BusySync (nur Kalender) oder SpanningSync (Kalender und Kontakte). Beides kostet Geld, Spanning Sync sogar jährlich neu.
  • Selbst wenn man das investiert, hat man noch nicht viel gewonnen: Offenbar kann das N900 via ActiveSync nur einen einzigen Google-Kalender synchronisieren (oder Google synchronisiert via ActiveSync nur einen Kalender?). Das ist ein Witz.
  • Die Kontakte scheinen nicht vollständig übertragen zu werden. Hier vermute ich prinzipielle Schwächen des ActiveSync-Protokolls, etwa das obegenannte Fehlen selbstbenannter Labels oder möglicherweise auch eine Beschränkung der maximal möglichen Einträge etwa für Telefonnummern oder Postadressen pro Kontakt. Da ich noch nirgends eine genaue Aussage darüber gelesen habe, was eigentlich fehlt, ist das aber Spekulation.
Fazit: Unbenutzbar. Hier bleibt also nur das Warten auf ein iSync-Plugin von Nokia. Beim N97 gab es das erst Ende Oktober, insofern wird es beim N900 möglicherweise bis Frühjahr dauern, bis Nokia das nachliefert.
Eines aber ist klar: Solange es von Nokia oder von dritter Seite keine sinnvolle Synchronisation mit Mac OS X gibt, ist das N900 keine Option.

Dienstag, 17. November 2009

Google Wave

So, jetzt habe ich also auch endlich einen Wave-Invite von Google bekommen. Zwar habe ich noch nicht richtig mit Freunden testen können, aber zumindest mit einem alten Bekannten und in ein paar öffentlichen Waves.
Bisheriges Fazit: Sehr, sehr cool.
Die Klagen, die man bisher oft lesen konnte, Google Wave sei überladen, unübersichtlich, zuviel des Guten usw., kann ich so nicht nachvollziehen.
Oder besser: Es gibt Dinge, für die Google Wave in seiner jetzigen Form einfach nicht sinnvoll einsetzbar ist. Dazu gehören mit Sicherheit größere Chats, in denen mehr als fünf oder zehn Leute gleichzeitig versuchen, miteinander zu kommunizieren.
Aber beginnen wir von vorne:
Man liest immer wieder, es sei schwer zu beschreiben, was Google Wave eigentlich ist. Auch das kann ich nicht nachvollziehen, es ist eigentlich ganz einfach:
Eine Wave ist so etwas wie ein Textverarbeitungsdokument, an dem mehrere Leute gleichzeitig arbeiten können. Jeder Teilnehmer an einer Wave kann weitere Teilnehmer hinzufügen. Wenn jemand etwas in eine Wave hineintippt und andere Teilnehmer gleichzeitig online sind, können sie demjenigen direkt beim Tippen zusehen.
Wie in einer Textverarbeitung auch können alle Einträge formatiert werden. Außerdem können Bilder, beliebige andere Dateien und auch „Gadgets“ eingefügt werden, die dann zusätzlich Funktionalität zur Verfügung stellen.
Von Google gibt es zum Beispiel ein Map-Gadget, mit dem gemeinsam Routen geplant und Orte markiert werden können, sowie ein Yes/No/Maybe-Gadget, mit dem beispielsweise die Teilnehmer einer geplanten Party zu- oder absagen können. Schon jetzt gibt es diverse Drittangebote; in Zukunft wird es sicher eine große Menge nützlicher Gadgets für die unterschiedlichsten Aufgaben geben.
Die Wave selbst ist in „Blips“ unterteilt, einzelne Nachrichten also, die das ganze ein wenig strukturieren und unterteilen. Diese Blips können vom ursprünglichen Autor selbst und auch von Anderen beliebig verändert werden, und man kann auf ein Blip direkt mit einem anderen Blip antworten, das dann eingerückt eingefügt wird.
Über das „Playback“-Feature kann man nachvollziehen, wie die Wave entstand und nach und nach verändert wurde. Keine Version der Wave ist also verloren, es bleibt immer nachvollziehbar, wer wann was geändert hat.
Waves sind normalerweise nur für ihre Teilnehmer einseh- und veränderbar. Durch Hinzufügen eines Pseudo-Benutzers kann man eine Wave aber als „public“ definieren. Somit kann sie jeder sehen und daran teilnehmen.

Aus diesen Punkten ergibt sich klar, wofür Google Wave momentan geeignet ist und wofür nicht:
  • Chats mit vielen Leuten sind Unsinn und werden sehr schnell sehr unübersichtlich. Nicht nur kann an mehreren Stellen gleichzeitig etwas passieren, diese Stellen können auch noch sehr weit auseinanderliegen, also ganz am Anfang und ganz Ende einer Wave. Das kann man in Echtzeit nicht mehr überblicken.
  • Waves mit vielen Teilnehmern sind oft sehr langsam. Auch deshalb sind sie eher zu vermeiden.
  • Wo viele Leute viel editieren, und das an unterschiedlichsten Stellen, „zerfasert“ die Information, und es entsteht ziemliches Chaos. Das ist wie als hätte man alle Artikel einer Newsgroup gemeinsam in einem Dokument, das sich bei neuen Posts jeweils ändert, und man würde versuchen, da den Überblick zu behalten. Nicht sinnvoll.
  • Genial ist Google Wave allerdings, um einfach mit ein paar Freunden zu kommunizieren. Man richtet sich eine gemeinsame Wave ein, und wer etwas interessantes zu berichten hat, schreibt es rein. Die anderen sehen es dann, wenn sie sich das nächste mal einloggen, und wenn man zufällig gleichzeitig online ist, kann man gleich miteinander chatten.
  • Auch, wenn kleine Gruppen etwas gemeinsam planen oder erarbeiten, ist Google Wave nahezu perfekt.
Gerade der erste positive Punkt, die Freunde-Wave, ist für mich sehr überzeugend. Das ist genau das, was ich mir schon länger gewünscht habe. Die Zeiten, wo viele Freunde und ich selbst praktisch jeden Abend online waren, sind einfach vorbei – hier ist endlich das Tool, mit dem man sinnvoll ansynchron chatten kann!

Momentan gibt es allerdings auch noch einige Kinderkrankheiten, die ich nicht verschweigen will:
  • Manchmal lässt das Tempo zu wünschen übrig. Das hat sich bei meinen Versuchen bisher aber in Grenzen gehalten.
  • Man kann sich nicht aus einer Wave wieder entfernen. Zwar kann man Updates ignorieren, man bleibt aber immer als Teilnehmer gelistet. Das ist vor allem insofern problematisch, als man (außer bei Public Waves) in der Regel von Anderen zu einer Wave hinzugefügt wird. Was, wenn mich ein unbekannter Scherzbold in einer Public Wave entdeckt und mich zu einer Kinderporne-Wave hinzufügt? Nicht lustig. So ein Remove soll aber bald möglich sein.
  • Bisher gibt es keinerlei Möglichkeiten (außer in Grenzen mit Bots), einen Blip vor Veränderungen durch andere zu schützen. Damit ist in Public Waves nicht nur Spammern Tür und Tor geöffnet, auch Trolle können beliebig Leute ärgern. Wie sinnvoll Public Waves überhaupt sind, ist zwar wie gesagt fraglich, aber ohne solche Möglichkeiten werden sie mit steigender Userzahl des Diensten komplett unbenutzbar werden.
Fazit: Ich finde Google Wave klasse. Vor allem die Möglichkeiten, die sich zukünftig mit eigenen Wave Providern (Servern für den Wave-Dienst) bieten werden, klingen vielversprechend. Dazu werde ich noch einmal gesondert posten.
Trotzdem werden viele Neu-User enttäuscht sein. Wenn ich lese, dass manche Wave als einen Ersatz für Webforen verstehen, kann ich nur den Kopf schütteln. Eine Art Wiki vielleicht, aber sicher kein Forum. Auch Massenchats sind prinzipbedingt einfach Quatsch, zumindest mit den aktuellen Möglichkeiten.
Für bestimmte Anwendungen ist es aber schon jetzt spitze. Gut gemacht, Google!

Mittwoch, 11. November 2009

Lesenswerte Links: Ernährungsunsinn

Ein sehr schöner Artikel auf Spiegel Online, der sich mit dem Unsinn der ständig wechselnden Ernährungsratschläge beschäftigt. Es erschließt sich mir zwar nicht, warum in der chinesischen Ernährungslehre, die der Autor offenbar für gut hält, mehr Wahrheit stecken soll als in den Plattitüden westlicher Ernährungsratgeber, aber abgesehen davon ist der Artikel wirklich zu empfehlen.

Und jetzt wollen doch alle geimpft werden …

Schade. Ich hatte schon gedacht, dass sich tatsächlich Einsicht durchsetzt und „das Volk“ nicht beliebig manipulierbar ist. Denkste.
Mit einer beispiellosen Kampagne haben es die Panikmacher doch noch geschafft, dass die große, dumme Herde wie Lemminge zu den Ärzten strebt und sich impfen lässt.
Neue Erkenntnisse, die das Impfen sinnvoller erscheinen lassen würden als vor ein paar Wochen, gibt es natürlich nicht. Nur 40.000 Infizierte und im Verhältnis dazu lächerliche 12 Tote.
Beides wird von den Medien in einer Weise aufegebauscht, die dem Ereignis nicht angemessen ist. Außerdem sind plötzlich die besonnenen Experten wieder aus der Öffentlichkeit verschwunden, und nur die Panikmacher sind noch zu lesen, zu sehen und zu hören. Ein Schelm, wer Böses dabei denkt.
Menschen, für die eine Grippe-Impfung aus welchen Gründen auch immer bislang schon ratsam erschien, sollten sicher darüber nachdenken, ob auch die Schweinegrippe-Impfung Sinn machen könnte. Wegen des im allgemeinen milden Verlaufs ist aber nicht einmal das eine zwingende Folgerung.

12 von 40.000, das sind 0,3 Promille. Hinzu kommt eine große Dunkelziffer von Leuten, die die Schweinegrippe hatten, aber nicht einmal von der Arbeit zu Hause blieben, weil sie sich dafür nicht krank genug fühlten. Umgekehrt wird zur Zeit sicher jeder Tote mit Grippesymptomen auf H1N1 untersucht.
Tatsächlich liegt die bisherige Letalität von Schweinegrippeinfizierten in Deutschland also vermutlich unter 0,1 Promille. Verglichen damit ist die normale saisonale Grippe (Letalität ca. 1-5 Promille) ein wahrer Horror-Killer mit prozentual 10-50x so vielen Toten (wenn auch weniger Infizierten).
Trotzdem rennen jetzt alle zu den Ärzten, auch die, die an eine Impfung gegen die saisonale Grippe nicht im Traum gedacht hätten.
Gut gemacht, Pharmaindustrie, das muss man dir lassen. Du hast wahrlich Grund, dir ins Fäutschen zu lachen.
Wir anderen sollten vielleicht an die ständig steigenden Kosten des Gesundheitssystems denken, an immer weiter steigende Kassenbeiträge, deren Zuwachs der Arbeitnehmer zukünftig zudem alleine wird tragen müssen, an Medizin, die immer Teureres immer Unnützeres anzubieten hat – und uns überlegen, ob wir diesen Nepp zur Gewinnsteigerung der Pharmariesen wirklich mitmachen wollen.

Sonntag, 1. November 2009

CUN läuft

Nach längerer Zeit heute endlich wieder ein Post – ich war eine Weile krank, und danach habe ich mich in meiner Freizeit mehr mit dem Thema des heutigen Posts als mit meinem Blog auseinandergesetzt.
Der CUN – das ist, wie schon einmal geschrieben, eine netzwerkfähige Platine, die sich außerdem auf 868-MHz-Funk versteht und mit passender Firmware zur Kommunikation mit Hausautomatisierungsbausteinen aus den Serien FS20 (Hausautomatisierung und -überwachung), FHT (Heizungssteuerung), EM (Verbrauchsdatenüberwachung) und KS300 (Wetterdaten) eingesetzt werden kann.
Als der CUN endlich da war und ich mit dem testen beginnen konnte, häuften sich zunächst die Probleme. Nach anderthalb Tagen stand schließlich fest, dass mein FHT-80b (Thermostat mit Display zur Heizungsregelung) schlicht kaputt war. Nach einem Umtausch bei Conrad waren die schlimmsten Probleme erstmal weg.
Trotzdem: Der CUN stürzte immer ziemlich schnell wieder ab. Nach ziemlich viel Debugging konnte der Fehler gefunden werden, und Rudolf König hat die Version 1.31 der Firmware ins CVS gestellt – damit scheint jetzt alles zu funktionieren wie gewünscht.
Mittlerweile kann die Firmware übrigens auch selbst Stellventile ansprechen. Grundsätzlich kann damit also auch ohne Raumthermostat jetzt eine Regelung erfolgen – zu einer entsprechenden Steuersoftware für FHEM gibt es bislang allerdings nur erste Experimente.
Nachdem die ersten Tests mit FHEM auf dem Mac soweit erfolgreich waren, wollte ich es jetzt auf Fritzbox umziehen, wo es letztlich dann ja laufen soll. Natürlich ist unser einziger USB-Stick, der seit Ewigkeiten nur im Weg rumlag, jetzt nicht mehr aufzufinden. Jetzt, wo ich ihn zum ersten mal wirklich bräuchte.
Finanziell ist das natürlich kein Beinbruch, aber es ist ärgerlich, dass diese Tests jetzt bis nächste Woche warten müssen.
Immerhin war ich heute noch einmal im Haus (wir haben einstweilen schon einmal die Schlüssel bekommen) und weiß jetzt, welche Ausstattung insgesamt notwendig sein wird. Damit es noch mehr Spaß macht und auch günstiger wird, habe ich beschlossen, bei ELV die Bausätze statt der fertigen Geräte zu bestellen. Wird auch Zeit, dass ich mal wieder einen Lötkolben in die Hand nehme.

Freitag, 16. Oktober 2009

Lesenswerte Links: Trauerspiel der Atomindustrie

Spiegel Online berichtet ausführlich über den Bau des neuen finnischen Atomreaktors in Olkiluoto, der viel zu teuer wird und sich vor allem durch eine nicht enden wollende Serie von Pannen und große Inkompetenz der beteiligten Baufirmen auszeichnet.

Google könnte Verlage retten?

Bei Spiegel Online ist ein sehr lesenswerter Artikel über die deutschen Verlage und ihren Lieblingsfeind Google erschienen. Tenor: Die deutschen Verlage kriegen kein E-Book-Angebot auf die Reihe, das diesen Namen verdient, beklagen sich über die Marktmacht von Thalia und anderen Ketten, aber indem sie das offene System von Google torpedieren, manövrieren sie sich jetzt, wo sie die Zukunft des Buchmarktes bestimmen könnten, genau wieder in die gleiche Lage.
Das ist nur bedingt richtig: Zwar will Google im Gegensatz zu Amazon tatsächlich ein offenes System bieten, das für viele Lesegeräte inkl. Browser eine Plattform bietet. Tatsächlich ist aber auch die Chance groß, dass dann eben genau Google zu der marktbeherrschenden Stellung heranreift, die im stationären Buchhandel in Deutschland Thalia einnimmt.
Natürlich: „Zugangsbeschränkungen“ für kleine Verlage wie Thalia wird es bei Google sicher nicht geben. Auch sind die 33% Rabatt, die die Verlage Google einräumen sollen, geradezu traumhafte Bedingungen, verglichen mit dem, was Thalia oder Amazon fordern.
Aber was ist in zehn Jahren? Wenn Google gut ist – und Google kann sowas – wird die erste Anlaufstelle für eBooks dann für ebensoviele Menschen Google sein, wie sie es heute schon bei der Wahl der Suchmaschine ist. Dass die Verlage davor Angst haben, ist verständlich.
Denn wer weiß schon, ob Google sich dann immer noch mit 33% zufriedengeben wird? Wird der Konzern seine Marktmacht dann nicht ebenso ausnutzen, wie Thalia, Hugendubel und Amazon es heute tun?
Das ist schwer einzuschätzen. Immerhin ist Google einer der ganz wenigen Konzerne, denen zuzutrauen ist, dass es tatsächlich bei diesen Konditionen bleiben wird. Von Sicherheit kann aber absolut keine Rede sein.
Die Entwicklung der nächsten Jahre dürfte äußerst spannend werden.

eBooks und DRM

Das hier sollten sich die großen Panikmacher in den deutschen Verlagen einmal auf der Zunge zergehen lassen: O'Reilly-Bücher verzeichnen einen zweiten deutlichen Umsatzsprung (der erste findet bei Erscheinen statt), sobald sie in Tauschbörsen auftauchen.
Satte 90% Umsatzplus gibt es Schnitt, sobald ein Buch kostenlos online zu haben ist. Dabei wäre gerade bei O'Reilly, wo nicht der geringste Kopierschutz benutzt wird und außerdem der Inhalt für Tauschbörsennutzer besonders interessant ist, ein besonders hoher Verlust zu erwarten gewesen.
DRM an sich muss nicht schlecht sein – es darf nur nicht einschränkend wirken. Die Erfahrungen der Musikbranche zeigen, was funktioniert und akzeptiert wird:
  • Nutzung auf beliebig vielen Geräten muss möglich sein. Wer sich öfter neue Geräte kauft, darf dadurch nicht gezwungen werden, entweder rechtswidrig den Kopierschutz zu umgehen oder für einen bereits erworbenen Titel noch einmal zu bezahlen.
  • Die Angebote müssen günstiger sein als als das entsprechende „Real-Life-Medium“, um es einmal so zu bezeichnen. Jedem Käufer ist klar, dass das Label bzw. der Verlag weniger für die Bereitstellung von Online-Inhalten zahlen muss als wenn eine CD oder ein Buch produziert, verpackt und transportiert werden muss. Diesen Geldvorteil wollen die Kunden auch am Preis sehen, sonst fühlen sie sich abgezockt, zumal sie für einen Teil der Transportkosten durch ihren Internetanschluss ja sogar selbst aufkommen. Für manche User ist eine überhöhte Preispolitik gerade der Grund, sich nach gecrackten Angeboten umzusehen.
  • Kopierschutz funktioniert sowieso nicht. Meines Wissens gibt es keinen einzigen Versuch, digitales Kopieren zu verhindern, der nie geknackt wurde. Dadurch ergibt sich die Situation, dass die diejenigen, die sich illegal Inhalte besorgen wollen, auch mit Schutz problemlos ihr Ziel erreichen, während die ehrlichen Kunden in der Nutzung der bezahlten Inhalte eingeschränkt werden.
  • Digitale Wasserzeichen sind ok. Die Praxis zeigt, dass Kunden es akzeptieren, wenn ein heruntergeladenes Objekt die Rückverfolgung zu seinem Käufer ermöglicht. Das ist auch logisch, da nur ein verschwindend geringer Bruchteil der Kunden überhaupt vorhat, die erworbene Ware in Tauschbörsen anzubieten. Natürlich lässt sich auch dieser Schutz entfernen; er setzt aber zumindest eine kleine Hürde vor das beliebige Weitergeben des Objekts.
Statt sich ständig ins Hemd zu machen, weil bestimmt alle eBooks sofort überall weitergetauscht werden und sowieso keiner mehr dafür bezahlt, sollte sich die Verlagsbranche lieber die Chancen klarmachen, die in eBooks stecken:
  • Stark reduzierte Kosten in Produktion und Vertrieb. Teilweise sollten diese, wie oben vermerkt, an die Kunden weitergegeben werden, aber eine kleine zusätzlich Marge bleibt mit Sicherheit.
  • Neue Käuferschichten
  • Da eine Zurverfügungstellung online praktisch keine Lagerkosten und überhaupt keine Nachproduktionskosten mit sich bringt, müssen Titel nicht mehr vergiffen gemeldet werden. Natürlich werden die Käufe mit der Zeit zurückgehen, aber schon weniger als zehn Käufe im Jahr würden Gewinn abwerfen. Dadurch wären erhebliche zusätzliche Umsätze möglich, und die Kunden würden sich über den Service freuen.
  • Da im eBook-Bereich kein Gebrauchtmarkt existiert, können auch darüber zusätzliche Umsätze erschlossen werden. eBooks kann man nicht weiterverkaufen; jeder Leser muss seine eigene Kopie neu im Buchhandel erwerben.
Ich frage mich wirklich, wo die große Angst der Verlage herrührt. Wohl von den Verlusten, die die Musikbranche in den letzten Jahren eingefahren hat?
Ja, die Musikbranche ist ein gutes Beispiel: Sie hat von Anfang an alles falsch gemacht. Erst gab es gar keine offiziellen Angebote, dann nur schlechte, und erst im letzten Jahr, nach etwa einem Jahrzehnt des Lavierens, wurden Angebote geschaffen, wie die Kunden sie sich von Anfang gewünscht hatten.
Ist es da ein Wunder, dass die Kundschaft in großen Zahlen auf illegale Angebote auswich?
Die deutsche Verlagsbranche zeigt derzeit leider genau die selben Symptome wie die Musikbranche vor einigen Jahren: Obwohl der Markt boomt, werden nur sehr zögerlich überhaupt Angebote geschaffen. Die sind aber zu teuer und mit zu restriktivem DRM ausgestattet.
Warum will man nicht aus den Fehlern anderer lernen?

Gletscher geben alte Gifte frei

Wie Spiegel Online berichtet, konnten Forscher im Sediment hochalpiner Seen hohe Konzentrationen längst verbotener Giftstoffe feststellen. In den Schichten aus den Sechziger- und Siebzigerjahren waren die Konzentrationenen der POPs wie DDT erwartungsgemäß hoch.
Neu ist, dass die Konzentrationen nach einer Abnahme, die nach dem Verbot der Stoffe erfolgte, seit den Neunzigerjahren wieder ansteigen. Der Grund ist wahrscheinlich, dass die Gifte in sich in Gletschern ablagerten, die jetzt immer mehr abschmelzen und die Gifte dadurch wieder freigeben.
Teilweise sind heute sogar größere Konzentrationen zu messen als während der Zeit der eigentlichen Nutzung.
So fallen alte Sünden wieder auf uns zurück.

N900 und Mac geht nicht

Ich wollte schon länger wissen, ob sich ein N900 von selbst mit einem Mac verstehen wird wie die meisten anderen Nokia-Smartphones. Jetzt hab eich dazu mal eine Google-Suche durchgeführt und muss feststellen: Pustekuchen.
Tja. Damit scheidet das N900 erstmal komplett aus, bis es entsprechende Möglichkeiten gibt. Für den Kalender wäre Sync via Google möglicherweise ausreichend (falls mehrere Kalender unterstützt werden), das habe ich jetzt wegen PocketInformant am iPhone auch schon so. Bei den Kontakten geht aber beim Sync zu Google die Hälfte verloren; das hätte ich schon gern besser.
Schade. Das N900 hat soeben 90% seiner Attraktivität für mich verloren. Hoffentlich bessert Nokia da noch nach.

Aktuellere Informationen hier.

Neues Labs Feature für Google Mail: Mehrere Posteingänge

In Google Mail gibt es eine neue Labs-Funktion, die wirklich klasse ist: Mehrere Posteingänge.
Damit kann man mehrere, nennen wir es „Ordneransichten“ unter- oder nebeneinander darstellen, ohne jedesmal den Ordner wechseln zu müssen. (Ich weiß, in Google Mail gibt es keine Ordner, aber so lässt sich das Konzept am leichtesten erklären.)
Ein Bild sagt mehr als tausend Worte:

 

Die  unteren „Posteingänge“ sind bei mir grundsätzlich Labels, aber jede beliebige Suchanfrage lässt sich so darstellen. So kann endlich der eigentliche Posteingang nur noch Mails enthalten, die wirklich neu gekommen sind, alle anderen können mit Labels versehen werden, verschwinden damit aber nicht aus der Aufmerksamkeit.
Sehr praktisch.
Wie im Bild zu sehen, wäre es aber angenehm, wenn der eigentliche Posteingang dann auch schmaler würde und nicht so viel Platz verschwenden würde, um gar keine Mails anzuzeigen …
Für die, die es nicht wissen: Labs (noch nicht freigegebene Features für Google Mail, quasi im Beta-Status) können in den Einstellungen unter „Labs“ aktiviert werden. Es gibt dort mehrere höchst sinnvolle Funktionen; ein Blick dorthin lohnt sich auf jeden Fall.
Update: Ich sehe grade, dass dieses Feature zumindest auf Englisch schon seit Februar gibt. Entweder ist die deutsche Version neu oder ich habe es bisher einfach übersehen.

Donnerstag, 15. Oktober 2009

Neuro-Enhancement: Drogenkonsum in neuem Gewand

Durch eine aktuelle Studie, die u.a. in der Netzeitung zitiert und erklärt wird, sind sogenannte „Neuro-Enhancement-Präparate“ oder auch NEPs etwas mehr in den Fokus der Öffentlichkeit gelangt. Um ein anderes Buzzword zu benutzen: Gehirn-Doping.
Beides sind eher positiv bzw. negativ aufgeladene Begriffe, die von Gegnern und Befürwortern dieser Medikamente benutzt werden.
Um es klar auszudrücken: Es geht darum, bewusstseinsverändernde Substanzen einzunehmen, die die Leistungsfähigkeit steigern oder das Allgemeinbefinden verbessern sollen.
Diese Definition zeigt das Problem: Was von Befürworten hübsch mit neurologischer Verbesserung umschrieben wird, unterscheidet sich nicht im Geringsten vom klassischen Drogenkonsum. Sogar die Zielgruppen sind die gleichen:
Ähnlich wie in manchen Bereichen des höheren Managements Kokain zum guten Ton gehört, Speed für lange Arbeitsnächte zur Verfügung steht, versprechen neue Präparate Leistungssteigerungen in den Bereichen Selbstvertrauen und Durchhaltevemögen.
Neue Pillen zum Glücklichsein werden dagegen eher Nutzer von MDMA (Bestandteil von Ecstasy) oder THC (Hauptwirkstoff von Cannabisprodukten) ansprechen.
Und natürlich werden damit ganz neue Käufergruppen erschlossen: Legal soll das ganze nach dem Willen der Studienautoren werden; man verbiete ja auch nicht den Zigarettenkonsum oder das Online-Spielen.
Wenn da mal nicht Äpfel mit Birnen verglichen werden: Ja, Online-Spiele können süchtig machen. Abgesehen von den sozialen Folgen jeder Sucht sind aber kaum körperliche und wenig psychische Nebenwirkungen zu erwarten – ganz anders als bei NEPs. Und Zigaretten erzeugen körperliche Sucht und schädigen den Körper, eine Bewusstseinsveränderung tritt dabei aber kaum ein.
Ich stimme mit den Autoren der Studie allerdings überein, dass eine breite gesellschaftliche Diskussion über das Thema wichtig wäre.
Momentan läuft das Geschäft vor allem über illegale Kanäle. Es werden verschreibungspflichtige Medikamente wie Ritalin aus dubiosen Quellen besorgt oder es wird gleich zu illegalen Drogen gegriffen.
Dass das so nicht sinnvoll ist, ist klar. Bei illegalen Drogen ist die Zusammensetzung und Dosis oft nicht erkenntlich, und die Wirkung verschreibungspflichtiger Medikamente auf Gesunde wird im allgemeinen nicht getestet. Studien zu Langzeitfolgen fehlen ebenso.
Die Autoren plädieren letztlich für ein Recht zur Bewusstseinsveränderung. Diese Forderung war in den letzten Jahrzehnten eher von Befürwortern einer weitgehenden Drogenlegalisierung zu hören.
Die Erfolgsaussichten für solche Versuche dürften jetzt aber wesentlich höher stehen: Die Pharma-Lobby hat in Deutschland schon immer ein hohes politisches Gewicht gehabt, und mit solchen Präparaten wäre ungeheures Geld zu verdienen.
Die Entwicklung muss auch nicht unbedingt schlecht sein, denn natürlich werden die Pharmakonzerne im Wettbewerb versuchen, die Nebenwirkungen so gering wie möglich zu halten. Ein bereits existierendes Beispiel dafür ist Ritalin, das, zerstoßen und geschnupft, auf Gesunde eine Wirkung haben soll, die der eines milden Speed-Trips ähnlich ist – nur ohne „Runterkommen“ und mit weniger sonstigen Nebenwirkungen. Kein Wunder, dass viele angebliche ADHS-Kinder ihre Pillen lieber auf dem Schulhof verkaufen als sie selbst zu nehmen.
Problematisch ist dagegen der moralische Druck, der durch eine breite Verfügbarkeit solcher Mittel erzeugt werden könnte.
Eine nahestehende Person ist gestorben? Kein Grund, zu Hause zu bleiben! Es gibt schließlich Pille x, damit wirst du gar nicht mehr daran denken müssen!
Du bist überarbeitet und leidest unter Stress? Tut mir ja leid, aber wenn Du Dir zu fein bist, um Pille y zu nehmen, wirst Du Dir leider einen neuen Job suchen müssen!
Das klingt nicht nach erstrebenswerten Zukunftsaussichten. Zumal solche Wirkungen ganz ohne Nebenwirkungen selbstverständlich nicht zu haben sind.
Ich glaube nicht, dass es möglich sein wird, die Leistung oder das Glücklichsein einfach so zu steigern, ohne auf die eine oder andere Weise dafür zu bezahlen.
Vielleicht gelingt es den Pharmafirmen, einen angenehmen Glücksrausch zu entwickeln, der nicht dazu führt, dass der Kopf noch während des ganzen nächsten Tages in Watte gepackt ist wie bei THC. Vielleicht erfinden sie Substanzen, die Aufmerksamkeit und Arbeitswillen steigern, ohne gewissenlose Egomanen zu produzieren, wie Kokain es tut.
Insgesamt wird aber das künstliche Glück nicht ohne die folgende Ernüchterung (oder das Halten des Spiegels -> Sucht) zu haben sein, drei Tage Durcharbeiten nicht ohne massive Ermüdung (oder Sucht und/oder psychische Schäden).
Deshalb bleiben Drogen Drogen, auch wenn man sie Neuro-Enhancement-Präparate nennt.
Entsprechende Ehrlichkeit im Diskurs wäre wünschenswert.
Immerhin wäre das Geschäft dann von der Drogen-Mafia hin zu den Pharmakonzernen verschoben. Ob das Geld dort besser aufgehoben ist, sei einmal dahingestellt, aber immerhin ginge keine zusätzliche Gefahr mehr vom Gepansche der Drogenverkäufer aus.

Soll man so eine Entwicklung befürworten? Den internationalen Drogenkartellen den Boden zu entziehen wäre sicher ein guter Schritt, auch die Probleme, die mit den zwielichtigen Quellen illegaler Drogen und verschreibungspflichtiger Medikamente ohne Rezept zusammenhängen, ließen sich dadurch einschränken.
Andererseits würde die legale Verfügbarkeit solcher Substanzen deren allgemeinen Gebrauch auch massiv erhöhen, was weniger erstrebenswert ist.
Die Abwägung ist schwierig, Ehrlichkeit in der Diskussion umso wichtiger.
Die Frage muss deshalb lauten: Wollen wir neue, bessere Drogen mit weniger Nebenwirkungen legal verfügbar machen oder sollte deren Verkauf/Beschaffung illegal bleiben?

Sony Reader PRS-505 für € 199,–

Seit ein paar Tagen gibt es den Sony Reader PRS-505 bei libri.de für € 199,–. Damit ist die Preisgrenze unterschritten, die ich mir für einen 6"-eBook-Reader gesetzt hatte.
Dummerweise habe ich – nicht mit einer so schnellen Preissenkung rechnend – mit meiner Mutter vereinbart, dass sie sich mit weiterer Verwandschaft zusammentut, um mir dieses Gerät zu Weihnachten zu schenken. Jetzt werde ich also warten müssen. :-/

Samstag, 10. Oktober 2009

Zum Google Book Settlement

Heute ist im offiziellen Google-Blog ein Artikel erschienen, der Googles Sicht auf das geplante Book Settlement beschreibt. Und ich muss gestehen, er ist ziemlich überzeugend.
Mein Hauptkritikpunkt war, dass exklusiv nur Google die Rechte an den vergriffenen Werken eingeräumt werden sollen. Google sagt dazu in dem Artikel, dass nichts an dem Settlement andere Wettbewerber daran hindere, ebefalls solche Verträge anzustreben.
Wenn das stimmt, wenn die Verträge also zwar nicht für andere automatisch mitgelten, aber auch kein exklusives Nutzungsrecht für Google ausgesprochen wird – dann ist doch wirklich alles in Ordnung.
Dann kann ich den Mitbewerbern nur zurufen: Setzt Euch doch selber auf den Hosenboden und tut was, Ihr Säcke, und blockiert nicht ein an sich sinnvolles Vorhaben, weil Ihr zu spät losgelaufen seid und jetzt vielleicht nicht mehr das Geld damit verdienen könnt, das Google verdienen wird!
Wettbewerb ist immer nur dann toll, wenn man selbst Marktführer ist, nicht wahr?

Freitag, 9. Oktober 2009

Peak Oil

Eine von Spiegel Online zitierte, neue Studie geht von Peak Oil um 2020 herum aus, früher also, als viele Studien der Ölkonzerne ihn sehen, wo meist von 2030 oder später ausgegangen wird.
Für die, die noch nichts von Peak Oil gehört gehört haben: Problematisch wird die Sache mit dem versiegenden Öl für Wirtschaft und Verbraucher nicht erst dann, wenn kein Öl mehr da ist, sondern wesentlich früher: Dann nämlich, wenn die Fördermengen nicht mehr gesteigert werden können und trotz wachsender Nachfrage immer weniger Öl die Märkte erreicht.
Dieser Zeitpunkt wird als Peak Oil bezeichnet. Ab dann werden die Preise wahrscheinlich dermaßen explodieren, dass es zu massiven Problemen in der Wirtschaft kommt. Und natürlich wird es auch die Verbraucher treffen, die dann nach und nach Schwierigkeiten bekommen werden, das Autofahren und die Heizung zu finanzieren. Soweit das bis dahin noch über Erdöl oder Erdgas läuft, natürlich.
Es sind aber auch noch ganz andere Bereiche betroffen, an die man zuerst gar nicht denkt: Es gibt sehr viele Produkte des täglichen Lebens, die zu nicht unerheblichen Bestandteilen aus Erdöl bzw. Erdölderivaten bestehen; die meisten Kunststoffe, zum Beispiel. Auch dafür wird man Ersatz schaffen müssen.
Die große Frage ist, wann Peak Oil stattfinden wird. Die ölfördernden Nationen lassen sich da nicht gerne über die Schulter schauen, und die Studien der Ölindustrie neigen naturgemäß zur Schönfärberei. Dort wird meist von einem Zietpunkt nach 2030, teils sogar 2050 ausgegangen. Schön wärs, dann hätten wir noch ein bisschen Zeit.
Die vom Spiegel zitierte Studie nennt nach Auswertung hunderter anderer Studien und Datenbanken jetzt 2020 als wahsrcheinlichen Zeitpunkt. Hauptautor Steve Sorrell geht statt von einem Peak, einem einmaligen Gipfel in der Ölförderung eher von einem „hügeligen Plateau“ aus, was ich ebenfalls für sehr wahrscheinlich halte. Und die Frage ist, ob wir nicht dort sogar jetzt schon sind.
Es gibt nämlich nicht nur Stimmen wie die der IEA, die schon ab 2015 vor Versorgungsengpässen warnen, sondern auch solche wie die von Colin J. Campbell, der das Maximum schon 2008 errreicht sieht.
Die letzten Zahlen der IEA scheinen das zu bestätigen, allerdings weiß ich nicht, wie sehr die Produktion in 2009 wegen der Wirtschaftskrise und dem damit einhergehenden Preisverfall absichtlich heruntergefahren wurde.
Klar scheint jedenfalls zu sein, dass das Ölfördermaximum spätestens innerhalb der nächsten 10-15 Jahre zu erwarten ist. Sicher werden die Preise nicht direkt bei Erreichen des Maximums in die Höhe schnellen, aber spätestens wenn allen klar ist, dass es nie wieder so viel Öl auf dem Markt geben wird wie zum Zeitpunkt des Maximums, dürften die Preise steil in die Höhe gehen. Zum Anstieg durch den Markt selbst, wie er letztes Jahr schon zu beobachten war, kommt dann nämlich noch die psychologische Komponente hinzu.
Ich schätze, das dieser Zeitpunkt ca. 3-5 Jahre nach dem eigentlichen Fördermaximum erreicht sein wird. Vorher wird in Poilitk und Industrie das allgemeine Abwiegeln vorherrschen, wie üblich.
Ein Gutes wird die Situation aber auf jeden Fall haben: Dann wird endlich wirklich ernsthaft Geld in erneuerbare Energien gesteckt werden.

Kalender des N900

Hier ein Video zum Kalender des bald erscheinenden Nokia N900:



Leider sieht man nicht wirklich viel, die hier „beworbenen“ Fähigkeiten sind eigentlich Mindeststandard. Also doch abwarten, bis man in Geschäften selbst eins in der Hand halten kann oder eine Bedienungsanleitung heruntergeladen werden kann.

Donnerstag, 8. Oktober 2009

Kindle in Europa – Aufmischung für eBook-Reader-Markt?

Wie unter anderem bei lesen.net zu lesen war, kann die aktuelle Version des Amazon Kindle jetzt auch offiziell in vielen Ländern der Welt bestellt und auch benutzt werden. Zumindest noch laufen Bestellungen aber ausschließlich über Amazon USA.
Das hat zur Folge, dass der Preis zwar dank des schwachen Dollars zunächst konkurrenzlos günstig erscheint, dass man inklusive Versand und Zollgebühren letztlich doch auf ca. € 300,– kommt, wie Spiegel Online ausgerechnet hat. Bleibt abzuwarten, ob der Kindle bald in den nationalen Amazon-Shops erhältlich sein wird, und wenn ja, was er dort kosten wird.
Nicht falsch verstehen: Ich werde mir den Kindle mit Sicherheit nicht kaufen. Das komplett proprietäre System, das es noch nicht einmal erlaubt DRM-freie epub-Bücher anzusehen, ist für mich schlicht indiskutabel.
Der völlig überraschende Schritt Amazons zeigt aber eines deutlich: Aufgrund kaum vorhandener Konkurrenz hatte sich Amazon bisher auf seiner fast unangefochtenen Marktführerschaft in den USA ausruhen können. Jetzt aber kommt Bewegung in den Markt, und Amazon wird sich sehr beeilen müssen, um im europäischen Markt überhaupt noch Fuß fassen zu können.
Denn: Die Konkurrenz ist deutlich attraktiver, ist man doch dort nicht auf einen Anbieter festgelegt und kann sich in beliebigen Shops und nicht zuletzt aus kostenlosen Angeboten die eBooks herunterladen, die man gerade benötigt oder haben will. Natürlich gibt es auch bei Amazon kostenlose Bücher für den Kindle, aber bei weitem nicht in der Masse, wie es Project Gutenberg und bald Google Books für das epub-Format bieten.
Zudem hat Amazon nur in den USA ein ansehnliches eBooks-Angebot zu bieten. Für Leser wie mich, die englischsprachige Autoren lieber im Original lesen, ist das nicht weiter schlimm; der großen Masse ist das aber zu schwierig. Wegen des günstigen Dollar-Kurses ist das USA-Angebot zwar besonders billig, trotz $2 Roaming-Aufschlag pro Buch. Mich persönlich und viele andere wird das aber nicht dazu überzeugen, mich allein an Amazon zu binden – zumal ich als ehemaliger Buchhändler ohnehin grundsätzlich keine Bücher bei diesem Moloch kaufe.
Bleibt also nur der Preiskampf. Und genau deshalb freue ich mich über diese Entwicklung. So ist es nicht unwahrscheinlich, dass schon innerhalb ziemlich kurzer Zeit endlich die 1:1-Umrechnung von Dollar in Euro bei eBook-Readern ein Ende haben wird.
Sobald es 6"-Lesegeräte unter € 200,– gibt, werde ich zuschlagen.

Dienstag, 6. Oktober 2009

Alternativen bei der Haus-Automatisierung

Wie schon einmal geschrieben plane ich ja, die Heizungssteuerung in unserem neuen Haus einer schlauen Elektronik zu überlassen, die dann die Heizungen runterregeln soll, wenn wir nicht da sind.
Sinnvollerweise will ich dazu natürlich ein System wählen, das grundsätzlich mehr kann als nur Heizungen steuern; so kann ich später meinem Spieltrieb freien Lauf lassen und Licht, Steckdosen, Rolläden, Markise usw. anschließen.
Außerdem sollte es ein System sein, das Funk nutzt – in einem Mietshaus über vier Etagen ein Bussystem zu verlegen ist nicht unbedingt sinnig.
Natürlich ist zudem das Budget begrenzt. Das Synco-Living-System von Siemens wäre beinahe auch noch in die nähere Auswahl gekommen; letztlich ist es dann aber doch zu teuer.
Bleiben nur die zwei Systeme von ELV/Conrad: Das ältere FS20 und HomeMatic.

Da der Post sehr lang geworden ist, heute ausnahmsweise mal ein Sprung – den ausführlichen Vergleich zwischen HomeMatic und FS20 gibt es nach Klick auf den Link.


Freitag, 2. Oktober 2009

SETI

Schon ne Weile im Netz, aber ich will es trotzdem hier nochmal vermerken: Dieser wunderbare xkcd-Comic gibt schon Grund zum Nachdenken, finde ich.

Ardipithecus: Ältester bekannter Vorfahre des Menschen

Anhand des jetzt vollständig dokumentierten Skeletts von „Ardi“, eines weiblichen Ardipithecus, wird klar, dass viele bisherige Annahmen über die Evolution des Menschen und speziell über die Trennung der menschlichen Linie von der Linie der Menschenaffen über den Haufen geworfen werden müssen.
Wie in den letzten Tagen bei verschiedenen Wissenschaftsnachrichten, u.a. bei wissenschaft.de, zu lesen und zu hören war, bringt Ardi neue Erkenntnisse, die bisher keiner erwartet hätte:

  • Schon sehr viel früher als bisher vermutet zeigen sich Elemente, die ein Alleinstellungsmerkmal des heutigen Menschen in der Natur sind; speziell der aufrechte Gang: Schon vor 4,4 Millionen Jahren war Ardipithecus dazu fähig, obwohl sich damals die Wälder noch nicht gelichtet hatten.
  • Gleichzeitig sind aber auch die Füße noch zu Greifwerkzeugen ausgebildet, so dass davon auszugehen ist, dass dieser Urahn des Menschen sich sowohl auf der Erde als auch auf Bäumen wohlfühlte.
  • Sowohl der Schimpanse als auch der Mensch weisen heute aber sehr deutliche Weiterentwicklungen der Extremitäten auf, passend zur jeweiligen Lebensweise. Daraus kann gefolgert werden, dass sich die Linien später trennten als bisher angenommen wurde.
  • Die männlichen Artgenossen zeigen keine vergrößerten Eckzähne, wie dies bei Menschenaffen üblich ist. Das deutet darauf hin, dass die Konkurrenz zwischen den Männchen nicht so ausgeprägt war und könnte ein Hinweis auf Monogamie sein.
Einige Medien versteigen sich sogar zu der Behauptung, die Männchen hätten sich um den Nachwuchs gekümmert (ob das von den Forschern selbst stammt oder von Journalisten hinzugedichtet wurde, weiß ich nicht). Auch wenn das natürlich nicht ausgeschlossen ist, geht diese Interpretation doch etwas sehr weit.
Ein sehr interessanter Fund jedenfalls. Tja, Lucy, Du bist nicht mehr die Älteste.

Neue Gerüchte zum Apple Tablet

Bei fscklog finden sich die neuesten Gerüchte zum iTablet oder iPad oder wie auch immer. Wichtigste Punkte: 10,7"-Schirm, sieht aus wie ein großes iPhone, läuft mit iPhoneOS, und ob es diese Geräte wirklich geben wird, ist noch nicht gesichert.

Lesenswerte Links: Absolute Zahlen zur Bundestagswahl

Enno hat eine interessante Tabelle zu den absoluten Wählerzahlen bei der Budnestagswahl aufgestellt, inklusive einiger Folgerungen dazu.

Hitler doch nicht tot?

Ok, zugegeben: Die Überschrift ist reißerischer als sie sein sollte.
Bleiben wir auf dem Teppich: Das Schädelfragment mit Einschussloch, das russische Soldaten 1945 in der Nähe des Führerbunkers fanden, kann nicht von Hitler stammen – weil es ein Frauenschädel ist.
Nach einem Bericht der Netzeitung hat ein US-Wissenschaftler das bei einem DNA-Test festgestellt.
Na, da haben wir es: Er ist eben doch nach Neu-Schwabenland abgedampft. Oder er lebt bis heute in der hohlen Erde fliegt dann und wann mit seiner Haunebu II Verwandte besuchen.
Wir haben es doch immer gewusst.

Mittwoch, 30. September 2009

Ein Haus!

Jetzt ist es also soweit: Nach ca. einem Jahr Suche haben wir endlich unsere zukünftige Bleibe gefunden: Ein hübsches kleines Reihenmittelhaus in einem Dorf in der Nähe von Cadolzburg im Landkreis Fürth wird ab Dezember unser Zuhause sein.
Ein eigenes Haus! Das habe ich mir gewünscht, seit wir eine Tochter haben. Um etwas adäquates zu finden, haben wuir den Betrag, den wir monatlich fürs Wohnen ausgeben wollen, im Laufe des letzten Jahres immer wieder nach oben korrigieren müssen. Letztlich werden wir jetzt ca. € 500,– im Monat mehr zahlen müssen als bislang, was natürlich bedeutet, dass wir uns in unseren Ausgaben auch ziemlich kräftig einschränken müssen.
Aber dafür haben wir eigenes Haus mit einem kleinen Garten, sogar ein Kirschbaum steht drin.
Im neuen Haus heißt es also dann: Sparen, wo es geht, ohne die Lebensqualität zu sehr einzuschränken. Mir als altem Geek kommt da natürlich als erstes eine automatische Heizungsregelanlage in den Sinn, die einzelne Heizkörper nach Bedarf steuern kann. Das würde Spaß machen und so einiges einsparen. Mal sehen, ob so etwas halbwegs bezahlbar zu haben ist. Sollte jemand dahingehend Tipps haben, immer her damit.Ich freu mich auf jeden Fall drauf. Weihnachten werden wir schon im neuen Haus feiern. :-)
Sollte ein Leser auf der Suche nach einer Wohnung im Raum Fürth sein: Unsere wird ab 1. 1. 2010 frei sein, und ich kann sie nur wärmstens empfehlen: Eine ideal geschnittene 3-Zimmer-Wohnung im Dachgeschoss eines Dreifamilienhauses, riesiges Wohnzimmer, ca. 80 m² Fläche (90 m² minus Dachschrägen), elektrische Außenrollos an den Dachflächenfenstern, dadurch auch im Sommer erträgliche Temperaturen. Nette Nachbarn, freundliche und äußerst unproblematische Vermieter. Spottbillig. Ohne Kind hätten wir wahrscheinlich noch Jahrzehnte dort gewohnt.

Sonntag, 27. September 2009

Trauriges Wahlergebnis

Schwarz-gelb also. *seufz* Die CDU hat verloren, wie erwartet, aber wer hätte gedacht, dass so viele Leute ernsthaft FDP wählen?
Das ist wirklich deprimierend.
Jetzt bekommen wir wirklich Westerwelle als Außenminister. Ich hatte das immer für einen schlechten Witz gehalten und war davon ausgegangen, dass es sowieso wieder eine große Koalition gibt. War wohl nichts.
Einziger Lichtblick sind die Piraten mit immerhin 1,9 % nach aktueller Hochrechnung. Nicht schlecht für die erste Bundestagswahl, auch wenn ich mir etwas mehr erhofft hätte. Aber der große Zuspruch hier im Netz ist eben nicht alles.
Na dann Prost! Viel mehr fällt mir zu diesem Ergebnis nicht ein.

Freitag, 25. September 2009

Google Book Settlement auf unbestimmte Zeit verschoben

Wahrscheinlich besser so: Nachdem die beteiligten Verlage um eine Verschiebung gebeten und Google dem ebenfalls zugestimmt hatte, wird die Gerichtsentscheidung über den Vergleich zunächst auf unbestimmte Zeit verschoben.
Es gab unzählige Bedenken, unter anderem von nicht-amerikanischen Verlagen, die mitbetroffen gewesen wären, von Konkurrenten im Buchsuchmarkt, die nicht berücksichtigt worden wären, und sogar vom US-Justizministerium.
Jetzt wird es wohl noch etwas länger dauern. Dafür besteht zumindest die Hoffnung, dass am Ende ein Vertrag stehen wird, der nicht nur Google einseitig bevorzugt und mit dem auch andere gut leben können.

Stadtpläne aus OpenStreetmap-Daten selbst erstellen: Schön wärs

Das klingt doch mal sinnvoll: Stadtpläne mit Gitter und Straßenverzeichnis über eine Website selbst erstellen. Das soll MapOSMatic können, und zwar mit Daten von openstreetmap.org.
Leider funktioniert das nur für Frankreich – warum auch immer. Mein Test mit einer Kleinstadt hier in der Nähe führte zu einem leeren Blatt, das nur das Gitter, aber keine Straßen enthielt.
Schade.

N900 zu gewinnen

Über meinen Google Alert zum N900 bin ich auf folgendes gestoßen: Auf xeaon.de hat sich der ungenannte Blogger überlegt, dass er mit der Verlosung eines Nokia N900 Traffic auf seinen Blog ziehen könnte.
Könnte klappen. :-)
Ich habe mich jedenfalls einmal als Teilnehmer angemeldet und hoffe natürlich schwer auf mein Glück.

Wen wählen?

Heute bin ich völlig zufällig über einen sehr guten Blog-Artikel zur Wählbarkeit der Parteien gestoplert. Dort sind einige sehr gute Punkte versammelt, die meiner eigenen Meinung zum Thema sehr ähnlich sind.
Wen also am Sonntag wählen?
Nachdem auch ich die Piratenpartei anfangs ein wenig belächelt habe, muss ich feststellen, dass sie sich mittlerweile sehr gemausert hat. Sie stimmt in vielen Punkten mit meinen Meinungen überein und ist auch noch wunderbar frisch. „Politisch naiv“ wird das gerne genannt, aber ich finde es gerade sehr angenehm, dass sich sich diese Politiker – absichtlich oder unabsichtlich – nicht von den üblichen Denkverboten der Political Correctness bremsen lassen.
Die Piraten füllen endlich das Loch in der deutschen Parteienlandschaft, das besteht, seit es in der FDP keinen linksliberalen Flügel mehr gibt. Seit Jahrzehnten also endlich eine Partei, die unter Liberalität die Freiheit der Menschen, nicht die Freiheit der Konzerne versteht. Die Grünen sind die einzige Partei, die hier wenigstens halbherzig dann und wann Flagge gezeigt hat – aber leider auch nur, wenn sie nicht in Regierungsverantwortung war.
Ich denke, ich würde am Sonntag wohl die Piraten wählen, wenn da nicht – ja, wenn da nicht die Gefahr von schwarz-gelb wäre.
Es kann ja durchaus Sinn machen, Parteien zu wählen, die die 5%-Hürde sowieso nicht überspringen werden. Gerade bei Parteien mit einer ganz klaren Botschaft setzt man dadurch ein Zeichen. Mit einem Achtungserfolg wird den etablierten Politikern klargemacht, dass es sich hier nicht nur um Nischen- und Randthema handelt, das nur einige wenige interessiert.
In diesem Fall aber … Schwarz-gelb wäre eine Katastrophe. Dann lieber weiter große Koalition. Damit CDU/CSU und FDP nicht miteinander regieren können, müssen die anderen stark genug sein.
Deshalb werde ich wohl für die Grünen stimmen. Eigentlich finde ich zwar, dass diese Partei spätestens seit der rot-grünen Koalition den großen „Volksparteien“ viel zu ähnlich geworden ist. Es gilt aber, Schlimmeres zu verhindern, und so werde ich wohl in diesen sauren Apfel beißen müssen.

Donnerstag, 24. September 2009

Lesenswerte Links: Ökostrom

Spiegel Online beschreibt, wie zukünftig die komplette Stromversorgung aus regenerativen Quellen erfolgen könnte.

Dienstag, 22. September 2009

Der Herr hats gegeben, der Herr hats genommen

Ein wundervolles Beispiel für den absurden Wahlkampf der Linken:




(Dank an einen meiner Arbeitskollegen für Entdeckung und Fotografie dieser herrlichen Realsatire.)

Montag, 21. September 2009

Wie verarbeite ich riesige XML-Dateien in Cocoa?

Am Wochenende habe ich endlich mal wieder ein bisschen an meinem Routenplaner-Projekt weitergemacht. Grundsätzlich habe ich das ganze jetzt auf Core Data umgestellt, mit einem SQLite-Store hintendran.
Will sagen: So bin ich gerüstet, um richtig viel Daten mit akzeptablem Speicherverbrauch verarbeiten zu können.
Theoretisch.
Das Problem ist leider, dass der XML-Parser, der bei Cocoa für event driven XML parsing zuständig ist (NSXMLParser), blösinnigerweise auf ein NSData-Objekt aufsetzt, das den XML-Stream enthält. Das bedeutet, dass die komplette XML-Datei in den Speicher bzw. den virtuellen Speicher geladen wird. Das ist für ein paar hundert MB XML natürlich kein Problem (und wahrscheinlich sogar sinnvoll), aber alleine die schon mehrere Monate alte Version von germany.osm (Kartendaten für Deutschland), die ich für Tests benutze, ist 5,2 GB groß – von planet.osm ganz zu schweigen.
Es gibt zwar die Möglichkeit, über die Option NSDataReadingMapped dafür zu sorgen, dass die Datei selbst direkt als virtual memory benutzt werden kann. Trotzdem macht NSData den Speicher dann fast voll, zieht bei mir zum Beispiel > 2 GB. Dann sind nur noch ein paar hundert MB Speicher frei. Fängt man jetzt an, die mit Daten aus dem XML zu füllen, geht blitzschnell das große Geswappe los, und die Geschwindigkeit tendiert gegen Null.
Es wird mir also nichts anderes übrigbleiben als direkt auf die libxml2 zuzugreifen, die Mac OS X ja auch dabei hat. Ich kann normales C zwar lesen, habe ich aber noch nie eine Zeile Code damit selbst programmiert, insofern graut mir davor ein bisschen. Allerdings habe ich im Netz schon einige Anleitungen dafür gefunden, die zwar allesamt auch auf NSData-Objekten arbeiten, aber wahrscheinlich relativ leicht anpassbar sind. Ich hoffe, dass ich da relativ flott etwas zusammenzimmern kann.
Aber damit hören die Probleme ja nicht auf. Legt man selbst kein NSData-Objekt mit NSDataReadingMapped an, sondern gibt NSXMLParser nur eine File-URL, fängt er gar nicht erst an, die Datei überhaupt zu lesen. Angeblich sei die Datei in Zeile 1, Spalte 1, unerwartet zuende. Macht man es selbst mit NSDataReadingMapped, klappt es erstmal, aber nach etwa einer Stunde unsäglichem Geswappe scheitert er irgendwo zwischen der zwölfmillionsten und der dreizehnmillionsten Zeile mit der Behauptung, ein Tag sei nicht geschlossen worden. Reproduzierbar an der gleichen Stelle, an der aber kein Fehler ist.
Ich vermute, dass ich hier an das 2GB-Limit eines NSData-Objekt in 32bit-Code gestoßen bin. Mein Target ist allerdings x86_64, insofern hatte ich gedacht, dass ich ohnehin 64bit-Code erzeuge. Evtl. muss das aber an anderer Stelle noch konkret aktiviert werden.
Und noch ein Problem gibt es: Im OpenStreetmap-XML werden zunächst alle Nodes definiert, also Punkte auf der Karte. Dann kommen die Ways, also Straßen und Wege, die jeweils eine Referenz auf die IDs der Nodes aufweisen, aus denen sie bestehen. Um später einigermaßen flotten Code zum Routen bauen zu können, muss ich die Ways und ihre Nodes natürlich miteinander verlinken.
Wenn ich einen Way im XML abarbeite, muss ich also anhand ihrer ID die jeweiligen Nodes finden, um sie dann verlinken zu können. Mache ich das mit den in Core Data vorgesehenen Fetch Requests, wird das unendlich langsam – dann dauern schon 20MB XML mehrere Minuten auf meinem brandneuen iMac.
Natürlich kann ich ein NSDictionary benutzen, in dem ich die Nodes anhand ihrer IDs verzeichne. Das ist hübsch flott, könnte aber bei 5GB oder mehr eine ziemlich große Datenstruktur ergeben – schließlich ist dieses Dictionary ja dann nicht von Core Data verwaltet.
Jetzt werde ich also erstmal den XML-Parser umstellen, dann mal testen, ob ich so komplett durch die Datei komme und wieviel Speicher mein flottes Dictionary damit brauchen würde.
Außerdem steht noch an, das in einen eigenen Thread zu packen, damit die Anwendung nicht während des XML-Lesens ständig den Spinning Beachball zeigt.
Ist also noch einiges zut tun, bevor ich überhaupt daran denken kann, mit Routenbrechnung anzufangen …

Das Problem der News-Aggregatoren

Spiegel Online hat unlängst einen sehr lesenswerten Artikel über Burdas neuen News-Aggregator nachrichten.de veröffentlicht. Interessant ist dabei weniger das Gemosere über Burda und das Portal selbst als die Darstellung grundsätzlicher Probleme solcher Aggregatorseiten.
Bisher dachte ich immer, das größte Problem dabei sei der verständliche Wunsch des Nachrichtenunternehmens, an seinen Meldungen in erster Linie selbst zu verdienen.
Viel schlimmer ist aber ein ganz anderer Punkt: Suchmaschinen, die sie sind, bewerten die Aggregatoren die Wichtigkeit einer Meldung in erster Linie nach ihrer Häufigkeit. Mit anderen Worten: Eine Agenturmeldung, die in besonders vielen Medien unverändert wiedergegeben wird, wird als besonders wichtig eingestuft und erscheint prominent auf der Aggregator-Seite.
Eigentlich viel interessantere Artikel, journalistisch Wertvolles nämlich; die Artikel, bei denen selbst recherchiert wurde und über die Information ins Netz gebracht wird, die nicht schon woanders tausendfach vorhanden ist – die gehen unter, wenn sie denn überhaupt auftauchen. Sie sind nur einmal da, werden von zitierenden Konkurrenzunternehmen zwar meist genannt, aber selten verlinkt, was also auch nicht so einfach automatisch auswertbar ist.
Mit anderen Worten: News-Aggregatoren und der Traffic, den sie erzeugen, verleiten Medienunternehmen dazu, möglichst viel Einheitsbrei und möglichst wenig guten Journalismus zu bringen.
Gar nicht gut.

Freitag, 18. September 2009

HFS+ kann komprimieren

Snow Leopard gibt sogar Platz frei, wenn es als Update installiert wird? Durchaus richtig, aber man könnte auch behaupten, dass Apple hier ein wenig beschissen hat:
Das Dateisystem HFS+ unterstützt in der Snow-Leopard-Version Kompression, und von Apple wird das bei Systemdateien offenbar auch kräftig genutzt. Der Witz ist, dass es im System keine Möglichkeit gibt herauszufinden, ob eine Datei komprimiert abgespeichert ist oder nicht – es wird immer die entpackte Größe angezeigt. Bei ganz vollen Platten könnte man also in Zukunft möglicherweise das Phänomen beobachten, dass mehr Platz belegt ist als die Platte überhaupt zur Verfügung stellt.
Grundsätzlich ist das ja ein sehr sinnvolles Feature, und mit dem Kommandozeilen-Befehl ditto kann man auch selbst komprimierte Files erstellen (dazu und zu noch etwas mehr Hintergrund siehe diesen Hint auf macosxhints.com). Vorsicht: Wer mit älteren Versionen von Mac OS X auf das gleiche Dateisystem zugreifen möchte, sollte das Komprimieren bleibenlassen, sie können die Dateien nicht lesen.
Dass Apple diese neuen Möglichkeiten aber nicht prominenter dargestellt hat und teilweise scheinbar sogar absichtlich dafür gesorgt hat, dass man der Kompression nicht auf die Spur kommen kann (das Kommandozeilen-Tool xattr zeigt in der OS-X-Version das Kompressions-Attribut nicht an), hinterlässt aber doch einen faden Beigeschmack.
Vielleicht wollte man nicht, dass eines der wenigen für den Endanwender direkt fühlbaren Features, nämlich mehr Platz auf der Platte, gar nicht mehr so spektakulär klingt?

Navigon kündigt Live-Dienste auf dem iPhone an

Tja, TomTom, das wars dann wohl: In einigen Wochen will Navigon als In-App-Purchase Verkehrsnachrichten zur Verfügung stellen – inklusive Echtzeitdaten von anderen Navigon-Live-Nutzern.
TomToms HD Traffic bietet zwar das gleiche, ist aber nicht nur wesentlich teurer (EUR 10,–/Monat vergleichen mit einmalig EUR 25,– bei Navigon), sondern vor allem auch auf dem iPhone nicht verfügbar.
Jetzt müsste Navigon nur noch echte historische Geschindigkeitsdaten ins Kartenmaterial einarbeiten, und es gäbe endgültig kein Argument mehr für TomTom.
So werde ich erstmal weiter abwarten, bis ich wirklich einmal Navigation am iPhone brauche. Wäre das heute der Fall, würde ich auf jeden Fall Navigon wählen.

Der Kevin wars, und Chantal hats gesehen!

Dieser hier leicht abgewandelte Spruch von Michael Mittermeier scheint sich stärker zu bewahrheiten als man denken könnte: Schon vor Jahren stellte Mittermeier fest, dass Kevins grundsätzlich „Arschlochkinder“ seien.
Eine Studie, die von der taz und etwas ausführlicher von der Netzeitung zitiert wird, bestätigt diese Expertenmeinung jetzt indirekt:
Viele Grundschullehrer glauben, dass Kinder, die Namen wie Chantal, Mandy, Justin, Kevin oder gar (Gott bewahre!) Maurice heißen, häufiger verhaltensauffällig sind als Kinder namens Sophie, Hanna, Simon oder Jakob.
So ungünstig solche Vorverurteilung gerade bei Lehrern sein mögen, die Einschätzung kommt sicher nicht ungefähr. Will sagen: Der Einzelfall muss natürlich berücksichtigt werden, aber dass besonders Kinder mit solchen Namen oft unerträglich sind, deckt sich frappierend mit der eigenen Erfahrung.
Aber eigentlich ist das ja selbstverständlich – wer so heißt, hat qua nomine schon eine schwere Last zu tragen; psychische Gesundheit kann da kaum erwartet werden.

Donnerstag, 17. September 2009

Kafka macht klug

Oder genauer: Absurdes macht klug.
wissenschaft.de berichtet, dass Studenten besser im Lernen einer erfundenen Grammatik waren, wenn sie vorher Kafka gelesen hatten, als wenn sie sich eine „normale“ Kurzgeschichte zu Gemüte geführt hatten.
Weitere Versuche förderten zutage, dass es nicht direkt die Magie Kafkas ist, sondern die Beschäftigung mit Absurdem allgemein, die das Gehrin offenbar dazu bringt, stärker nach Strukturen und Logik zu suchen und somit lernfähiger zu sein.
Gut, dass ich Absurdes schon immer geliebt habe. :-)

Mittwoch, 16. September 2009

Doch Branding bei N900

Ursprünglich war (auch hier) berichtet worden, Nokia wolle kein Branding für das N900 zulassen. Das war leider offenbar ein Missverständnis.

Zweifelhaftes Spiegel Online: Sony-Reader-Berichterstattung

Je mehr ich Spiegel Online lese (in letzter Zeit, seit ich Google Reader nutze, sehr viel mehr als früher), desto mehr fällt mir auf, wie häufig dort schief dargestellte Informationen anzutreffen sind. Als Beispiele wären Beiträge in diesem Blog hier und hier zu nennen.
Ein neuer Beitrag über Sonys neuen eBook-Reader PRS-600 macht das noch einmal besonders deutlich. Natürlich ist es richtig, dass der Touchscreen des neuen Geräts die Darstellungsqualität deutlich mindert, weshalb es für mich auch nicht in Frage kommt.
Dass der neue PRS-300 in den USA den PRS-505 „ersetzt“ habe und hierzulande erstmal nicht erhältlich sein würde, stimmt aber einfach nicht. Das ist ein ganz anderes Gerät, da es über einen 5"-Schirm statt eines 6"-Schirms verfügt, was es für mich beispielsweise deutlich unattraktiver macht. Der PRS-505 ist dementsprechend in den USA auch weiterhin erhältlich.
Zudem wurde von Sony längst angekündigt, dass der PRS-300 „bald“ auch in Deutschland erhältlich sein wird – nur wann genau ist noch nicht klar.
Die Informationen sind also nicht komplett falsch, wenn Spiegel Online schreibt, dass der PRS-900 und der PRS-300 „vorerst“ nicht in Deutschland zu haben sein sollen. Tatsächlich gibt es aber für den PRS-300 eine konkrete Ankündigung, ganz im Gegensatz zum PRS-900.
Guter, informativer Journalismus sieht anders aus.

Dienstag, 15. September 2009

eBook-Reader: Es tut sich was

Ich liebäugele ja seit einiger Zeit mit der Anschaffung eines eBook-Readers: Ich lese gerne, und oft stehe ich vor dem Problem, dass ich jetzt sofort Lust habe, ein neues Buch zu lesen, aber einfach nichts Ungelesenes zu Hause ist, was mich gerade interessieren würde. Natürlich ist es dann Abend, und ich hätte weder Lust, noch einmal die Höhle zu verlassen, noch hätte ich überhaupt irgendwo die Möglichkeit, noch ein Buch zu bekommen.
Anders mit einem eBook-Reader: Da könnte ich mich mal schnell beim Projekt Gutenberg umsehen oder auch bei libri.de oder auf dem US-Markt einkaufen, was das Herz begehrt.
Klar: Das wäre auch schon mit meinem iPhone möglich. Aber so ein LCD-Screen ist eben nicht gerade fürs Lesevergnügen prädestiniert. Außerdem ist das iPhone bei Dauerbenutzung blitzschnell leer. Keine gute Alternative.
Nachdem es gefühlte Ewigkeiten lang nur viel zu Teures auf dem deutschen Markt gab, scheint im Herbst eine ganze Armada neuer und teilweise günstigerer Produkte in den Startlöchern zu stehen.
Im Preisbereich bis EUR 200,–, den ich persönlich interessant finde, wird es in Kürze die Mini-Versionen des BeBook und des Sony Readers geben.
Und vielleicht ein Produkt, das für mich ganz besonders vielversprechend klingt: Das Pocketbook 360°, hier vorgestellt. Zwar wäre mir ein 6"-Schirm in Sachen Lesbarkeit lieber, zumal es mir auf Tragbarkeit eigentlich nicht ankommt. Die sind aber aktuell erst ab ca. EUR 250,– zu haben.
Besonders gut klingt aber die Open-Source-Software des Geräts, die offenbar viel mehr kann als die der Konkurrenz. Sie wurde in Zusammenarbeit mit einer osteuropäischen eBook-Community entwickelt, insofern ist auch davon auszugehen, dass das Gerät viel eher auf die tatsächlichen Nutzerbedürfnisse eingeht, als das bei den anderen Marken der Fall ist.
Unter EUR 200,– ist es derzeit leider auch nicht zu haben, eigentlich sogar fast gar nicht – noch fehlt wohl ein richtiger deutscher Distributor.
Ansonsten wird es eine ganze Menge neuer Geräte im Top-Segment geben, etwa das Bebook 2, in etwas fernener Zukunft einen eReader von iRiver oder eben die neuen Geräte von Sony.
Viel wichtiger für eine echte Etablierung des Marktes wären aber günstige Low-End-Geräte, zumal Kauf-eBooks hierzulande ja immer noch kaum oder gar nicht günstiger sind als ihre Hardcover-Pendants.
Immerhin: Bald gibt es richtige Konkurrenz. Vielleicht tut sich dann auch bei den Preisen was.

Ein Lese-Empfehlung zum Thema: Die News-Seite www.lesen.net, die ich eben erst entdeckt habe, ist eine gute Quelle für alles Neue zum Thema „eBooks und deren Lesegeräte“. Für Interessierte wärmstens empfohlen.

Montag, 14. September 2009

Zenphoto mit PicLens

Am Wochenende habe ich es vollbracht: Ich habe mir die Zenphoto-Galerie so angepasst, dass alles so aussieht, wie ich es will. Ich kann eigentlich weder PHP noch JavaScript noch aktuelles HTML mit CSS und all dem neumodischen Zeug, insofern war das nicht immer einfach, aber letztlich von Erfolg gekrönt. Das Ergebnis ist neben einem großen Lerneffekt für mich ein stellenweise fürchterlicher Hack, aber vielleicht haben andere trotzdem was davon, deshalb hier die Beschreibung meiner Änderungen und passende Downloads.

Alles fing damit an, dass ich feststellte, dass der Original-Default-Theme (Basis für meine Änderungen) eine feste Breite von 685 Pixeln benutzt. Wenn man die normale Bildansicht, wie ich, gerne  mit einer festen Bildhöhe von knapp 700 Pixeln gestalten möchte, sind querformatige Bilder zwangsläufig zu breit. Meine Version von image.php passt sich automatisch an die Breite des dargestellten Bildes an. (album.php ist davon nicht betroffen, es bleibt weiterhin bei 685 Pixeln.)
Dann wollte ich unbedingt PicLens lite, den Viewer von Cooliris, als Diashow einsetzen, aber aus irgendwelchen Gründen funktioniert der nicht mit dem Default-RSS-Stream von Zenphoto, obwohl man da ja Media-RSS aktivieren kann. (PicLens lite baut eine Diashow aus einem Media-RSS-Strem.)
Also habe ich mir eine rss.php irgendwo aus dem Netz geholt (wo weiß ich leider nicht mehr), von der klar war, dass sie PicLens unterstützt. Dass ich mir damit noch zusätzliche Probleme einfangen würde, war mir nicht klar.
Jetzt weiß ich, dass es vmtl. sinnvoller gewesen wäre, die wichtigen Dinge in die aktuelle rss.php zu übernehmen, statt die heruntergeladene rss.php nach meinen Wünschen anzupassen, aber ich werde die ganze Arbeit bestimmt nicht nochmal von vorn beginnen.
Problem ist nämlich: Die heruntergeladenen rss.php wurde anscheinend für eine ältere Version von Zenphoto geschrieben; Ergebnis war, dass sich alle RSS-Feeds immer auf die komplette Galerie bezogen, nicht auf das gerade gewählte Album, wie ich es gebraucht hätte. Dass sich diese Version so sehr von der aktuellen unterschied, merkte ich aber erst zum Schluss, als die ganze Arbeit schon getan war. Nun ja.
Nächster Punkt war noch, dass ich feststellte, dass PicLens a) nicht korrekt mit Optionen wie paused:true oder delay:5 gestartet werden kann, wenn man nicht gleichzeitig eine feedUrl mit angibt und b) nur schwarz anzeigt, wenn im Feed Videos vorkommen.
a) habe ich durch eine eigene Version von piclens.js lösen können, b) durch eine zusätzliche Änderung von template-functions.php, rss.php und den Aufruf in image.php und album.php.

Die Änderungen im Speziellen:
piclens.js: Unterstützt jetzt auch den Aufruf mit Optionen, wenn keine feedUrl angegeben wird (auch wenn ich das letztlich dann so gar nicht mehr gebraucht habe, weil ich sowieso eine feedUrl angeben muss).
rss.php: Spuckt PicLens-fähiges Media-RSS aus – so hatte ich es mir aus dem Netz geladen. Meine Änderung: mit der GET-Option novids=1 kann man dafür sorgen, dass die Videos ausgelassen werden. Außerdem wird der Feed (unabhängig von der entsprechenden Einstellung in den Zenphoto-Einstellungen) immer nach dem Datum der Fotos sortiert (aus EXIF), nicht nach der mtime der Dateien.
template-functions.php: Wenn "Album" als Option für printRSSLink angegeben wird, wird dem rss.php noch die Album-ID (als GET-Option albumnr) mitgegeben, damit es nur die Fotos des Albums ausspuckt. Als zusätzliche Option gibt es "AlbumSlides", dann wird ein RSS-Feed ohne Videos erstellt. Außerdem gibt es eine neue Funktion printRSSURL, die nur eine URL zum RSS-Feed ausspuckt, ohne Link außenrum. Als Parameter kann ebenso wie bei printRSSLink z.B. "Album" oder "AlbumSlides" angegeben werden.
image.php im Theme: Passt die Breite dem angezeigten Bild an. Zeigt einen Link an, um, mit dem aktuellen Bild startend, eine Diashow mit PicLens anzuzeigen. (Das Zenphoto-eigene Slideshow-Plugin sollte deaktiviert sein, sonst werden beide Links angezeigt.)
album.php im Theme: Zeigt einen Link zum Starten einer PicLens-Slideshow an, einen weiteren zum Download des Albums als ZIP (ZIP-Funktion muss aktiviert sein).

Hier die Downloads, falls das jemand wirklich auch so installieren möchte:
1) Zenphoto selbst: http://zenphoto.googlecode.com/files/zenphoto-1.2.6.zip
2) PicLens lite: http://lite.piclens.com/releases/current.zip (ZIP muss im Root des Webservers entpackt werden.)
3) Meine Version von piclens.js: http://www.zottel.net/downloads/piclens_js.zip (nach /lite/piclens.js installieren)
4) Die geänderten php.rss und zp-core/template-functions.php: http.//www.zottel.net/zenphoto_zottel_customfiles.zip (im Zenphoto-Verzeichnis auspacken)
5) Meine Version des Default-Themes: http://www.zottel.net/downloads/zottel_default_theme.zip (im themes-Verzeichnis von Zenphoto auspacken)

Vielleicht mache ich die ganzen Pakete irgendwann mal konformer zum Zenphoto-Standard, aber momentan fehlt mir die Lust, da noch einmal Arbeit reinzustecken.

Die meisten Jugendlichen sterben an Autos … ? Tun sie nicht.

Wenn man sich überlegt, woran weltweit wohl die meisten Jugendlichen sterben, kommen einem als erstes Krankheiten in den Sinn. Vor allem, weil es wirklich um alle jungen Menschen weltweit geht, also inklusive Entwicklungsländer. Hunger wäre natürlich auch noch eine Alternative.
Tatsächlich sterben über 10% und damit der größte Anteil der 10- bis 24-Jährigen bei Verkehrsunfällen.
Ohne das Ergebnis kleinreden zu wollen, zeigt sich hier aber wieder einmal, wie man eine Statistik so darstellt, dass die Ergebnisse genehm wirken. Gegen Verkehrstote kann man relativ unkompliziert und billig mit Anschnallpflichten, Geschwindigkeitsbegrenzungen, Untersuchungen der Fahrtüchtigkeit von Fahrzeugen und ähnlichem vorgehen. Bei Krankheiten ist das nicht so einfach, vor allem aber viel teurer.
Sehen wir uns die Zahlen der WHO-Studie, die von Spiegel Online wiedergegeben wird, ein wenig genauer an, so sind es offenbar eben doch die Krankheiten, die die meisten Jugendlichen dahinraffen: Nach Selbstmord auf Platz zwei folgen – Atemwegserkrankungen. Die Krankheiten wurden also praktischerweise auf einzelne Krankheitskategorien heruntergebrochen, Aids wird sogar ganz alleine gezählt. Warum also nicht Verkehrsunfälle mit Fahrrädern extra rechnen, solche, bei denen der Jugendliche im Auto saß, selbst Fahrer war, als Fußgänger erwischt wurde?
Schon die für Atemwegserkrankungen und (bei Frauen) Aids genannten Zahlen ergeben zusammen einen höheren Wert als die Verkehrsunfälle. Schade, dass Spiegel Online nicht zur Orginalstudie verlinkt, die Zahlen hätte ich mir gerne einmal angesehen.
Aus der Studie ist also sicher zu folgern, dass viel zu viele Jugendliche im Straßenverkehr umkommen. Verkehrsunfälle zur „häufigsten Todesursache“ zu erklären, wie Spiegel Online es tut, ist aber schlicht Blödsinn.
Entweder ist das schlecht recherchiert (ohne Nachdenken nachgeplappert, was die Presseagentur schrieb) oder bewusst schief dargestellt, um die Nachricht etwas sensationeller zu gestalten. In beiden Fällen kein Ruhmesblatt für den Jounalismus.