Freitag, 25. November 2011

Schnee im Winter

Ich habe mir einmal die Frage gestellt, in welchen Teilen der Erde es eigentlich in einem Winter zuverlässig zu Frost kommt. Dafür habe ich für die Hauptstädte aller Staaten recherchiert, ob die durchschnittliche Tages-Tiefsttemperatur im Winter eine Schwelle von -5°C unterschreitet. Diese Schwelle ist so tief, dass ein entsprechend gefrorener Boden auch am Tage nicht komplett auftaut.


Von den gut 200 untersuchten Hauptstädten kommen gerade einmal 20 auf entsprechend niedrige Temperaturen. Keine einzige Hauptstadt (und auch sonst kein einziger größerer Ort) der Südhalbkugel erreicht so niedrige Durchschnitts-Temperaturen. In einigen wenigen Staaten ist zwar nicht die Hauptstadt, sehr wohl aber andere Teile des Landes entsprechend kalt. Dies sind die USA, Japan und theoretisch Schweden (praktisch sind die entsprechenden Regionen nahezu unbewohnt).

Eine der für mich interessanten Fragen war auch die Zahl der von diesem Klima jeweils betroffenen Menschen, weshalb sich in der folgenden Liste ungefähre Zahlen dazu finden:
  • Ankara, Türkei. Die Türkei ist ein schwieriger Kandidat, da einige Städte (darunter die Hauptstadt) sehr kalt werden, andere wiederum (etwa Istanbul) dagegen weit über 0°C bleiben. Ich setze hier einmal 17 Mio. Betroffene an, was der Summe der beiden küstenfernen Zensus-Regionen entspricht.
  • Astana, Kasachstan. Der riesige Staat hat wohl auch wegen seines Klimas nur 15,5 Mio. Einwohner.
  • Beijing, China. Für China habe ich die verdächtigen Provinzen im Norden und Westen des Landes auf 270 Mio. Einwohner addiert. Relevant ist im Grunde aber nur der Nordosten; der wird allerdings umso extremer. Und wer meint, ihn haut kein Klima um, dem empfehle ich Harbin: -25°C im Winter und +28°C im Sommer!
  • Bischkek, Kirsistan. Noch so ein dünn besiedelter Staat – 5,5 Mio.
  • Chișinǎu, Moldavien. 4 Mio für's Land.
  • Helsinki, Finnland. 5 Mio. für's Land.
  • Jerewan, Armenien. 3 Mio. für's Land.
  • Kabul, Afghanistan. 29 Mio. für das südlichste Land auf dieser Liste.
  • Kiew, Ukraine. 45,5 Mio. für's Land.
  • Minsk, Belarus. 10 Mio. für's Land.
  • Moskau, Russland. Russische Winter sind legendär. Und das bis in den letzten Winkel des Landes. 140 Mio. hier.
  • Nuuk, Grönland. Geprüft habe ich eine ganze Reihe dieser Teilautonomen Staaten, aber Grönland schafft es als einziger auf die Liste. Allerdings gerade einmal 0,05 Mio. Einwohner.
  • Oslo, Norwegen. 4,5 Mio für's Land.
  • Ottawa, Kanada. Von mit mir für's Land 30 Mio. angesetzt, da man Vancouver und einiges drumherum als frostfrei abziehen muss.
  • Pjöngjang, Nordkorea. 23 Mio. für das Land, wo das Wetter sich im Winter dem politischen Klima anpasst.
  • Riga, Lettland. 2 Mio. für's Land.
  • Seoul, Südkorea. Hier ist aber nur die Hauptstadt selbst kalt und ungefähr das gleichen die Küsten-Teile des Nordens wieder aus.
  • Tallinn, Estland. 1,2 Mio. für's Land.
  • Ulaanbaatar, Mongolei. Kälteste Hauptstadt der Welt in einem Land mit 3 Mio. Einwohnern.
  • Vilnius, Litauen. 3,5 Mio. für's Land.
Bis hier hin kommen wir auf 610 Mio. Hinzu kommen noch etwa 1/3 der USA (+100 Mio) und die japanische Nordinsel Hokkaidō (aufgerundete 6 Mio). Alles in Summe also etwa 720 Mio. Menschen, die einen wirklich kalten Winter in ihrer Heimat gewohnt sind – kaum mehr als 10% der Weltbevölkerung!

Freitag, 30. September 2011

HTPC extrem sparsam

Dass ich eine Macke für besonders sparsame Hardware habe, ist ja nichts neues. Jetzt habe ich das ganze allerdings für den Anwendungsfall eines HTPC einmal besonders an die Spitze getrieben. Dieser Rechner soll 10 Jahre lang im 24/7-Betrieb laufen. Diese lange Nutzungsdauer (wir reden immerhin von fast 90.000 Betriebsstunden) führt dann dazu, dass der Kaufpreis gegenüber dem Stromverbrauch ziemlich bedeutungslos wird; jedes einzelne Watt würde ungefähr 30€ Betriebskosten verursachen.

Herausgekommen ist also ein HTPC für etwas über 700€ mit sehr interessanten Komponenten...
  • Als Datenspeicher auf dem Rechner war der Gedanke, dass das System selbst eh auf einer SSD liegen sollte (weil deutlich schnellere Reaktionen). Da bot sich diese Samsung-SSD an, die sowohl zu den sparsamsten (unter 0,1W!) wie auch zu den schnellsten gehört. Eine Konstruktion mit einer kleineren SSD und dazu einer 3,5"-Festplatte wäre ob des Verbrauchs teurer (selbige erzeugen gut und gerne 150€ Stromkosten). Einzig eine 2,5"-Platte wäre eine Alternative, aber erzeugt auch wieder Geräusche. Da rüstet man lieber später eine größere SSD nach.
  • Der RAM ist ein spezieller mit 1,25V. Solchen gibt es halbwegs bezahlbar nur in diesem einen 2x2GB-Kit. Spart nach einem Bericht bei PCGHX 3W (=90€) gegenüber 1,5V, da muss man nicht lange rechnen – geschenkte 1,5V-Module wären teurer! Schon erstaunlich, wenn es beim RAM auf den Verbrauch ankommt…
  • Das Mainboard ist weitgehend nach einer Tabelle bei Hartware.net ausgewählt. Wenn man den Rechner öfters komplett abschaltet, aber am Strom lässt, wäre es nicht die beste Wahl, aber das ist bei dem Rechner hier nicht zu erwarten – da ist der "Idle"-Wert der wichtigste. Die Unterschiede sind auch hier beeindruckend: Das Asus-Board mit dem höchsten Verbrauch würde 210€ Mehrkosten verursachen. Das Ding kann zwar im Gegensatz zu allen anderen Bluetooth, aber dafür wäre ein USB-Dongle (den man ggf. auch noch an einem Kabel besser positionieren kann) wesentlich sparsamer.
    Das das ganze auf einem AMD E-350 basiert, hat dann auch Verbrauchsgründe – ein gleichwertiger Intel Atom braucht deutlich mehr, wie ein ComputerBase-Test zeigt. Sparsamer wäre wohl AMDs C-Serie, aber die gibt es nur in Notebooks.
  • Das Netzteil ist ebenfalls ganz was neues und schließt eine schon sehr lange beweinte Lücke: 250W Nennleistung (was für den hier genannten Rechner indes immer noch um den Faktor 5 überdimensioniert ist…) und eine 80 Plus GOLD Zertifizierung.
Den Gesamtverbrauch kann ich mangelt Geld nur theoretisch errechnen, indem ich die bei Hartware.net angegebenen Werte anpasse. Deren 24W sinken zunächst durch den Wegfall der Festplatte auf 19W. Die SSD füht nichts nennenswertes wieder hinzu. Der RAM drückt weiter auf 16W und mit dem Netzteil landen wir dann bei etwa 15W. So langsam aber sicher fangen solche Systeme wirklich an, eine Alternative zu fertigen NAS-Lösungen zu werden!

Donnerstag, 11. August 2011

Soziale Netze im Vergleich

Nachdem ich nun bei Twitter, Facebook und Google+ aktiv bin, möchte ich einmal über die Unterschiede dieser Netze schreiben – dabei geht es mir weniger um die technischen Möglichkeiten als darüber, wie man "mit diesen arbeitet".

Twitter hat einen gewissen "Fire&Forget"-Charakter: Ob der eigene Beitrag Beachtung findet, ist nur schwer zu erkennen. Man kann natürlich nach den Retweets suchen, aber das ist auch alles – ob ein Beitrag 1 oder 50 Favoriten-Klicks hat, ist dagegen nicht ersichtlich. Auch ist systembedingt keine Diskussion über die Beiträge möglich. Dafür ist die Zahl der Beiträge selbst umso höher: So manch einer feuert im 5-Minuten-Takt irgendeinen Satz raus, was bei den anderen Netzen als "Spam" gelten würde und die potentielle Zahl der Leser ist sehr hoch. Praktisch wird den einzelnen Beitrag trotzdem kaum jemand lesen, denn dafür sind es einfach viel zu viele Beiträge.

Facebook ist hier deutlich interaktiver: Die Beiträge können kommentiert werden und man erkennt, wie viele Leute sie irgendwie besonders fanden (das "gefällt mir"). Dafür richtet sich de facto jeder Beitrag an einen geschlossenen Kreis weniger Leute. Wen man nicht selbst in diesen aufgenommen hat, der kann sich nicht beteiligen – das Netz ist eben darauf ausgelegt, mit seinen Freunden (wie weit der Begriff hier gedehnt ist, war zuvor Thema) zu kommunizieren; mit all seinen Vor- und Nachteilen. Es ist hierbei durchaus möglich, alle Beiträge zu lesen, die das Umfeld so geschrieben hat.

Google+ ist hierbei eine Art Mittelweg. Man kann jedem folgen und jeder kann einem folgen – wie bei Twitter. Von Facebook wurde dagegen der "Lobzähler", hier "+1" genannt und die Möglichkeit, die Beiträge zu kommentieren übernommen. Das Ergebnis dieser Kombination finde ich persönlich das beeindruckendste an Google+: Zu praktisch jedem Beitrag von fast egal wem entsteht eine echte und oft umfangreiche Diskussion – und das eben nicht im "geschlossenen Kreis", sondern mit sehr sehr vielen Leuten. Gegenüber Twitter fehlt dafür eine Option die Beiträger *aller* Nutzer zu einem bestimmten Schlagwort zu suchen. Gegenüber Facebook dagegen vor allem die zahlreichen Nebenfunktionen wie Nachrichten und Spiele.

Ob man nun bei Twitter oder bei Google+ mit einem Beitrag mehr Leute erreicht, ist sicherlich mehr eine soziale als eine technische Frage. Mehr Feedback bekommt man bei Google+ allemal und die oft nervige 140-Zeichen-Grenze bleibt einem auch erspart. Und Facebook? Das war nie dazu gedacht, mit Fremden zu kommunizieren.

Freitag, 5. August 2011

Das neue öffentlich

Bei Facebook heißt die Einstellung "Freunde deiner Freunde", Google+ nennt sie etwas abstrakter "erweiterte Kreise" – die Einstellung, mit der man nicht jeden, aber eben auch nicht nur die eigenen Kontakte auf die eigenen Beiträge zugreifen lässt. Für Diskussionen durchaus eine sinnvolle Einstellung, denn nur weil zwei Personen die gleichen Freunde haben, müssen sie noch nicht selbst welche sein.

In der Offline-Welt waren diese "Freunde der Freunde" überwiegend Leute, die man selbst flüchtig kannte, etwa von Partys oder von denen man zumindest aus Erzählungen der eigenen Freunde einmal gehört hat. Doch in der Internet-Welt stimmt dies nicht mehr, denn in einem Bestand von teilweise über 1000 "Freunden" wird eigentlich jeder hinzugefügt, den man irgendwie kennt (böse Zungen behaupten "jeden, von dem man schon einmal gehört hat") – die "Freunde der Freunde" aus der Offline-Welt sind hier also längst drin enthalten. Und weil das ganze jeder so macht, geht es von der anderen Seite genauso – man gibt die Seite also eigentlich für die "Freunde der Freunde der Freunde der Freunde" frei.

An dieser Stelle wird dann das Kleine-Welt-Phänomen relevant. Nach dieser ist jeder Mensch mit jedem anderen Menschen über gerade einmal sechs Stufen bekannt. Die oben genannte Einstellung sind vier Stufen. Und die beiden letzten Stufen? Das sind Personen, die nicht einmal jemanden flüchtig kennen, der einen selbst flüchtig kennt – also Leute, die sich mit Sicherheit nicht für einen interessieren.

Insofern, wo ist eigentlich der Unterschied zwischen "Freunde deiner Freunde" und "Öffentlich"?

Samstag, 30. Juli 2011

Die Smartphone-Revolution

Das Internet ist in den Köpfen vieler "Offliner" noch gar nicht angekommen, da kündigt sich jetzt so langsam die nächste Revolution an – die der Smartphones.

Hat der Buchdruck das Wissen von dem einzelnen Buch befreit, Radio und Fernsehen gleich von jedem Datenträger beim Nutzer und das Internet von der festen Rollenverteilung von Sender und Empfänger, so erledigt das Smartphone die Befreiung von Häusern und dem, was so dazu gehört (Stromnetz, Telefonanschluss). Es bleiben nur noch eine sporadische Stromversorgung (ich bin mir sicher, auch dies ist dank Solarzellen nur noch eine Frage der Zeit) und das Mobilfunknetz.

Für eine Stubenhocker-Nation wie Deutschland spielt dies kaum eine Rolle; entsprechend ist es auch nicht verwunderlich, hierzulande öfters das allseits beliebte "das braucht man nicht!" zu hören – klar, wenn sich das Leben sowieso nur um Umfeld der eigenen Telefondose abspielt. Schon im Mittelmeerraum sieht die Sache anders aus. Das Handy am Ohr gehört ja schon länger zum Klischee-Italiener. Festnetz braucht der schon lange nicht mehr zum Quaseln. Noch deutlicher wird das ganze in Entwicklungsländern, in denen längst die Zahl der Handynutzer die der Festnetz-Anschlüsse um ein Vielfaches übersteigt – in Kenia kommen beispielsweise auf einen Festnetz-Nutzer 30 mit Handynutzer. Smartphones sind dort nicht nur "Edel-Handys", sie sind das Büro in der Westentasche – und zwar ein Büro, dass sich nicht mit der lausigen Stromversorgung herumschlagen muss.

Der Begriff "Büro in der Westentasche" deutet dann schon die zweite Dimension dieser Revolution an, wobei es diese eher noch untertreibt. In den vergangenen Jahrzehnten wurden dutzende Geräte entwickelt, die uns das Leben leichter machen sollen. Und nun kommt da so ein Smartphone und macht sie gleich in Rudeln mehr oder weniger überflüssig:
  • Das offensichtlichste Opfer ist das klassische Handy. Warum, muss man wohl nicht fragen.
  • PDAs gibt es heute schon gar nicht mehr, denn so teuer ist das GSM-Modul nicht, dass ein solches zu einem (einfachen) Smartphone macht.
  • Die Uhr ist schon dank des Handys längst in die Tasche gewandert.
  • Festnetz-Telefon? Das ist eh schon tot.
  • Ein Handy als Notizzettel geht manchmal; durch die T9-Tastatur aber eher schlecht als Recht. Mit einem Smartphone dank virtueller oder sogar realer Tastatur kein Thema.
  • Ein Navigationssystem? Macht das Smartphone – allem Unken zum Trotz übrigens meistens mit ähnlicher Genauigkeit.
  • Digitalkamera? Wenn sie ein richtiges Objektiv hat, hat sie noch Vorteile (mal sehen, ob das auch irgendwann kommt), aber wenn da eh nur eine Winz-Linse drin sitzt, tut's auch hier das Smartphone.
  • Das Radio wird vom Smartphone einfach mal assimiliert (sprich: Die meisten können das halt auch). Ansonsten dank des Internets früher oder später wohl eh egal.
  • Seine Daten auf einem USB-Stick umher tragen, dürfte wohl auch bald ein Ende haben. Das Smartphone macht das im Nebenjob.
  • Einen PC (egal, ob nun Desktop oder Laptop) braucht man auch nur noch, wenn das große Display oder die hohe Leistung gefragt sind; die heute häufigste Anwendung (das Surfen im Netz) erledigt mal wieder das Smartphone.
Einige weitere Anwendungen werden hier in Zukunft noch folgen.
  • Einen Fernseher kann ein Smartphone dank der niedrigen Bandbreiten und der damit verbundenen Kosten heute noch nicht ersetzen und DVB-T kann bisher noch kein einziges Gerät. Aber das sind alles lösbare Probleme.
  • Wozu eigentlich eine Taschenlampe? Wer hat nicht schon einmal sein Handy-Display als solche missbraucht. Der Akku ist problemlos dazu in der Lage, ein ein auf die gewünschte Lichtfarbe eingestelltes Display über Stunden zu versorgen. Einzig dessen Helligkeit reglementiert hier. Mit der richtigen Maximal-Helligkeit kann das Smartphone dann sogar als eine deutlich umfangreichere Notbeleuchtung dienen – man denke auch hier mal wieder an Entwicklungsländer mit ihrem lausigen Stromnetz.
In meinem Haushalt gibt es außerhalb der Küche kaum ein elektrisches Gerät, dass man in der "Smartphone-Ära" wirklich noch braucht. Klar, das eine oder andere ist in irgendeiner Form durch seine Spezialisierung im Vorteil: Am PC schreibt es sich dank richtiger Tastatur schneller und viele Anwendungen haben es auch leichter; die Stereo-Anlage klingt besser als so ein Handy-Lautsprecher und ein großer Fernseher erzeugt eine völlig andere Atmosphäre als so ein 4"-Winzling – aber wirklich unumgänglich brauchen im Sinne von "ohne diese Funktion ist man von der Welt abgehängt"? Nö.

Insofern bietet diese Geräteklasse eine gute Chance, den "digital devide" sehr deutlich zu verkleinern – denn der Effekt von guter und schlechter Internetanbindung ist im Vergleich zu dem Fall von gar keiner nur noch sehr klein. Und ist dieser erste Schritt erst einmal getan, ist es für den nächsten nicht mehr wirklich weit. Wer weiß, vielleicht ist es bei einem internationalen IT-Projekt irgendwann genauso üblich, dass dort Leute aus Mombasa mitarbeiten, wie heute solche aus Mailand, Manhatten, Moskau oder inzwischen auch Mumbai…

Donnerstag, 14. Juli 2011

Hartz IV und der Stromverbrauch

Der MDR hat gerade gemeldet, dass die Regelsätze bei Hartz IV für die Stromkosten zu niedrig seien. Dass dieses Ergebnis aus der "Studie" herauskommt, war ja eigentlich vor der Meldung klar (weil sonst gibt's keine Meldung), das Ergebnis ist dennoch zu hinterfragen.

Zunächst einmal sei zu erklären, wie dieser Regelsatz definiert ist: Für die erste Person in einem Haushalt sind dies 321,60€; für jede weitere Person 96,60€ zusätzlich. Aus irgendeinem Grund gibt es hiervon eine Abweichung für die dritte Person von 257,28€ (in dem konkreten Beispiel ein zweiter Erwachsener; während alle anderen Personen Kinder sind?). Für einen 4-Personen-Haushalt stehen so beispielsweise 722,08€ zur Verfügung.

Die Staffelung hat relativ wenig (um nicht zu sagen gar nichts) mit der Realität zu tun. Einen Unterschied, ob es sich bei einer Person um einen Erwachsenen oder ein Kind handelt, gibt es in den üblichen Verbrauchsstatistiken *nicht*.

Für die Verbrauchsberechnung hat der MDR leider den Fehler gemacht, den Durchschnittsverbrauch inklusive Warmwassererzeugung anzusetzen (der afaik zu den Heizkosten fällt), wodurch die Zahlen recht deutlich erhöht sind. Eine den realen Durchschnitten sehr nahe kommende Formel sind 1000 kWh "Grundumsatz" für die leere Wohnung und 500 kWh pro darin lebende Person. Übertragen wir das ganze einmal auf die Berechnungsgrundlage des Regelsatzes, geht man offenbar davon aus, für knapp 100€ 500kWh Strom (macht genauer einen Arbeitspreis von 19,32ct) und für 31,80€ die Grundgebühr zu kriegen.

Diese Preise sind sehr vorsichtig ausgedrückt utopisch. Die Grundgebühr liegt in der Realität bei mehr als dem doppelten; die Arbeitspreise nähern sich der 25ct-Marke.

Interessant ist das Beispiel des 3-Personen-Haushaltes, da hier ja dieser ominöse Erwachsenden-Satz enthalten ist. Selbiges gibt bei mir hier tatsächlich einmal einen recht gut passenden Wert (mit Grundversorger kostet's hier 670€). Das liegt daran, dass 250€ für eine weitere Person in meiner Rechnung (anders als beim MDR!) dann doch mal zu viel sind. Am besten kommen zwei Erwachsene ohne Kinder weg – irgendwie mal wieder bezeichend für die Hartz-IV-Gesetzgebung.

Ein sinnvoller Satz ist analog der oben schon angedeuteten Formel deutlich einfacher zu konstruieren als das derzeitige Modell: 450€ für die erste Person und 150€ für jede weitere. Ob Kind oder nicht, darf hier keine Rolle spielen. Warmwasser per Strom muss davon unabhängig mit 300€ pro Person bezahlt werden. Bei diesem Zahlen werden die Kommunen wahrscheinlich mehr als interessiert sein, den Leuten beim Stromsparen zu helfen - auch da hab ich gerade ein nettes Projekt gesehen.

Montag, 4. Juli 2011

Jetzt Löschen oder wie?

Irgendwann im vergangenen Jahr gab es ja auch die Diskussion, dass doch ein "Notrufknopf fürs Internet" erschaffen werden solle, über den fragwürdige Inhalte (konkret: Kinderpornos) gemeldet werden sollen. Nun, und eben bin ich auf eine Website aufmerksam gemacht worden, die möglicher Weise genau dieses liefert: jetzt-loeschen.de.

Auf dieser Seite wird ein Browser-Addon angeboten, dass einen solchen Meldeknopf zur Verfügung stellt. Laut dem Impressum handelt es sich hierbei um eine Einrichtung vom Niedersächsischen Ministerium für Inneres, Sport und Integration – das ist das Ministerium von unser aller Freund Uwe Schünemann.

Das so ein Angebot ob der dabei doch dringend erforderlichen Vertraulichkeit (immerhin hat sich der Melder theoretisch bereits strafbar gemacht!) nicht auf einer Domain des Landes liegt, ist nun seltsam genug. Darüber, ob und wie das ganze ausgewertet wird, ist dann auch nichts zu erlesen und die einzige Verbindung zu einer staatlichen Einrichtung ist eben diese Aussage im Impressum. Sehr viel Vertrauen schafft das jetzt nicht…

Da man jetzt aber nicht alles mies reden will, haben wir noch etwas Vertrauen übrig. Ungefähr solange, bis die Website dann einmal per HTTPS abgerufen werden soll. Da grinst einen nun eine Meldung über ein nicht so recht tolles Zertifikat an. Dieses Zertifikat ist seit 4. April 2011 abgelaufen (was gerade einmal einen Monat nach Beginn dieser Aktion war) und vor allem auf eine Domain "service.schmieder.eu" läuft. Schmieder? Ja, der Name taucht im Impressum auch auf, als "Verantwortlich für die Homepage". Selbiger scheint hier allerdings eher der Alleinveranstalter zu sein.

Und genau an der Stelle ist es bei MIR dann mit dem Vertrauen vorbei. Diese Seite liefert keinen auch nur brauchbaren Indiz, dass sie in irgendeinem Zusammenhang mit dem besagten Ministerium steht oder dass es sich bei diesem Browseraddon überhaupt um eine Software handelt, die dem besagten Zweck dient. Ohne hier irgendjemandem irgendetwas zu unterstellen, aber wo genau ist hier ein Nachweis, dass dies kein Bookmarksammler für Pädophile ist? Oder Malware? Oder einfach nur ein Fake?

Ein komplettes Rätsel ist mir auch noch, wie diese Anfragen ausgewertet werden – ich gehe sehr stark davon aus, dass diese in bei weitem überragender Zahl falsch bis schlichtweg unsinnig sind (Testklicks und was nicht alles). Das Addon selbst weigere ich mich übrigens solange zu testen, bis nicht halbwegs glaubhaft zu erkennen ist, dass wirklich eine seriöse Stelle hinter diesem Angebot steckt.

Mittwoch, 1. Juni 2011

Handy-Panik die 6420ste

Einmal mehr wabert die Meldung "Handys könnten Krebs erzeugen" durch die Medien – da hatte man doch das Thema endlich für erledigt gehalten. Das die WHO, die schon bisher ohne jeden Beleg vor Handies warnte, jetzt sofort die Panik schwingt, ist jetzt nicht wirklich erstaunlich. Aber was ist nun eigentlich los?

Eine zur Abwechslung einmal mit einer umfangreichen Teilnehmerzahl arbeitende Studie, genannt "INTERPHONE" hat die Telefonier-Gewohnheiten von jeweils rund 6000 Personen mit und ohne eine bestimmte Art eines Hirntumors erfragt. Herausgekommen ist, dass es unter denen mit dem Tumor etwas mehr Handy-Dauerquasler gibt – oder sich etwas mehr als solche bezeichnen; einige sagten über sich, 12 Stunden pro Tag am Handy zu quaseln. Bei dieser Zahl wurden dann sogar die Macher der Studie misstrauisch.

Erfragt wurde dabei die Handy-Nutzung (und nur diese!) über die letzten 10 Jahre. Dumm halt, dass ein solcher Tumor normalerweise 15 Jahre zum Entstehen braucht. Noch dümmer allerdings, dass der eigentlich nur durch eine starke ionisierende Strahlung entsteht – was so ganz und gar nicht zu dem Feld eines Handies passt; wohl aber zu einem Verhaltensmuster, dass wohl mit Handy-Nutzung gerne mal einher geht: (zu) viel Sonne. Schon unvermeidlich ist sowas wie die Sendeleistung des Handies (die durchaus um den Faktor 100 schwanken kann) nicht erfasst. Ob wenigstens zwischen "Handy am Ohr" und "SMS schreiben" unterschieden wurde, hoffe ich mal.

Bezeichnend übrigens, dass die Macher der Studie aus ihr *kein* erhöhtes Risiko ableiten! Diverse nationale und internationale Organisationen auch nicht. Nur die WHO, die schon…

Sonntag, 1. Mai 2011

Die Lüge vom "Selbstbestimmungsrecht der Völker"

Der Begriff "Selbstbestimmungsrecht der Völker" klingt doch toll, nicht? Als "Volk" bezeichnet man gemeinhin eine Gruppe mit einer gemeinsamen Sprache, gemeinsamen Kultur und gemeinsamen Abstammung. Geprägt wurde der Begriff ironischer Weise von einem englisch-stämmigen US-Präsidenten – wie soll dieser auch wissen, wie wenig umsetzbar diese Idee wirklich ist, wo er doch einen "Staat ohne Volk" repräsentiert? Gemeint hat er dann auch ein "Selbstbestimmungsrecht der Staaten" (an welches sich dann kaum jemand hält, aber das soll hier nicht Thema sein).

Und hier kommt das Problem: Die Staaten unserer Erde sind nicht aus den in ihnen lebenden Völkern entstanden. Dies mag in Europa und auf Inselstaaten einigermaßen zutreffen – doch anderswo sind Staaten fast immer das Ergebnis mehr oder weniger willkürlicher Grenzziehungen durch Kolonialmächte. In Nordamerika ist dies kein Problem, da man die Bevölkerung auch gleich mitbrachte: Die Ureinwohner wurden entweder assimiliert oder ausgerottet. In Südamerika blieb von den Ureinwohnern wesentlich mehr übrig, die Staaten dort funktionieren aber immerhin als eine Einheit – warum auch immer.

In Asien war "Britisch-Indien" die einzige bedeutende Kolonie und hatte die lokalen Strukturen aufrecht erhalten, die nach dem Rückzug der Briten auch einigermaßen erhalten wurden. Einzig sind Indien und Pakistan (und zu einem kleineren Teil auch Myanmar) eigentlich nicht ein Staat, sondern der Zusammenschluss vieler jeweils (ja, sogar so schlau waren die Briten!) kulturell ähnlicher Völker. Auch hier kollidieren die Grenzen aber schon immer mal wieder mit Siedlungsgebieten verschiedener Völker.

In Afrika sieht sie Sache weniger schön aus. Willkürlich gezogene Grenzen kreuz und quer durch ein von teilweise nomadisch, zumindest aber voneinander unabhängig lebenden Völkern besiedeltes Gebiet, die Installation von auf irgendwelchen meist eher kleinen Völkern basierenden Eliten konnte nur in einer Katastrophe enden. Und genau das ist herausgekommen. Kein einziger afrikanischer Staat südlich der Sahara besitzt etwas, was man auch nur ansatzweise als eine homogene Bevölkerung bezeichnen kann. Dafür sind die Regierungen meist mit Gewalt an die Macht gekommen, kümmern sich nur um ihr eigenes Wohl und sind bis an die Zähne bewaffnet. Hier und da stellt dann auch mal das "Regierungsvolk" des einen Staates das Mehrheitsvolk eines anderen Staates, was dann ein weiterer Grund für Kriege ist. Das Ergebnis ist bittere Armut und ständig an irgendeiner Stelle Gewalt.

Achja, und dann gibt es noch das absolute Highlight eines Vielvölkerstaates, bei dem es zwar an allem Ecken und Enden kracht, für die Zahl der Völker dann aber doch ruhig ist: Indonesien besteht aus über 300 (!) verschiedenen Völkern. Zusammen gehalten wird das ganze durch die Tatsache, dass eines dieser Völker zahlenmäßig dominiert. Die Freiheitsrechte der übrigen Völker kann man getrost als arg begrenzt bezeichnen. Drei seiner Inseln teilt sich Indonesien mit unabhängigen Staaten, welche einst britische bzw. portugiesische Kolonien waren, während das Kernland von den Niederländern besetzt war.

Montag, 18. April 2011

Die Absurdität der Abschreckung

Kaum ein Argument prägt die Gesetzgebung in unserer Gesellschaft so sehr, wie das der "Abschreckung", welches dann auch gleich für die Forderung nach schärferen Strafen herhalten darf. Hinterfragt wird diese Argumentation dabei selten, denn dann würde sie wohl wie eine Seifenblase zerplatzen…

Hinter dieser Argumentation steckt offenbar der Glaube, dass jede kriminelle Tat irgendeinen Nutzen für den Täter hätte, welcher dann durch eine besonders harte Strafe soweit gemindert würde, bis er die Tat aus Unrentabilität nicht mehr begeht. Dies mag für Finanzdelikte oder auch in Bereichen der organisierten Kriminalität gelten; für die allermeisten Straftaten sind harte Strafen aber völlig bedeutungslos und auf teilweise sogar kontraproduktiv. Straftaten, die aus den Affekt oder aufgrund eines Triebes werden Seitens des Täters überhaupt nicht; solche aus einer Notlage heraus nur stark reduziert auf ihre Folgen hinterfragt – dabei geht es sowohl um die Folgen der Tat selbst wie auch um die Folgen einer eventuellen Strafe.

Besonders offensichtlich wird dieses Problem bei Triebtätern – diese unterliegen einem inneren Zwang eine bestimmte Handlung zu begehen. Dieser Zwang ist nicht kontrollierbar und kann völlig den eigentlichen moralischen Vorstellungen der Person widersprechen. Folgerichtig ist es auch kein Widerspruch, wenn Triebtäter auf die Außenwelt als "völlig normale Menschen" wirken – solange nichts da ist, was diesen Zwang auslöst, SIND sie völlig normale Menschen. Bei Triebtätern bringen Strafen – gleich ob hart oder weniger hart – rein gar nichts. Das die Tat moralisch falsch ist, muss man diesen Leuten nicht sagen. Vielmehr muss man diese Personen wie Süchtige behandeln, die von ihrer Sucht zu befreien sind.

Nicht viel besser wird das ganze bei einer Straftat aus dem Affekt. Wohl jeder hat schon einmal aus Wut heraus irgendeinen Gegenstand in die Ecke geworfen oder auch nur jemanden, der einem auf die Nerven geht, angebrüllt. Eine solche Handlung ist objektiv betrachtet bestenfalls sinnlos, manchmal aber auch schädlich – wie man hinterher, wenn man den Gegenstand dann nur noch zusammenfegen kann oder der angebrüllte Chef einen gefeuert hat, selbst merkt. Auch hier gibt es nichts abzuschrecken, denn über die Folgen denkt man sowieso erst hinterher nach. Viel wichtiger wäre hier allerdings – soweit möglich – eine Wiedergutmachung. Wie weit eine Strafe dieser dient, kann man sicherlich geteilter Meinung sein; ich denke überhaupt nicht.

Bei Straftaten, die aus einer Notlage heraus geschehen, wird zum Teil dann durchaus über die Folgen der Tat nachgedacht – dies aber viel mehr als moralischen Geschichtspunkten denn aus Angst vor vermeintlich harten Strafen. In einer solchen Situation kann sogar dazu kommen, dass diese "Strafe" eigentlich eine Verbesserung gegenüber der derzeitigen Lage darstellen kann. Eine Abschreckung kann hier also durchaus nach hinten losgehen; solange die Tat selbst nicht mit der Moral des Täters kollidiert. Dies ist einer der Gründe, wieso einbrechende Junkies fast nie Waffen bei sich tragen – während sie Diebstahl als aus ihrer Not heraus als gerechtfertigt ansehen, gilt dies für Gewalttaten nicht. Diese moralische Grenze wird übrigens durch die von der Gesellschaft in Form von Strafen akzeptierte Form der "Gewalt" sehr stark beeinflusst – findet die Gesellschaft harte Strafen normal, wird auch der Einbrecher solches normal finden… Was tut man nun gegen solche Taten? Naja, am einfachsten die Not beseitigen – wer nicht in eine Notlage gerät, wird auch nicht aus einer solchen heraus eine Straftat begehen.

Jetzt kommen wir dann zu der einzigen Gruppe, wo eine Abschreckung theoretisch funktionieren könnte, den "Überzeugungstätern", also Personen, die in mehr oder minder vollem Bewusstsein dessen, was sie da tun, eine Straftat begehen. Hier mag man erst einmal an sadistische Mörder oder Terroristen denken; die Kriminalstatistik aber denkt hierbei viel mehr an Steuerhinterzieher.

Also müsste man jetzt eigentlich fordern: "Todesstrafe für Steuerhinterzieher!". Oder einfach pro angefangene 100€ einen Körperteil abhacken? DIESE Strafen würden abschrecken, aber dann beißen sich ja bestimmte Leute selbst…

Dienstag, 12. April 2011

Firefox 4 und die digitale Spaltung

Für die aktuelle Version des Webbrowsers Firefox gibt es eine mehr als interessante Statistik über die Downloads, in der einmal in sehr großem Umfange erfasst wird, wer von wo den Browser herunter lädt. Bei einer Gesamtzahl von inzwischen fast 77 Millionen Downloads und einem Zeitraum von jetzt drei Wochen lassen sich aus diesen Zahlen einige Erkenntnisse über die Verbreitung des Browsers und ziemlich direkt wohl auch des Internets in verschiedenen Teilen der Welt ablesen – immerhin hat mehr als 1% der Weltbevölkerung dieses Programm jetzt schon heruntergeladen…

Da wäre an erster Stelle die Verteilung auf die Kontinente: In Europa, Nordamerika und Ozeanien hat jeder zwanzigste bis jeder dreißigste Einwohner Firefox 4 heruntergeladen; in Südamerika schon nur noch jeder 70ste. In Asien ist es gerade einmal jeder 300ste, in Afrika sogar nur jeder 500ste.

Einzelne Staaten sorgen hier natürlich für riesige Ausreißer – etwa macht Ägypten, dass nicht einmal 10% der Bevölkerung Afrikas beherbergt über ein drittel aller Afrikanischen Downloads aus. Zusammen mit den anderen Mittelmeer-Staaten und Südafrika machen diese gar 3/4 aus, bei 20% der Einwohner. Der Totalausfall Libyens wundert wohl niemanden. Für den Rest Afrikas ergibt sich damit gar nur eine Quote von 1/1800 Einwohnern...

Die Werte aus Europa bergen dagegen wenige Überraschungen. In den Staaten, die keine EU-Mitglieder sind (Russland und die Türkei werden jeweils komplett zu Europa gerechnet), ist die Quote jeweils nur etwa halb so hoch wie innerhalb der EU, das war es dann aber eigentlich schon. Ebenfalls wenig überraschend ist Nordamerika, hier hat Mexiko eine Quote von 1/100, während sich die beiden reichen Nachbarn im Norden um die 1/15 bewegen. Südamerika beginnt mit Brasilien und einer Quote von 1/80. Im Rest des Kontinents sieht es nicht wesentlich anders aus; einzig Chile ragt mit 1/33 etwas heraus.

Der Wert Ozeaniens wird naturgemäß von Australien dominiert, eine Quote von 1/18 gibt es hier. Allerdings macht Neuseeland praktisch den kompletten Rest aus; das eigentlich größere Papua-Neuguinea kommt auf 1800 Downloads – eine Quote von 1/2800.

Die Aufteilung in Asien (in der Statistik ohne Russland und die Türkei gerechnet) ist für mich die überraschendste, da zumindest einige der vermeintlichen Entwicklungsländer mit durchaus nicht ganz niedrigen Quoten dienen können. An erster Stelle liegt hier Indien (Quote 1/500), dann bereits das von mir wesentlich niedriger erwartete Indonesien (1/100). Eine ähnliche Quote leisten sich auch die weiteren Staaten Asiens, interessanter Weise egal ob reich (Japan, Südkorea, Taiwan) oder eher arm (Vietnam, Philippinen, Malaysia, Thailand). Man vermisst indes das größte Land der Welt – in China gab es gerade einmal gut eine halbe Million Firefox-4-Downloads, was einer Quote von nur 1/2500 entspricht. Dagegen kommt das bettelarme Bangladesh (1/1000) richtig gut weg.

Natürlich sind die Zahlen kein direkter Gradmesser der Internet-Verbreitung in den jeweiligen Ländern, besonders deutlich wird dies an den Werten aus den reichen Staaten Ostasiens, welche eher durch eine niedrige Popularität von Firefox begründet sein dürften. Auch werden wohl in Ländern mit sehr schlechten Internet-Anbindungen andere Verbreitungswege aushelfen, während in jenen mit besonders guten solchen auch mal der Zweitrechner für einen zweiten Download in der Statistik sorgt. Trotz allem zeigen diese Staaten sehr deutlich, dass es weiterhin eine starke "digitale Spaltung" der Welt gibt. Diese ist zwar bei weitem nicht so gewaltig wie jene der Einkommen, dennoch aber ein Thema, über das man nachdenken sollte.

Montag, 28. März 2011

Forderungen für Baden-Württemberg

Geht man durch die einschlägigen Internetforen, so sind die Erwartungen an die grün/rote Regierung ziemlich vernichtend. Vor allem wird davon ausgegangen, dass kaum eines der Versprechen eingehalten wird und sowieso alles so weiter läuft, wie bisher. Will die neue Regierung diesen Erwartungen nicht verspielen – und nur dann gibt es irgendeine Chance auf eine Wiederwahl 2016 – so müssen die Versprechungen nicht nur ohne Abstriche, sondern auch sehr schnell umgesetzt werden. An dieser Stelle möchte ich einmal einige Punkte nennen, die hierfür erforderlich sind:
  • Als allererste Neuerung muss das Thema "direkte Demokratie" angegangen werden. Hier muss bereits bis zum Sommer dieses Regelung her, die mindestens so einfach ist wie die bereits erfolgreich praktizierte in Hamburg (natürlich mit einer proportionalen Anpassung der Unterschriftenzahlen).
  • Die Bürger dürfen sich nicht "regiert" fühlen; im Gegenteil: Sie müssen den Eindruck haben, dass der Landtag stets nur die Forderungen der Bürger in Gesetze formt.
  • Jedes noch so kleine Abweichung von dem Wahlprogramm muss deutlich begründet werden. "Parlamentarische Zwänge" sind keine Begründung; "wir haben populistischen Quatsch gefordert" schon eher. Tut nicht so, als währt ihr unfehlbare Herrgötter – diese Heuchelei ist ganz Deutschland schon lange leid.
  • Korrigiert dieses beschissene Wahlsystem!
  • Noch schneller muss zu Stuttgart 21 ein Bürgerentscheid her. Hierbei muss klar gesagt werden, welche Kosten in welchem Falle entstehen. Der Staat (gleich welche Stelle) darf keinen Cent bezahlen, der darüber hinaus geht.
  • Das Kernkraftwerk Philippsburg I muss sofort abgeschaltet bleiben, Neckarwestheim I sowieso. Die beiden anderen müssen bis zum Ende der Legislaturperiode abgeschaltet werden. Der durchschnittliche CO2-Ausstoß im EnBW-Netz darf dabei nicht über den Wert von 2010 (235g pro kWh) steigen. Parallel dazu muss eine Perspektive geschaffen werden, wie der CO2-Ausstoß bis 2020 deutlich über die EU-Weit festgeschriebenen 20% hinaus gesenkt werden soll.
  • Die EnBW als solche ist in eine Gesellschaft ohne Gewinnabsichten umzuwandeln, so dass die Gewinne vollständig umgehend in erneuerbare Energien investiert werden. Der Strompreis darf nur dann steigen, wenn die EnBW im jeweiligen Vorjahr direkt im operativen Geschäft (also ohne Abschreibungen) Verluste erzielt hat und nachgewiesen werden kann, dass diese Verluste auch im aktuellen Jahr zu erwarten sind. Preissenkungen insbesondere unter das heutige Niveau sollten dagegen erst erfolgen, nachdem die Versorgung auf 100% erneuerbare Energien umgestellt wurde.

Donnerstag, 24. März 2011

Geschichte wiederholt sich?

Mitte der 1990er Jahre haben diverse hochpreisige Automarken ihr Angebot in die Kompaktklasse erweitert. In der gleichen Zeit sind die Modelle der oberen Mittelklasse bei den günstigeren Herstellern ausgestorben. Ob es hier einen Zusammenhang gibt; also der heutige BMW 1er-Fahrer früher Opel-Omega-Kunde war, lässt sich nicht sicher sagen – einige Aussagen entsprechender Personen lassen diesen Eindruck allerdings entstehen.

Nun gibt es derzeit einen Trend zu Premium-Kleinwagen – Alfa Romeo MiTo, Audi A1, BMW Mini, Citroen DS3 und Smart fortwo ist eines gemeinsam: Wirklich viel Länge bekommt man nicht gerade für's Geld. Die Autopresse unkt dann auch gerne, dass das Zeug – insbesondere der Audi – ja eh nicht gekauft würde. Doch was sagen die Zahlen?

Nun, diese fünf Modelle wurden in den ersten beiden Monaten 2011 gut 14.000 Mal verkauft, was knappe vier Prozent aller Autos ausmacht. Dabei entfallen knapp 400 auf den Alfa Romeo, 1000 auf den Citroen und jeweils rund 4000 auf die anderen drei. Schlecht verkaufen würde ich das nicht nennen.

Der oben schon angedeutete Verkauf wirft gleich einmal eine interessante Frage auf: Wenn die Premium-Kompakten die mormalpreisigen in der oberen Mittelklasse gekillt haben, killen dann die Premium-Kleinwagen die normalpreisige Mittelklasse? Die Verkaufszahlen sehen für mich bisher nach einem "jein" aus: Die Zahlen der Mittelklasse fallen nicht – ganz im Gegenteil: von den wichtigeren Modellen hat einzig der Opel Insignia (mal wieder) fallende Stückzahlen; aber von über 4000 Exemplaren können jener Opel und der Ford Mondeo nur träumen. Und die ausländische Konkurrenz sowieso. Davon knacken immerhin zwei die Zahlen des Citroen DS3 (mit Toyota Avensis und Mazda 6 zwei Marken, die für "unkaputtbar" bekannt sind), der Rest aber sieht eher bescheiden aus.

Ich stelle hier daher einmal eine gewagte These: Mit weiteren Premium-Kleinwagen dürfte es einer ganzen Reihe von Normalpreisigen Mittelklassewagen an den Kragen gehen – anders als bei der oberen Mittelklasse werden wir kein völliges Aussterben sehen; insbesondere VW Passat, Skoda Octavia und Mazda 6 sehe ich hier durchaus weiterhin. Einige andere – etwa Citroen C5 oder Honda Accord – dürften keinen Modellwechsel mehr bekommen. Und auf eine sonderlich große Zukunft des Opel Insignia würde ich schon gar nicht wetten. Aber vielleicht ist GM ja so schlau und stellt dem Opel Corsa einen Luxus-Ableger zur Seite, der innen so edel aussieht wie die Buick-Modelle? Oder Honda bastelt uns einen kleinen Acura?

Dienstag, 22. März 2011

E10 - oder: Wenn Unwissenheit besser wäre…

Nun haben wir also nun den Biosprit mit Ethanol-Anteil. Genauso wie ihn die USA, Brasilien, China, Frankreich und diverse weitere Staaten haben. Das heißt, eigentlich haben wir schon seit einigen Jahren.

Doch auf einmal ist alles anders, denn weil jetzt der Ethanol-Anteil von 5 auf 10% erhöht wurde, gehen auf einmal davon unsere Autos kaputt – beziehungsweise eben nicht, weil "wir" das Zeug ja nicht tanken. Ist ja auch logisch, ein aus Brasilien importiertes Auto verträgt in Deutschland keine 10% Ethanol, welche (leider teilweise) aus Brasilien importiert werden. In Brasilien verträgt das gleiche Auto dann 85% mit Herstellerbescheinigung und Millionen von Einzelerfahrungen. Alles ganz logisch, nicht? Hier ist schließlich Deutschland; hier ist alles anders – darum funktioniert hier ja auch im Gegensatz zu Dutzenden anderer Staaten kein Mindestlohn; oder so…

Doch warum vertragen unsere Autos kein E10? Genau: Weil "wir" ihnen das gesagt haben! Ja, Autos sind da wie Menschen – wenn man ihnen sagt, dass sie etwas krank macht, dann passiert das auch. Auch ganz logisch, nicht? Wenn man den brasilianischen Autos sagt, dass sie vom Ethanol alle sterben, sind die sicher auch binnen Tagen total kaputt. Achso, das ist dort ja nicht so schlimm, schließlich können sich die Brasilianer ja sofort ein neues Auto kaufen; DAS ist ja nur für die armen hungernden Deutschen ein Problem! Und sagt den Autos bloß nicht, dass in dem bisherigen Benzin auch Ethanol drin ist (zu 5%) und im Diesel auch sowas ähnliches (zu 7%).

Noch viel schlimmer ist ja der Mehrverbrauch! Wenn da jetzt "E10" statt "E5" an der Säule steht, hat das ganze ja schon einen Mehrverbrauch von 20%. Wie ist der dann erst, wenn da wirklich E10 raus kommt? Am Ende verbrauchen wir mehr Rohöl als vorher; das Ethanol hat ja schließlich einen negativen Brennwert!

Dabei wäre die Sache doch ganz einfach: Die Hersteller geben einfach eine "rechtsverbindliche Unbedenklichkeitsbescheinigung" ab. Dann muss der Hersteller einfach "uns" einen neuen Motor schenken, wenn etwas kaputt geht. Und weil natürlich jede irgendwie geartete Nachweispflicht für "uns" unzumutbar ist, muss er den Motor natürlich auch ersetzen, wenn wir diesen mutwillig durch irgendeine andere Substanz zerstören. Diesel-Kraftstoff soll da ganz gut wirken und für die Leitungen ist Salzsäure immer eine Idee wert. Endlich ein fabrikneuer Motor für alle VW Golf 1! Zahlt natürlich der Piëch aus seinem Privatvermögen.

Damals beim verbleiten Benzin war das doch genauso! Deswegen gibt es ja heute auch keine Autos mehr von vor 1985, obwohl die viel besser waren – vor allem viel sicherer und sparsamer – als die von heute!

…wer Ironie findet, darf sie behalten. Und sich fragen, ob es bei einer Bevölkerung, die bei jeder Gelegenheit hysterisch reagiert, nicht "Maul halten und machen" manchmal die besseren Ergebnisse liefert…

Sonntag, 20. März 2011

Realistische und absurde Strahlendosen

Im Zuge der Reaktorunglücke in Fukushima wabern die wildesten Zahlen über die ausgetretene oder austretende Strahlung durch die Medien. Ein Großteil der Messwerte lässt sich in der einen oder der anderen Richtung als "absurd" bezeichnen.

Es gibt zwei primäre Ursachen für absurde Werte in diesem Zusammenhang. Dies ist zum einen das Verständnis von Vorzeichen und zum anderen die Frage, wo ein Wert gemessen wurde.

Die Strahlung wird dort zumeist in "µSv/h", also "Millionstel Sievert pro Stunde" angegeben. Das die Vorzeichen "µ" (für Millionstel) und "m" für Tausendstel verwechselt werden, passiert auch in anderen Zusammenhängen regelmäßig und so auch hier. Entsprechend werden dann aus gemessenen "16000 µSv/h" in den Medien "16 Sv/h". Ich halte jede Zahl auch nur in der Nähe von 0,1 Sv/h, die irgendwo publiziert wird, pauschal für unsinnig – außer vielleicht innerhalb eines der Gebäude, aber genau aus diesem Grund weiß niemand, wie es da drin aussieht.

Das zweite Problem ist vor allem ein großer Verständnisfehler. Diese sehr hohen Werte (ja, 0,016 Sv/h *sind* sehr hoch!) wurden meist zwischen den Reaktorblöcken drei und vier gemessen; also nach allem, was wir wissen 10-20m Luftlinie von komplett offen liegenden abgebrannten Brennelementen entfernt. An dieser Stelle halten sich allenfalls Mitarbeiter des Kraftwerks für zwingend erforderliche Arbeiten auf – und dies sicherlich nicht länger als einige Minuten.

Ein weiterer oft zitierter Messpunkt ist das Werkstor. Dieses befindet sich etwa 1km westlich bis südwestlich der Reaktoren. Die Messwerte hier bewegen sich im einstelligen mSv/h-Bereich. Extreme Abweichungen (insbesondere ähnliche Zahlen mit anderen Vorzeichen) wären wieder als absurde Werte anzunehmen.

Eine (etwas zähe) Website hat einige Messwerte aus ganz Japan gesammelt. Hierbei bewegt man sich in der entsprechenden zumeist zwischen 100 und 200 nSv/h (=Milliardstel). Einige Ausreißer sind dabei jedoch auch im Bereich von 1µSv/h; Werte wirklich weit von der Anlage entfernt bei für mich erstaunlich niedrigen ~25 nSv/h.

Die Frage, was eine "harmlose" Dosis ist, lässt sich nicht direkt beantworten. Die Stärke einer radioaktiven Strahlung führt – solange sie nicht extrem stark ist – nur zu einem statistisch erhöhten Krebsrisiko. Ein solches Risiko lässt sich jedoch erst ab einer vergleichsweise sehr hohen Dosis von 100 mSv pro Jahr (also dauerhaft ~11 µSv/h) statistisch nachweisen. Darunter geht dies einfach zwischen üblichen statistischen Schwankungen unter und ist nicht mehr nachweisbar – es könnte eine weitere proportionale Abnahme sein; es könnte aber auch eine überproportionale sein, weil die Selbstheilung bessere Chancen hat.

Die Höhe der natürlichen Strahlung wird gemeinhin mit um die 2 mSv pro Jahr (=228 nSv/h) angegeben, dieser Wert schwankt aber sowohl regional wie auch zeitlich sehr stark. In der iranischen Stadt Ramsar etwa verursachen heiße Quellen im Schnitt 10 mSv pro Jahr mit Ausreißern bis zu 260 mSv/Jahr. Dazu kommt eine ganze Reihe zusätzlicher Belastungen, denen wir uns unbewusst (Steinhäuser, Bananen, Flugreisen) oder sogar bewusst (medizinische Behandlungen) aussetzen. Sicher ist, dass selbst ein Strahlenwert von deutlich über 1µSv/h keine Folgen hat, die sich nachweisen lassen – aber wie gesagt: Ein von 25 auf 25,05% erhöhtes Krebsrisiko ist zwar ein erhöhtes Risiko, nur eben nicht nachweisbar…

Freitag, 18. März 2011

Warum Autotests Voodoo sind

Wer kennt sie nicht, die gerne mal zitierten "Autotests", die vornehmlich von selbsternannten "Fachmagazinen", teilweise aber auch von anderen Medien durchgeführt werden. Die Ergebnisse gelten als "vielleicht etwas schöngeredet, aber im großen und ganzen doch passend". Tja, so kann das ganze täuschen, denn wissenschaftlich betrachtet ist das ganze nicht seriöser als die klassische "der Storch bringt die Kinder"-Argumentation.

Fangen wir einmal mit der Stelle an, wo wohl noch den meisten klar ist, dass etwas faul ist, weil es um ein Experiment geht, das jeder selbst überprüfen kann – den Verbrauch. Ein Grundsatz der Wissenschaft besagt, dass ein Versuch so aufgebaut sein muss, dass jeder andere diesen exakt reproduzieren kann. Erhält dieser signifikant andere Ergebnisse, ist der Versuchsaufbau Müll – als "signifikant" gilt hier meist ein Wert von 5%. Und genau dies passiert, wenn man versucht, den Verbrauchswert eines Autotests zu reproduzieren: Verschiedene Verbrauchsmessungen weichen um mehr (sogar um wesentlich mehr) als 5% von den Aussagen der Autozeitung ab.

Die Verbrauchsermittlung einer Autozeitung erfolgt, indem man einen zufälligen Fahrer eine zufällige Strecke bei zufälligen Bedingungen durchfahren lässt – wissenschaftlich nennt man so etwas eine "Stichprobe". Eine einzelne Stichprobe ist aber ohne jede Aussage – eben weil es zahlreiche Variablen gibt, von denen der Verbrauch abhängt. Um eine brauchbare Aussage zu bekommen, müsste man also eine große Zahl an Stichproben nehmen, die dann einen Wertebereich ergeben. In dieser wird sich eine deutliche Häufung in der Mitte finden, wenn die Zahl der Stichproben groß genug ist. Heraus kommt hier nun ein Wert, der für einen typischen Kleinwagen etwa "6l +/-2l" aussehen wird – oder mit anderen Worten: 4-8l. Das ganze heißt dann übrigens nur, dass 95% aller Messwerte zwischen 4 und 8 Litern liegen werden. Man kann sich hier dann auch denken, welchen Wert es hat, einen "Unterschied" von 0,2l irgendwo zu "messen"…

Das nächste schöne Thema der Tests heißt "Verarbeitungsqualität". Dieses "Experiment" kann man nun selbst nicht ganz so gut reproduzieren, da man ja nur ein Fahrzeug kennt – "Experiment" steht da in Anführungszeichen, weil es überhaupt keine objektiven Kriterien gibt. Aber auch dann würde die Autozeitung wieder nur eine Stichprobe liefern; in diesen Falle dann gleich unstrittig eine unbrauchbare: Jedes Fahrzeug, das an die Presse geht, bekommt statt des üblichen Checks über ~15 Minuten vor der Auslieferung einen, der mindestens einen, manchmal auch mehrere Tage dauert. Das gleiche versaut natürlich auch Messwerte zu Lärm, Fahrwerkseigenschaften und möglicherweise auch Leistung und Verbrauch. All dies lässt sich durch Nachbearbeitung und/oder Selektion besonders guter Teile optimieren.

Und dann wären da noch Leistung und Ausstattung… Eh, Sie wollten die C-Klasse sicherlich auch gerade mit dem V6-Benziner kaufen? Oder doch gleich den V8? Gut, die Leistung, die die Kunden kaufen, wird natürlich nicht an die Presse verteilt – viel zu groß das Risiko, dass der sportwagenverwöhnte Tester den 150 PS-Diesel als "lahme Ente" betrachtet. Bei der Ausstattung sieht das ganze ähnlich aus, die Presse bekommt einfach die "Vollversion". Da muss diese dann auch keine Fotos von unbestückten Schaltern zeigen oder erklären, wie scheiße das Fahrwerk ist, dass man bekommt, wenn man keine 5000€ für ein aktives Fahrwerk ausgeben will.

Insofern stellt man relativ schnell fest, dass "Autotests" keine Tests sind, ja nicht einmal laienhafte Stichproben, sondern einfach nur Werbung. Mit wenigen kleinen Änderungen wären bereits deutlich bessere Ergebnisse zu bekommen – einfach eine übliche Version anonym bei einem Händler besorgen (für die meisten Tests reicht eine einfache Probefahrt) und dann diese Werte über eine größere Stückzahl an Fahrzeugen abgleichen.

Sonntag, 13. März 2011

Wenn Regeln nicht mehr helfen

Durch meinen Twitter-Ticker wanderte vorhin die Meldung zum Tod des Schauspielers Dietmar Mues. Der Name sagte mir erst einmal nichts, also habe ich einmal recherchiert. Mues, seine Ehefrau und zwei weitere, ebenfalls nicht unbekannte Personen sind als Fußgänger im Zuge eines der wohl schwersten Verkehrsunfälle Hamburgs in den letzten Jahren geworden – bei diesem Unfall sind mehr Menschen gestorben, als im hamburgischen Straßenverkehr in einem durchschnittlichen Monat.

Die Freie und Hansestadt Hamburg hat seit einigen Jahren sehr erfolgreich die Zahl der tödlichen Verkehrsunfälle reduziert, auf 30-40 pro Jahr. Dieser Wert dürfte weltweit einer der niedrigsten sein. Zum Vergleich: Der sicherste Staat der EU ist Malta mit mehr als doppelt so vielen Toten pro Einwohnerzahl; der Bundes-Durchschnitt ist etwa beim dreifachen.

Doch alle Sicherheit hilft nicht gegen absoluten Irrsinn, der in diesem Falle schon fast an mutwilligen Mord erinnert: Ein offenbar komplett zugedröhnter Autofahrer ist mit massiv überhöhter Geschwindigkeit mit einem Fiat Punto durch Hamburg Eppendorf gerast. Ob und mit was jemand zugedröhnt ist, ist für mich dabei zwar eine Erklärung, aber keine Rechtfertigung – an dieser Stelle bin ich ziemlich radikal: Wenn jemand auch nur mit einem minimalen Rauschzustand (dafür reicht für mich eine Zigarette!) einen Unfall verursacht, darf diesem gerne auf Lebenszeit der Führerschein entzogen werden. Dummer Weise war er dabei nicht alleine, denn der ebenfalls nicht unbekannte Schauspieler Peter Striebeck war mit seinem Golf Cabrio an der riesigen Kreuzung Lehmweg/Eppendorfer Baum "im Weg". Diese Kollision verlief noch einigermaßen glimpflich, jedoch hat sich der Wagen des Rasers danach überschlagen – etwas, was für mich recht deutlich sagt, wie schnell dieser Irre gefahren sein muss, denn rund 1 Tonne Leergewicht reagieren bei selbst bei 80 km/h nicht auf diese Art. Gelandet ist der Wagen in einer Gruppe Passanten, von denen vier starben und acht zum Teil schwer verletzt wurden.

Bei jedem Unfall stellt sich natürlich die Frage, wie man einen solchen verhindern kann. Ich gehöre hier nicht zu den Leuten, die deswegen jedes Auto bei 30 km/h abriegeln wollen oder andersherum einfach Fußgänger verbieten wollen. Jedoch sollte man einmal die Frage stellen, ob es wirklich sinnvoll ist, wenn wir Straßen durch unsere Städte bauen, die in ihrer Breite einer Rennstrecke in nichts nachstehen. Die beste Regel ist nämlich immer noch die Physik; dieser kann sich auch ein zugedröhnter Idiot nicht entziehen. Wäre die Straße wesentlich enger gewesen, hätte die Raserei vielleicht lange vorher an einer Hauswand ihr Ende gefunden. Es mag sein, dass dies für den Raser nicht gut ausgegangen wäre; aber dabei hätte es – hart ausgedrückt – wenigstens den richtigen getroffen…

Dienstag, 8. März 2011

Lösungsansatz für E10

Derzeit ist ja nun der Biosprit E10 in aller Munde. Eine Mischung aus Panikmache und völligem Unwissen der Verbraucher über so ziemlich *alles*, was dieses Themenfeld betrifft hat hier verbunden mit realen Problemen mal wieder zum medialen GAU geführt.

Aus diesem Grunde einmal der Versuch, das ganze so zu erklären, dass es alle verstehen – in einem Text, der wahrscheinlich vernichtende Zukunftsängste schüren wird, aber nur so kann man endlich einmal das Bewusstsein für die erforderliche Änderung schaffen.

Benzin und Diesel werden aus Erdöl gewonnen. Einer Substanz, die daneben vor allem auch für die Herstellung jeder Art von Kunststoffen und für die Produktion von Düngemitteln gebraucht wird. Von allen Verwendungen überwiegt die als Brennstoff für Autos und zu einem kleineren Teil als Heizöl.

Doch Erdöl ist eine endliche Ressource, die in wenigen Jahren aufgebraucht sein wird. Mit dem Ende des Erdöls wird unsere Zivilisation, so wie wir sie heute kennen, zusammenbrechen. Und es stehen Kriege zu befürchten, deren einziges Ziel darin besteht, so viele Menschen wie nur möglich zu töten, um diese als Nahrungskonkurrenten los zu werden. Einen ersten, vergleichsweise winzigen Vorgeschmack lieferte die Krise 2008 in den USA und diente als letzter Auslöser der Revolutionen im arabischen Raum.

Parallel dazu steigt die Nachfrage nach Erdöl derzeit insbesondere in China, wo 2010 etwa 15 Millionen Autos verkauft wurden – vornehmlich an Personen, die zuvor kein Auto besaßen. Zum Vergleich in Deutschland wurden im gleichen Zeitraum etwa 3 Millionen Autos verkauft, wobei der Gesamtbestand nur um knapp eine halbe Million stieg. Auch in den kommenden Jahren wird die Zahl der Autos weltweit deutlich steigen.

Wann das Erdöl am Ende sein wird, weiß niemand genau, da die Angaben zu dem noch vorhandenen Erdöl nicht überprüft werden können. Die Organisation erdölexportierender Länder (OPEC), welche etwa die Hälfte der weltweiten Ölförderung und zwei Drittel der proklamierten Vorräte besitzen, hat bereits in den 1980er Jahren eine Regelung eingeführt, dass die Fördermengen im Verhältnis der noch vorhandenen Vorräte zwischen diesen Staaten verteilt werden. Das Ergebnis war vor allem eine deutliche Anhebung der von den Staaten behaupteten Vorräte. Genauere Aussagen zu diesen sind in den entsprechenden Staaten Staatsgeheimnisse. Auch hat trotz anhaltender Förderung kein einziger OPEC-Staat jemals verbrauchte Erdölvorräte offiziell gemeldet. Dies lässt befürchten, dass die Vorräte dieser Staaten deutlich übertrieben sind und bereits 1985 nur bei der Hälfte der für heute behaupteten Mengen lag, wovon etwa die Hälfte bis heute nachweislich verbraucht wäre.

Die weltweite Ölförderung ist seit 2004 nicht weiter gestiegen; selbst als die Preise Mitte 2008 so hoch waren, dass sich eine weitere Steigerung gelohnt hätte, blieb diese aus. Dies wird von verschiedenen Experten als Indiz gewertet, dass sich die derzeitige Förderung nicht mehr weiter steigern lässt. Die weiteren Steigerungen bei dem Verbrauch an Benzin wird vor allem durch Kraftstoff-Anteile gedeckt, welche aus Pflanzen entstehen. In den USA, China und Europa sind hierzu in den vergangenen Jahren unterschiedlichste Anteile zwischen 5% (wie bisher in Deutschland) und 85% (welches in diversen Ländern optional angeboten wird) eingeführt worden.

Zwar werden vereinzelt neue Ölquellen gefunden, diese sind jedoch viel zu klein, um einen Mangel längerfristig aufzuhalten und oft erst bei Ölpreisen noch weit über dem heutigen kostendeckend förderbar. Die meisten Schätzungen gehen davon aus, dass im Verlauf der kommenden 10 Jahre die weltweite Ölförderung beginnen wird zu fallen. Hierbei wird von einem Rückgang von etwa 5% pro Jahr gerechnet – bei parallel steigender Nachfrage. Diese Nachfrage reagiert zudem nur sehr wenig auf Preissteigerungen – zwar wird weltweit über die Preise geklagt, jedoch nur selten der Verbrauch durch weniger Fahrten oder eine defensivere Fahrweise entsprechend reduziert. Bereits der Ausfall von gerade einmal 2% derzeit in Libyen hat den Ölpreis um etwa 20% steigen lassen, so dass bei einem nachhaltigen Rückgang eine Preissteigerung zu erwarten ist, die unseren Benzinpreis selbst bei Erlass sämtlicher Steuern auf ein Niveau weit über dem derzeitigen treiben würde.

Die bisherigen Einsparungen beim Benzinverbrauch reichen nicht ansatzweise aus, um die zukünftig sinkende Ölförderung abzufangen. Hierfür müsste der Gesamtbestand aller Fahrzeuge weltweit dauerhaft jedes Jahr in etwa dem Umfange sparsamer werden, wie dies die Neuwagen in Deutschland im Jahr 2010 gegenüber dem Jahr 2009 getan haben.

Unsere einzige Chance ist es daher so schnell wie möglich völlig vom Öl weg zu kommen. Hierfür müssen verschiedene Lösungen miteinander kombiniert werden.

So viele Fahrzeuge wie möglich, müssen hierzu bald durch elektrisch angetriebene Fahrzeuge ersetzt werden. Diese benötigen für ihren Betrieb zwar Strom, jedoch keinerlei Erdöl. Auch Autofahrten, auf die völlig verzichtet werden kann, etwa indem sie zu Fuß, mit dem Fahrrad oder mit öffentlichen Verkehrsmitteln absolviert werden, reduzieren den Erdölverbrauch deutlich.

Noch sind Elektroautos relativ teuer und haben eine stark eingeschränkte Reichweite, weshalb sie nur für einen kleinen, jedoch im Zuge zu erwartender Verbesserungen beider Merkmale stetig wachsenden Kreis interessant sind. In dieser Übergangszeit werden wir weiter mit Verbrennungsmotoren fahren, für die ein niedriger Erdöl-Verbrauch essenziell wichtig ist. Ein Teil der Reduzierung des Erdöl-Bedarfs leisten bessere Motoren; einen anderen die Ethanol-Beimischung.

Für einige Fahrten werden auch längerfristig Verbrennungsmotoren erforderlich sein. Diese werden dann mit einem reinen Ethanol-Kraftstoff betrieben werden müssen. Hierbei kann aus ökologischen Gründen die Gesamtförderung nicht nennenswert über das heute schon vorhandene Maß von 10% erhöht werden. Dies bedeutet, dass der Gesamtverbrauch aller verbliebenen Verbrennungsmotoren gerade einmal diese 10% des heutigen Verbrauchs betragen darf. Die anderen 90% des Verbrauchs müssen durch technische Verbesserungen, Elektrofahrzeuge und schlichten Verzicht entfallen. Es steht anzunehmen, dass Fahrzeuge, die heute als "extrem sparsame Kleinwagen" gelten, in etwa 20 Jahren die einzigen Fahrzeuge sind, deren Unterhalt noch wenigstens für Berufsfahrer finanzierbar bleibt. Weitere, hier nicht näher erörterte Probleme entstehen aus dem erforderlichen Ersatz von Erdöl in anderen Bereichen.

Sonntag, 13. Februar 2011

US-Automarkt, jetzt auch Alternatives

Nachdem ich mir ja vor einiger Zeit die Benziner der deutschen Hersteller angesehen hatte, habe ich meine Ausarbeitung jetzt einmal um Fahrzeuge mit Hybrid- oder Diesel-Antrieb erweitert. Das ganze gibt natürlich eine deutliche Verschiebung der Bestwerte nach oben. Die Summe dieser steigt so von 224 auf 262 mpg.

Die Verbesserung verteilt sich da alles andere als gleichmäßig. Bei allen SUV-Klassen wie auch bei den großen Limousinen bleibt der beste Benziner auch insgesamt eines der sparsamsten Modelle. Hier und da fallen sogar Fahrzeuge mit Diesel (etwa der Mercedes-Benz GL) oder Hybrid (etwa der Lexus LS) immer noch durch einen der schlechtesten Verbrauchswerte auf. Ein kleinerer Motor macht hier mehr als effizientere Technik.

In der Mittelklasse gibt es erstmals eine deutliche Verschiebung: Während der beste Benziner bei 29,5 mpg liegt, gibt es ein regelrechtes Heer an Hybriden in dieser Klasse (Ford, Lincoln, Toyota, Lexus, neuerdings Hyundai und bald auch noch Kia). Dazu kommt ein Diesel bei BMW. Hier steigt also nicht nur der Bestwert auf 38,5 mpg, sondern man kann praktisch jedes nur als Benziner erhältliche Fahrzeug als "Säufer" bezeichnen – man liegt selten daneben.

In der Kompaktklasse wiederholt sich dieses Spielchen noch viel deutlicher. Hybride von Toyota, Lexus und Honda sowie Diesel von VW und Audi pulverisieren den bisherigen Bestwert von 31 mpg regelrecht – alle 5 liegen bei mindestens 36 mpg; der Prius macht mit 49,5 die Spitze.

Bei den Kleinwagen gibt es nur einen einzigen Wagen, der sich verschiebt, aber der richtig: Honda hat nämlich den mit 30 mpg versoffensten Benziner (den Jazz) und den mit 37 mpg sparsamsten Hybrid (den CR-Z) in dieser Klasse. Das ganze hat jetzt als Nebenwirkung, dass die Fahrzeuge mit 31 mpg gleich zu viert zusammen den letzten Platz machen – bei nur sieben Fahrzeugen insgesamt wird die Wahl für einen am Verbrauch interessierten Kunden da schnell sehr einsam…

Die Hackordnung der einzelnen Hersteller verschiebt sich hiermit recht deutlich. Die goldene Ananas geht jetzt an Acura, wo man zuverlässig einen der schlechtesten Verbrauchswerte bekommt. Auch für Cadillac wäre "wir garantieren den höchsten Verbrauch" vielleicht ein neues Geschäftsmodell. Mercedes-Benz rettet immerhin zwei Modelle ins Mittelfeld und schafft mit der E-Klasse sogar einen zweiten Platz. Selbige ist übrigens das neuste der in der Liste enthaltenen Mercedes-Benz-Modelle.

Die Bestwerte haben ihren Schwerpunkt bei Toyota, Lexus und Honda. Von den jeweils zwei besten Fahrzeugen einer Klasse finden sich sieben hier.

Ansonsten sind Tops und Flops quer über die Hersteller verteilt. Wie nah Freud und Leid nebeneinander liegen, sieht man etwa bei Lincoln: Der MKZ ist das sparsamste Mittelklasse-Auto; der MKS eine der versoffensten Full-Size-Kisten.

Zwei Hersteller habe ich neu in die Betrachtung aufgenommen: Nissan, die einen mit chronischer Durchschnittlichkeit beglücken und Volvo, die "gerade so nicht letzter" für sich reserviert haben.

Donnerstag, 3. Februar 2011

Deutsche Autos im US-Markt

Die deutschen Autohersteller tun sich im US-Markt bekannter Maßen extrem schwer. Eine Ursache dafür sind die vergleichsweise sehr hohen Preise, die ein deutsches Auto im Vergleich zu einem US-Auto kostet. In den USA bekommt man für 25.000$ ein Fahrzeug mit Oberklasse-Abmessungen und einer umfangreichen Ausstattung. Die Verarbeitung gilt dafür als grauenhaft.

Doch das viel erstaunlichere Problem der deutschen Hersteller im US-Markt ist der Benzinverbrauch! Die gar so versoffenen Autos der US-Hersteller sind nämlich praktisch durch die Bank wesentlich sparsamer. Um das ganze aufzudröseln habe ich eine Liste mit dem Verbrauch der klassischen Limousinen und der SUVs von insgesamt 18 in den USA aktiven Herstellern zusammengetragen. Das Ergebnis ist relativ deutlich: Nur ein einziges Mal ist ein deutsches Auto das sparsamste und den letzten Platz belegt fast durchgehend ein deutscher Hersteller – und dieses "fast" finde ich eher noch erschreckender als wenn es wirklich durchgehend wäre, aber dazu später mehr…

Fangen wir mit den SUVs an. Die Einteilung in "Kompakt", "Mittel" und "Full Size" ist bei diesen Fahrzeugen oft schwer und wird teilweise nur als relative Zuordnung genommen. Da wird dann ein 4,7m-Wagen auch mal zum "Kompakten", weil man ja noch einen mit 4,9m hat. "Full Size" sind dagegen durchgehend über 5m.

  • Und genau bei den Full-Size-SUVs, welche es nur von den etablierten US-Herstellern sowie von Daimler (GL) und Audi (Q7) gibt, fängt es traurig an. Der erste Platz geht gleichauf an den Ford Flex und den Buick Enclave mit jeweils 20,5 mpg. Eine Meile weniger macht die Gallone bei Chevy, noch eine halbe weniger (womit wir beim vorletzten sind) bei Audi. Schlusslicht mit riesigem Abstand ist der Mercedes GL mit 15,5l. Interessant: Niemand hat für so ein Ungetüm einen Hybrid im Angebot, da muss man dann zum auf einem Pickup basierenden Cadillac Escalade greifen, der mit 21,5mpg dann sogar vor den PKW-basierenden Geschwistern liegt.
  • Eine Nummer kleiner ist die Auswahl deutlich größer und auch die Abstände wachsen. Der erste Platz ist der Chevrolet Equinox mit 27 mpg. Auf Platz 2 folgt der Kia Sorento, danach immerhin der Audi Q5 mit 23,5. Jeweils 23 für Ford und Lincoln. Insgesamt 5 Fahrzeuge liegen unter 20 mpg (in absteigender Reihenfolge): Infiniti, VW, BMW, Acura und – mal wieder als letzter – Mercedes mit 18 mpg (selbst mit Hybrid landet man nur bei 22!). Lexux schafft es mit dem RX Hybrid übrigens gerade so wieder auf die 1: 29mpg. Toyota Highlander Hybrid einen dahinter.
  • Kompakt-SUVs sind ein Thema, dass die US-Hersteller bisher ignorieren. Erster der Kia Sportage mit 26,5mpg (ja, der braucht mehr als der Sieger eine Klasse drüber!). Noch recht dicht dran sind Toyota (25), Honda (24) und Hyundai (23,5). Der Rest tummelt sich um 21mpg. Nur der Mercedes GLK ist mal wieder weit weg: 18,5 mpg.
Kommen wir zu den PKW, auch hier in fallender Größe.
  • Die "Full-Size Cars" und die europäische Oberklasse haben zwar nur die Größe gemeinsam, aber genau diese macht den Verbrauch, also kann man das ganze vermischen. Mit der Motorleistung können sich die deutschen Premium-Marken nämlich auch nicht großartig absetzen. Die Zuordnung des Honda Accord (die US-Version ist wesentlich größer als der europäische!) fällt relativ schwer, aber da man ihn bei Honda Full-Size nennt, nehmen wir ihn da einmal. Eben dieser ist auch bei weitem der sparsamste mit 28,5mpg. Platz 2 der Toyota Avalon mit 24,5. Dritter bei 24 ist der Chevy Impala. Bis etwa 20 runter bleibt es alles recht eng, wo dann auch Audi (22) und BMW (21) gut dabei sind. Den letzten Platz hat mal wieder Mercedes, teilt ihn sich aber immerhin mit dem Cadillac DTS – beide 19 mpg. Mercedes-Hybrid übrigens mit 22 mpg.
  • Die "Obere Mittelklasse" gibt es in dieser Form in den USA nicht, viele Autos der japanischen Hersteller fallen allerdings größenmäßig wohl in diese. Bester wäre somit wahlweise der oben schon genannte Honda Accord oder der BMW 5er (das einzige deutsche Auto mit einer Top-Platzierung!) mit 27 mpg. Audi liegt mit dem _alten_ A6 bei 25,5 mpg, Mercedes mal wieder – mal ahnt es... ganz hinten. 20,5 mpg, zusammen mit Acura. Lexus macht übrigens 23 mitm Hybrid (gerade einmal eine halbe mehr als ohne...).
  • Die eigentliche Mittelklasse bedient natürlich nahezu jeder Hersteller. Der Bestwert geht hier – man höre und staune – nach Korea. Hyundai Sonata und Kia Optima gleichauf bei 29,5 mpg. 28 nuckelt der Ford Fusion (hat nichts mit seinem europäischen Namensvetter zu tun). Erstaunlich, dass es ausgerechnet von dem dann auch noch einen Hybrid gibt. Ganz hinten einmal mehr Mercedes mit 22 mpg, aber alles andere als alleine. Acura 22, Lincoln 22.5, Lexus 23, BMW 23 - hier rächt sich die Leistung dann wohl doch. Der Alte VW Passat kann übrigens gut "mitschwimmen". Der neue wird dagegen auf einen billigen Saugmotor setzen… Zücken wir den Hybrid, sind wir bei Ford und Lincoln mit 38,5 mpg (schlägt jeden Kleinwagen!).Kia tönt von 40, kann aber noch nix liefern, Schwestermarke Hyundai redet dagegen nur von 37mpg...
  • In der Kompaktklasse liegen die Stärken der deutschen Hersteller, oder? Weit gefehlt: Den BMW 1er gibt es nur als Coupé, welches mit 23 mpg Lichtjahre von der Musik weg ist. Wenig besser der Audi A3 bei 25. Die A-Klasse erspart Mercedes den Amis dann lieber gleich. Ganz vorne sind die Abstände so winzig, dass ich die ersten 6 einmal aufsteigend aufliste: Ford, Chevy, Toyota (alle 30 mpg), Honda (30,5) und ganz vorne erneut Hyundai und Kia mit je 31. Bei Ford steht übrigens ein Modellwechsel an, bei dem mit viel Tam-Tam vom Verbrauch geredet wird, das könnte ganz nach vorne gehen. Hybridkönig ist hier natürlich der Prius mit 49,5 mpg, was auch bei insgesamt der bei weitem beste Wert ist.
  • Und Kleinwagen kaufen doch nur Deutsche… Tja, nur sie exportieren sie nicht! Es gibt am US-Markt *KEINEN EINZIGEN* Kleinwagen eines deutschen Herstellers. Kein Opel Corsa (wäre dort ein Buick), kein VW Polo, kein Audi A1. Die Klasse gewinnt übrigens – Festhalten! – der Ford Fiesta. 34,5mpg. Zweiter ist der Toyota Yaris (32,5), fast alles andere liegt bei 31 mpg. Nur der Honda (dort "Fit") ist mit 30 mpg letzter. Hier könnte der Chevy Sonic die Reihenfolge ändern. 37mpg gibt's per Hybrid im Honda CR-Z.
Die deutschen Hersteller ignorieren völlig, dass sie doch eigentlich aus dem europäischen Markt einen großen Vorsprung beim Bau von kleinen und sparsamen Autos haben. VW stattet vieles mit einem 2,5l Saugmotor aus, der so viel Leistung hat wie ein 1,4l TSI. Im Tiguan gibt es nur den stärksten Motor, der auch hierzulande ein recht versoffenes Fahrzeug ergibt - Klassensieger Kia gibt sich dagegen einfach mit weniger Leistung zufrieden. Mercedes fängt bei den meisten Modellen bei 3-3,5l Hubraum an; S und GL gibt es gar erst ab 5l – einen C180 in den USA anzubieten ist offenbar unter ihrer Würde.

Insgesamt verbraucht bereits das zweitsparsamste (!) deutsche Auto (der BMW 5er) genauso viel wie der beste Mittelklasse-SUV (der Chevy Equinox). Wie vor diesem Hintergrund verwundert es wenig, wenn die US-Bürger für unsere Kritik an ihren großen und vermeintlich versoffenen Autos nur Hohn und Spott übrig haben – woher sollen diese auch wissen, dass sie aus Deutschland ausschließlich die Scheiße serviert bekommen?

Montag, 24. Januar 2011

Digitaler Radioempfang? Guter Witz!

Im Zuge der ganzen Debatte um die "analoge Abschaltung" wird ja auch immer wieder darüber diskutiert, das UKW-Radio umzustellen. Dieser Termin war zunächst 2010 vorgesehen, dann 2012 und inzwischen 2015 – man ahnt: er wandert gerne mal nach hinten. Inzwischen glaubt auch niemand mehr daran, dass es 2015 klappen wird.

Gründe gibt es hierfür vor allem zwei. Zum einen hat man sich noch immer (!) nicht wirklich auf einen Standard geeinigt; zum anderen gibt es ein grundlegendes Problem, welches eigentlich einen mehr oder weniger dauerhaften Parallel-Betrieb erfordert.

Ein Haushalt hat normalerweise 1-3 Fernseher, diese stehen immer an der gleichen Stelle und haben eine SCART-Buchse, an die man eine Set-Top-Box anschließen kann. Damit sind die Vorbedingungen für DVB-T relativ einfach gewesen. Zudem benutzte den analogen Empfang dort sowieso kaum noch jemand. Die Bedingungen waren also recht einfach, weshalb ein paar tolle Scheibtischtäter offenbar dachten, dass man dies doch recht einfach auf den Radio-Bereich übertragen könnte.

Beim Radio sind jedoch alle drei Bedingungen grundlegend anders.
  • Wenn ich nur einmal die Radios zähle, die sich bei mir und meiner Mutter herumtreiben, komme ich auf deren neun. Bin ich einmal extrem optimistisch (aus Sicht der umstellfreudigen) und setze nur eine Zahl von 3 Geräten pro Nase als Durchschnitt an, sind wir bei etwa 250 Millionen Radios.
  • Davon befinden sich etwas über 40 Millionen in Autos verbaut und Autos haben die dumme Angewohnheit, sich zu bewegen - selbiges führt zum einen dazu, dass entweder die Autoradios oder die Radiosender bis zu einer kompletten Umstellung beide Formen senden müssen. Zudem kommen auf diesem Wege natürlich noch die Autos hinzu, die zwar nicht in Deutschland zu hause sind, aber mal im Urlaub hier vorbeirollen. Macht weitere ~200 Millionen.
  • Kaum ein Radio ist konstruktiv daraus ausgelegt, einen vorgeschalteten Tuner zu bekommen, all die historischen Geräte (bei mir steht zum Beispiel eine Musiktruhe von 1956) wären dann also reif für den Müll. Und in nicht wenigen modernen Autos ist das Radio so tief integriert, dass man hier nichts austauschen kann - dann ist gleich das ganze Auto reif für den Müll. Einzig HiFi-Receiver haben Glück, denn diese können eine externe Quelle durchschleifen.
Oder um es etwas deutlicher zu sagen: Kinnas, einigt euch auf einen gemeinsamen Standard (und zwar WELTWEIT, inklusive jeder Bananenrepublik!), danach sorgt ihr dafür, dass jedes Radio der Welt diesen Standard verstehen können muss. Und wenn die zweite Stufe erfüllt ist, warten wir mal so um die 50 Jahre, um dann einmal darüber nachzudenken, ob man *vielleicht* die analogen Sender abschaltet.

Montag, 10. Januar 2011

Meine Arbeitsecke

Aufgrund von Anfragen mal zwei Bilder von meiner Arbeitsecke. Nein, so aufgeräumt sieht es nicht nur für die Fotos aus; das Chaos ist stattdessen auf dem PC :)


Donnerstag, 6. Januar 2011

LED-Lampen ganz konkret

Bei einem früheren Beitrag hatte ich noch geschrieben, dass man nach brauchbaren LED-Lampen irgendwo bei eBay suchen muss, während das Zeug im Baumarkt nichts taugt. Dies scheint sich schon wieder geändert zu haben, so dass ich hier mit einigen konkreten Beispielen dienen möchte.

Der erste Name, der einen bei den LEDs über den Weg läuft, ist "Bioledex". Dieser Hersteller hat eine ganze Reihe von LED-Lampen, die einen Wirkungsgrad von 75-80 lm/W haben. Damit sind sie eine Stufe besser als die mal wieder ob ihres Quecksilbers bemeckerten Kompaktleuchtstofflampen. Konkret: 3,5W als Ersatz für 25W Glühobst, 5W für 40W und 8W für 60W. Außerdem gibt es ein 13W-Modell, dass ich als entsprechend einer 75W-Glühlampe einordnen würde. Die Preise sind teilweise aber schon knackig mit über 30€. Ein Problem einiger Bioledex-Lampen ist die Haltbarkeit der Elektronik - offenbar werden die Lampen dann aber ersetzt. Ob da alle oder nur einige Typen betroffen sind, wüsste ich auch gerne.

Die Parathom-Serie von Osram hatte ich ja schon einmal versucht zu bearbeiten, was mir offenbar nicht so ganz gelungen ist. Die Lampen werden mit einem ähnlichen Wirkungsgrad wie Sparlampen (also um die 60 lm/W) beworben, was die Kommentare zu den entsprechenden Modellen bei Amazon bestätigen. Inzwischen gibt es die einst sauteuren Lampen auch für 20€ als 8W-Version. Selbige scheint definitiv eine Empfehlung wert zu sein.

Wer es noch besser haben will und nicht weiß, wohin mit seinem Geld, für den gibt es eine sehr ähnliche Serie von Philips, genannt "Master LEDbulb". Die Lampen sollen eine noch etwas schönere Lichtfarbe haben– dafür ist alles unter 40€ hier ein Schnäppchen…

Allgemein gibt es inzwischen also ab etwa 20€ eine ganze Reihe brauchbarer LED-Lampen, bei denen es dann auch nachvollziehbare Herstellerangaben gibt. Die absoluten Wunderlampen mit weit über 100lm/W gibt es so noch nicht, aber man kann zumindest den Wirkungsgrad einer Kompaktleuchtstofflampe erreichen oder sogar übertreffen. Insofern ist wohl zumindest die Zeit gekommen, das ganze einmal auszuprobieren. Sehr positiv ist festzustellen, dass sich die Lampen abgesehen von einem Kühlkörper sehr stark an der Form klassischer Glühlampen orientieren – keine langen Röhren, komischen Wendel oder XXL-Glaskolben mehr.