Samstag, 25. Dezember 2010

Wenig Wintertaugliches

So mancher automobiler Traum ist wohl nur in 1:18 oder noch kleiner wirklich erfüllbar - nun, zwei dieser Träume wurden mir zu Weihnachten erfüllt. Interessant ist aber auch der Hintergrund dieser Modelle…

Der erste Neuzugang ist der Mercedes-Benz 300S Cabrio A (W188) der Jahre 1952 bis 1955 in 1:18 von Welly.

Der W188 war damals noch über der üblichen S-Klasse angesiedelt und war technisch wie auch optisch mit dem 'Adenauer-Mercedes', dem W186 verwandt. Angetrieben wird das Fahrzeug von einem 3-Liter-Reihensechszylinder mit 150 PS. Ein normaler Mercedes jener Zeit hatte gerade einmal ein Drittel bis maximal die Hälfte dieser Leistung! So konnte der W188 dann auch auf damals gewaltige 176 km/h beschleunigt werden. Wenn das heute ein Kleinwagen nicht schafft, reden alle von "untermotorisiert"… Ob seiner konservativen Karosseriegestaltung ist der Wagen im Vergleich zum legendären 300 SL weitgehend unbekannt.

Das Welly-Modell war mir bis vor kurzem völlig unbekannt, auf der Hersteller-Website ist das Modell nicht mehr zu finden. Zu unrecht, denn hier ist ein nicht nur für das übliche Welly-Preisniveau sehr gelungenes Modell entstanden.



Der zweite Neuzugang ist dann wirklicher absoluter Luxus. Ein Mercedes-Benz 500 K Spezialroadster (W29), wie er von 1934 bis 1936 gebaut wurde, umgesetzt von Maisto.

Angetrieben wurde der 500K von einem 5-Liter-Reihenachtzylinder mit Kompressor. Dieser gewaltige Motor bringt dem Wagen für die damalige Zeit gigantische 160 PS und eine Höchstgeschwindigkeit von 160 km/h. Im Heck des Wagens befinden sich zwei Notsitze, die ungefähr so sicher sind wie sich draußen an einem Bus festzuhalten – von der sportlichen Herausforderung, in diese hinein zu gelangen einmal ganz abgesehen. Alternativ wird das Gepäck an gleicher Stelle oben auf das Fahrzeug geschnürt. Das Fahrzeug wirkt übrigens nicht nur gewaltig, es ist auch lang: rund 5,2m für eigentlich nur zwei Sitze ohne einen Kofferraum sind schon ziemlich dekadent. Der Kaufpreis entspricht dann auch Inflationsbereinigt und umgerechnet etwa 100.000€.

Maisto hat das Fahrzeug praktisch exakt in der Form umgesetzt, wie es im Mercedes-Benz-Museum steht - in feuerrot mit hellbeiger Inneneinrichtung und ohne ein optisch störendes Verdeck. Allgemein gleicht kaum ein W29 dem anderen, auch die weiße Version von Maisto weicht schon leicht ab: Als Dienstwagen eines indischen Maharajah führt der Wagen zwei weitere Reservereifen bei den vorderen Kotflügeln mit.

Einen Nachteil teilen sich beide Autos aber auf jeden Fall: Sie sind für das aktuelle Wetter nicht so wirklich ideal. ;)

Donnerstag, 9. Dezember 2010

Die Chinesen kommen! Wirklich?

Die letzten Tage habe ich mich – vornehmlich um eine ganze Reihe neuer Wikipedia-Artikel zu erstellen – einmal mit chinesischen Autos beschäftigt. Dabei begegnen einem natürlich auch Aussagen zu Verkaufszahlen und Einschätzungen über den chinesischen Markt.

Zunächst einmal muss man verstehen, dass ausländische Hersteller in China nicht selbst ein Werk bauen können, sondern einen inländischen Partner brauchen, dem das Werk de iure gehört. Alternativ kann man die Autos mit horrenden Zöllen importieren. Dieses Modell ist keineswegs neu; einzig sein Umfang ist außergewöhnlich: Praktisch jeder namhafte Hersteller ist in China mit einem solchen Partner am Werk. Und genau diese dominieren auch den Markt.

Chinesen kaufen vor allem Stufenheck-Limousinen mit etwas unter 4,5m Länge. "Vor allem" heißt hier, dass in einem üblichen Monat die 10 meistverkauften Modelle durchweg dieser Klasse entstammen und bereits diese zusammen etwa 2/3 der Gesamt-Verkaufszahlen ausmachen – alle anderen Fahrzeugklassen sind also Randerscheinungen. Entsprechend sieht das Angebot aus: Viele Hersteller haben zwei oder gar drei Modelle dieser Größe (meist das aktuelle westliche, den unmittelbaren Vorgänger und ein minimal modernisierter Modell einer eigentlich höheren Klasse von vor 20-30 Jahren.

Dass chinesische Autos in Crashtests in anderen Ländern regelmäßig eine Klatsche kriegen (was hier bisher nach Europa kam, gehört noch zur Elite!), ist in China durchaus bekannt. Bei den meisten chinesischen Herstellern gehören Airbags für den Fahrer noch immer zur Sonderausstattung und ob der Wagen ABS hat, sollte man auch besser überprüfen. An ESP oder irgendwelche neumodischen Helferchen braucht man gar nicht zu denken; das einzige mir bekannte Fahrzeug, bei dem es ESP wenigstens optional gibt, ist der Emgrand EC8…

Aufgrund der großen Einkommens-Unterschiede – von Leuten, die auch im westlichen Sinne reich sind bis zu Leuten nahe oder unter der absoluten Armutsgrenze gibt es in China alles – gibt es Autos in zahlreichen Preiskategorien. Die chinesischen Hersteller bedienen hiervon vornehmlich die untersten. Der oben schon genannte Emgrand ist einer der ersten Versuche eines chinesischen Herstellers direkt und nicht nur über den Preis mit Marken wie etwa Chevrolet zu konkurrieren. Der Hersteller, in diesem Falle Geely hat aber noch drei weitere Modelle preislich darunter angesiedelt: Den Geely MK, welcher preislich und teilweise auch optisch einem Dacia Logan ähnelt; den Geely CK, welcher die besondere "Ehre" hat, bei einem diesmal in Südamerika durchgeführten Crashtest nach EuroNCAP-Kriterien 0 von 5 Sternen bekommen zu haben und die Modelle der Marke Maple, welche in Chile von verschärften Sicherheitskriterien vom Markt gefegt wurden und deren Versuch einer Einführung in Slowenien ähnlich endete – bei denen ist dann die Sicherheit Glückssache; insofern passt das Kleeblatt als Logo wohl.

Da es bisher kaum höherpreisige und -wertige einheimische Autos gibt und diese entsprechend noch kein Vertrauen bei den Kunden aufbauen konnten, kaufen die Chinesen, wenn sie es sich irgendwie leisten können, ausländische Marken. Die Ironie der Geschichte will es dabei so, dass ausgerechnet Volkswagen die erfolgreichste Marke in China ist. Weitere sind die GM-Marken Buick und Chevrolet sowie Hyundai und Kia aus Südkorea.

Chinesische Autos entwickeln sich allerdings weiter, so dass Modelle wie jene von Emgrand oder auch die Marke Riich von Chery so langsam zumindest in die Nähe der unteren Preisklasse in Europa kommen. Nur, bei den Modelle, die unsere Sicherheitsbestimmungen erfüllen, ist es mit dem Preisbrecher eben auch vorbei…

Sonntag, 14. November 2010

Schlechte Tipps zur Wikipedia

Eigentlich haben Universitäten ja etwas mit Wissen zu tun und stehen in dem Ruf, mehr über Dinge zu wissen, als dies Laien tun. Dass dem nicht immer so ist, muss jetzt ein Projekt der Viadrina Universität Frankfurt/Oder beweisen, welches sich "Wiki-Watch" nennt und wohl die Wikipedia mehr oder weniger kritisch beobachten will.

Dieses Projekt hat nun eine Seite mit Tipps veröffentlicht, wie man denn damit umgehen solle, wenn man dort "persönlich diffamiert" wird. Wer hier das meist wichtigste, nämlich eine Aufforderung zur Selbstkritik vermisst oder eine dringende Warnung vor dem Streisand-Effekt, sieht sich enttäuscht. Es werden mehr oder weniger sinnlose Eskalationsstufen genannt, mit denen man das Problem nach deren Meinung angehen könne. Garniert mit offensichtlicher Unverständnis der Wikipedia.

Also hier einmal meine Version des ganzen:
  • An erster Stelle muss hier die Selbstkritik kommen. Wird hier irgendeine Jugendsünde breit getreten, mag man sich darüber erst einmal ärgern – macht man jetzt aber Terz, wird diese in den entsprechenden Medien erst richtig breit getreten. Bei vielen Leuten kommt man weitaus besser an, wenn man zu seinen Fehlern steht. Wenn der Text in Wikipedia sich auf andere Medien beruft, ist Wikipedia sowieso der völlig falsche Adressat für eine Beschwerde!
  • Wenn die Formulierungen es mit der Wahrheit nicht so genau nehmen, sollte man (vorzugsweise mit Quellen garniert) das ganze selbst korrigieren. Dabei braucht man sich übrigens nicht zu erkennen zu geben. Auch hier hilft es, den vorgenannten Punkt zu beachten: Lieber eine negative Geschichte richtig dargestellt in Wikipedia als ein Löschversuch, bei dem dann die falsche Version durchs Netz geistert.
  • Wenn das nicht fruchtet, geht man zur Diskussionsseite über und legt hier dar, was man geändert haben will – gleich auf die Diskussionsseite zu gehen, wird hingegen oft mit "mach doch selbst" kommentiert oder gleich ganz ignoriert. Auch hier kann man noch anonym bleiben. Erfahrungsgemäß kommt hier nach manchmal nicht immer ganz einfachen Diskussionen ein tragbares Ergebnis heraus.
  • Sich an einen Admin zu wenden, ist eine GANZ schlechte Idee, denn diese sind nicht dazu da, über "richtige" oder "falsche" Inhalte zu entscheiden. Insofern kann dieses durchaus zu einer Sperrung des eigenen Accounts oder des Artikels in der einem unpassenden Version führen.
  • Im Falle _eindeutiger_ Verletzungen des Persönlichkeitsrechts, die in dieser oder ähnlicher Form bereits durch ein Gericht gegenüber irgendwelchen Medien festgestellt wurden, hilft es sich an das Support-Team zu wenden. Dieses hat ausdrücklich die Aufgabe, sich um solche Fälle zu kümmern.
  • Wird ihre Bitte hier abgelehnt, empfehle ich noch einmal den ersten Schritt zu wiederholen; zur Not auch den zweiten und dritten.
Eine Klage wird hier bewusst nicht als Lösungsweg aufgezeigt, da diese keine Lösung ist. Solche Fälle führen lediglich zu dem sogenannten "Streisand-Effekt", nach dem die ganze Geschichte jetzt erst richtig in den Blogs und Medien breit getreten wird. Wie von dem Universitätsprojekt korrekt dargestellt, sind Klagen gegen Wikimedia Deutschland rechtlich unwirksam.
Klagen gegen die Wikimedia Foundation in San Francisco, Kalifornien, USA dürften ob der dortigen Gesetze zur Meinungs- und Redefreiheit aussichtslos sein. Man muss sich nur einmal Wahlkampf in den USA ansehen, um zu wissen, dass Verleumdungen dort nicht einmal gesellschaftlich geächtet sind.

Freitag, 12. November 2010

Hybridautos

Ich will an dieser Stelle einmal versuchen, eine kleine Liste von in Deutschland erhältlichen Hybridautos zusammen zu stellen – es gibt da nämlich inzwischen einiges; auffallend oft von japanischen Herstellern…

Kleinwagen
Bei Kleinwagen zählt derzeit vor allem der Preis und die Fahrzeuge sind auch so schon sehr sparsam. Entsprechend gibt es bisher hier noch keine Hybridmodelle, eine Version des Honda Jazz ist aber für 2011 geplant. Einen Verbrauch hat man noch nicht verraten.

Kompaktklasse
In keiner Fahrzeugklasse sind die Stückzahlen so groß. Entsprechend groß ist das Angebot an konventionellen und nicht ganz so konventionellen Hybridfahrzeugen.
  • Der Klischee-Hybrid schlechthin ist der Toyota Prius (3,9l). Ob der Wagen mit seinem ungewöhnlichen Buckelheck nun in die Kompakt- oder in die Mittelklasse gehört, streiten sich die Geister gerne; auf jeden Fall ist er mit 4,45m irgendwo dazwischen.
  • Sehr ähnlich konzipiert, aber in der Länge "typisch Kompaktklasse" ist der Honda Insight (5l)
  • Ganz klassische Kompaktklasse ist der Toyota Auris (3,8l). Zum Jahreswechsel kommt zudem der Lexus CT (ebenfalls 3,8l).
  • Ein Sportcoupé gibt's auch noch, den Honda CR-Z (5,0l).
  • Ebenfalls in diese Klasse gehört der Chevrolet Volt bzw. der Opel Ampera, die als serielle Hybride ausgelegt sind (4,5l).
Mittelklasse
Fast erschreckend klein ist die Auswahl in der Mittelklasse. Als Luxusfahrzug sind diese Autos zu klein und für die "Vertreterkarre" ist ein Hybrid anscheinend zu teuer… Immerhin ist ein Hybrid des Peugeot 508 für 2011 geplant (3,8l), übrigens ein (erster) Diesel-Hybrid.

größere Limousinen
Weiter oben gibt es dann wieder ein paar mehr Hybridmodelle.
  • Da wäre die Mercedes-Benz S-Klasse, wobei das ganze hier eher ein schlechter Scherz war und inzwischen ein sparsamerer (!) normaler Benziner existiert. Vom BMW 7er soll "irgendwann" ein Hybrid mit der gleichen Technik kommen (das ganze haben beide Hersteller gemeinsam entwickelt), ob der noch kommt, wage ich aber so langsam zu bezweifeln.
  • Bissl ernsthafter geht Lexus die Sache an, auch wenn beide Modelle innerhalb ihrer Klasse eher zu den stärkeren Modellen gehören und so von schwächer motorisierten Non-Hybrid-Modellen teilweise geschlagen werden. Hier gibt es den GS mit 7,7l und den LS mit 9,3l Verbrauch.
  • Der Infiniti M wird ab Anfang 2011 ebenfalls als Hybrid verfügbar sein. Ausgerufen sind 7,3L.
  • Und auch der Erfinder des Hybrid-Antriebes holt ihn nach fast 30 Jahren nun endlich aus der Schublade; der Audi A6 bekommt Mitte 2011 einen Hybrid mit 6,2L. Die Technik ist dabei identisch zum Audi Q5 (siehe weiter unten).
Van
Eine Van-Version des Toyota Prius, genannt "Prius Alpha" ist für irgendwann 2011 geplant. Näheres ist hier aber noch offen.

SUV
Bei einem SUV mit seinem hohen Gewicht ist ein Hybridantrieb besonders von Vorteil und zudem ob des oft gewaltigen Verbrauchs auch umso notwendiger. Trotzdem ist das Angebot eher begrenzt.
  • Porsche Cayenne und VW Touareg teilen sich hier die technische Basis (8,2l).
  • Ähnliche Abmessungen hat der Lexus RX; der Verbrauch ist aber wesentlich niedriger (6,3l).
  • Eine Nummer kleiner wird bald ein Hybrid vom Audi Q5 kommen. Um die 6l Normverbrauch sind hier angekündigt.
Neben den hier genannten gibt es noch eine schier endlose Liste von Fahrzeugen, zu denen es heißt, dass da "irgendwann" eine Hybrid-Version von erscheinen soll oder gar schon als Studie existiert. Gerade bei deutschen Herstellern kommt ungefähr auf 10 Studien ein begrenzt interessantes Serienfahrzeug. Von den beiden großen japanischen Herstellern (Toyota/Lexus und Honda) gibt es dagegen praktisch jedes Modell auch oder sogar nur als Hybrid.

Donnerstag, 28. Oktober 2010

Große Kunstwerke


Bisher waren meine Automodelle stets im modellbahntauglichen Maßstab 1:87 gehalten, doch jetzt habe ich einmal einen Abstecher zu deutlich größeren Modellen gewagt, der nicht der letzte bleiben wird – zum Maßstab 1:18.

Bereits ein Blick über das Angebot in diesem Maßstab erweist sich als außerordentlich interessant. Ist man in 1:87 gewohnt, dass es zwar einerseits jedes noch so langweilige aktuelle Vorbild der deutschen Premium-Hersteller gibt, ansonsten aber nur wenige Klassiker, ist die Situation in dem großen Maßstab eine völlig andere. 1:18-Modelle werden international gesammelt und sie werden teilweise von sehr wohlhabenden Leuten gesammelt. Entsprechend ist das Angebot auch – jeder Traumwagen und jedes Kultauto wird nicht einmal, sondern gleich mehrfach als Modell umgesetzt. Von dem hier abgebildeten Fiat 500 gibt es mindestens drei Umsetzungen von Welly, Bburago (der allerdings eher 1:16) in eher günstiger Form und Minichamps für die Edel-Fraktion und zum dreifachen Preis. Was hier steht, ist übrigens das Welly-Modell. Der Mercedes SLS AMG hat nach dem wunderschönen Maisto-Modell jetzt von Mondo Motors seine zweite, deutlich günstigere Umsetzung bekommen. Die Zahl der Ford-Mustang-Modelle lässt sich kaum erfassen – kein Hersteller, der nicht mindestens zwei Varianten des US-Klassikers im Sortiment hat; zuzüglich einer schar an getunten Versionen.

Unterscheiden tun sich die Modelle in dem Detaillierungsgrad und den Funktionen. Türen, die man öffnen kann, sind in 1:18 selbstverständlich, eine Motorhaube ebenso. Beim Kofferraum oder den hinteren Türen von viertürigen Modellen trennt sich dann schon die Spreu vom Weizen. Und erst richtig tut sie dies nach dem Blick unter die Motorhaube – hier reicht die Spanne von einem Kunststoffblock mit ein paar angedeuteten Details bei Mondo Motors über alle wichtigen Bauteile als eigene Teile mit den diversen Leitungen dazwischen bei Revell bis zu einem aus hunderten von Einzelteilen bestehenden Motor bei CMC.

Weitere kleine und nicht ganz so kleine Unterschiede ergeben sich bei der Lenkung, die etwa bei meinem Welly-Modell den Namen kaum verdient (ja, das ist voller Lenkeinschlag!) oder der in höheren Preisklassen vorhandenen Federung und ihrer Härte (manchmal ist man sich da nicht so sicher, ob wirklich das Modell eine hat oder der Kunststoff der Achse nachgibt…).

Die Modelle sind weit mehr als nur eine einfache kleinere Darstellung ihrer Vorbilder – kann man doch nicht immer einen Blick unter die Motorhaube eines 1956er Mercury Montclair mit seinem 258 PS-Motor (Sunstar) oder eines 1970er Opel Commodore GS/E (Revell) werfen.

Mittwoch, 27. Oktober 2010

Warum wir (k)ein Integrationsproblem haben

Wo man in Deutschland derzeit hinhört, ist von einem "Integrationsproblem" die Rede. Doch dieses angebliche Problem tut nichts anderes, als uns den Spiegel vorhalten.

Nein Herr Wulff, das Judentum gehört nicht mehr zu Deutschland, denn die einst durchaus große Zahl an Juden in Deutschland hat hier ein Irrer vor gut 60 Jahren wahlweise vertreiben oder ermorden lassen. Heute stehen die Juden in Deutschland gerade noch auf Platz 10 der Religionsgemeinschaften; hinter diversen Orthodoxen Kirchen und hinter den Buddhisten! Dass sie dafür die Atheisten vergessen haben, ist sicherlich ein Versehen?

Was zu Deutschland, wie es ihre Wähler verstehen gehört, ist das Christentum – im Süden und Westen der Katholizismus; im Norden und Osten der Protestantismus. Beides unterscheidet sich nicht groß und schon gar nicht in den von seinen Mitgliedern getragenen Symbolen. Wo man dann doch noch Unterschiede erkennen kann, wird die jeweilige Minderheit dann auch immer noch gerne beschimpft – Katholiken sind schließlich alles Pädophile und Protestanten nehmen doch den Glauben nicht ernst…

Daneben gibt es ein paar geduldete Gruppen, die christliche Variante der Dhimmis – solange Atheisten, Buddhisten oder Anhänger von Naturreligionen die Klappe halten, werden sie als tolle Beispiele der Religionsfreiheit geduldet; fangen sie aber an, ihre eigenen Werte auszuleben, werden sie eingebremst. Fällt der Tag der Frühlingsanfang mit Karfreitag zusammen, haben die Christen auf einmal das Recht für einen Heiden die Religionsfreiheit außer Kraft zu setzen und diesem ihr eigenes Tanzverbot aufzuzwingen – bejubelt von den Medien, sie sich freuen, dass diesem Spinnern keine Chance zum Stören des christlichen Festes gegeben wird…

Und der Islam? Tja, der ist anders! Seine Anhänger verstecken ihren Glauben nicht; sie zeigen vielmehr offen, dass sie keine Christen sind – sie zeigen offen, dass sie an etwas anderes glauben und dass sie andere Werte und Normen haben. Natürlich unterscheiden sie sich hiermit in nichts grundsätzlichem von einem Atheisten, für den Götter Hirngespinste sind, von einem Heiden, für den alles in der Natur eine Seele hat, von einem Buddhisten, für den der Gleichmut der höchste Wert ist oder eben von einem Christen, der nichts mehr fürchtet als den Zorn des eigenen Gottes - nur machen die Moslems etwas schreckliches! Etwas absolut abscheuliches! Sie wagen es doch wirklich, ihren Glauben zu zeigen!

Und dieses Zeigen des Glaubens ist es, wovor konservative Kreise Angst haben. Zwangsheiraten? Nagut, bei echten Deutschen werden Heiraten eher verboten als erzwungen. Und die Ehrenmorde sind lieber finanzieller Art ("Enterbung"). Emanzipation der Frauen? Ja wer holt denn da das Bier! Den Rest ist Kleinkram…

Nein, wir haben kein Integrationsproblem. Wir haben nur ein Pluralismus-Problem! Wir müssen endlich verstehen, dass es unterschiedliche Werte in unserer Gesellschaft gibt. Es gibt keine "Leitkultur", es gibt nur die längst reale multikulturelle Gesellschaft! Und der Islam ist nichts weiter als eine dieser Kulturen. Genauso wie das Christentum nur eine von vielen ist. Ganz egal, ob es Atheisten, Christen, Moslems oder Heiden sind – sie alle sind nur eine Gruppe unter vielen und müssen verstehen, dass sie nicht die Norm sind! Nichts anderes braucht es.

Dienstag, 26. Oktober 2010

Warum 130g CO2 viel zu viel sind

Als einst festgeschrieben wurde, dass in der EU angebotene Autos ab 2015 im Durchschnitt einen CO2-Ausstoß von 130g nicht überschreiten sollen, wetterten insbesondere bayrische Politiker – sitzen dort doch gleich zwei Hersteller, die vor allem für sehr große und eben nicht gerade sparsame Autos bekannt sind – über die "Nation der Kleinwagenfahrer" und den einmal mehr wiederkehrenden Untergang des Abendlandes.

Nun geht das Jahr 2010 zu Ende und so langsam macht sich die entsprechende Entwicklung bemerkbar - mit einem je nach Sicht erfreulichen oder erschreckendem Ergebnis: Der Wert erweist sich als viel zu lasch.

Die Frage des technisch machbaren ist noch immer schwer zu beantworten, da verschiedene Hersteller bisher verschiedene Wege gehen, ohne diese miteinander zu kombinieren. Bei Toyota setzt man da auf einen aufwändigen Hybrid-Antrieb, welcher den 'Lexus CT 200h' Anfang 2011 auf 87g CO2 drücken wird - ein Kompaktklasse-Auto! Beim Fiat 500 setzt man auf die Rückkehr des Zweizylinders mit dann 95g und die deutschen Hersteller setzen auf Turbodiesel, mit denen etwa ein VW Polo auf 87g CO2 kommt. Die Ergebnisse unterscheiden sich also nicht groß; die Wege dahin dafür umso mehr. Peugeot hat jetzt für den 508 noch einen 200-PS-Diesel-Hybrid angekündigt, der einmal mehr die schon berühmten 99g schaffen soll.

Der doch erst in 5 Jahren als Durchschnitt über alle Modelle vorgeschriebene Wert von 130g wird bis hoch zur Kompaktklasse von praktisch allen Diesel-Modellen erfüllt, kaum ein Hersteller leistet sich nicht irgendeine 99g-Version. Benziner tun sich hier natürlich schwerer, aber auch hier sind 130g längst in breiter Basis erhältlich. Erst in der Mittelklasse - mit der dann die nennenswerten Stückzahlen auch so langsam aber sicher ihr Ende finden – die "obere Mittelklasse" stirbt ja so langsam aber sicher aus – tun sich dann auch die Dieselmotoren mit den 130g schwerer, was aber keineswegs heißt, dass es hier keine Modelle darunter gibt.

Im April dieses Jahres ließ sich dann auch Toyota als erster Hersteller feiern, der die 130g geschafft hat – zwar noch mit einer Zahl hinter dem Komma, dafür aber eben 5 Jahre früher als gesetzlich erforderlich. Die Modelle der Marke Lexus, die den Wert sicherlich nicht gerade drücken, sind dabei eingerechnet. Die Neuerscheinungen seitdem – die Hybridversion des Auris und dessen Edel-Schwester Lexus CT 200h mit je etwa 90g CO2 – sind hier sicherlich dem Durchschnitt auch nicht abträglich.

Sicherlich, viele andere Hersteller – vor allem jene, die in den letzten Jahren zu sehr auf SUVs gesetzt haben – sind noch nicht so weit, aber mich würde fast wundern, wenn diese die 130g nicht bis 2012 erreichen, dem ursprünglich von der EU für die gesetzliche Vorgabe geplanten Zeitpunkt.

Viel interessanter finde ich allerdings die Frage, wo sich der Verbrauch wohl bis 2015 einfinden wird. Vermutlich werden wir dann 130g-Autos nicht als durchschnittlich, sondern als Dreckschleudern ansehen. Einmal mehr ist der Markt offenbar schneller als die Politik ihm zutraute…

Samstag, 16. Oktober 2010

Linux-Distributionen bei Wikipedia

Um den nervenaufreibenden Löschdiskussionen in diesem Themengebiet bei Wikipedia ein Ende zu setzen, habe ich mich letzte Woche, nachdem unser aller Freund Weissbier mal wieder eine eigene Löschwelle ausgerufen hatte, eine Lösung nach dem Muster "lieber ein Ende mit Schrecken als Schrecken ohne Ende" entschieden. Dabei habe ich auf alle Artikel der Kategorie:Linux-Distribution Artikel, bei denen eine Relevanz nach dem Prinzipien der Wikipedia nicht erkennbar war selbst einen Löschantrag gestellt – insgesamt immerhin deren 15. Zusammen mit denen schon von Weissbier gestellten Anträgen (von denen kaum einer durchgekommen ist) waren es somit 27 Anträge, die in derzeit 11 Fällen zu einem roten Link geführt hat. 4 weitere wurden in Redirects umgewandelt.

Das ganze führt jetzt dazu, dass auf keinen der derzeit existiertenden 144 Artikel zu Linux-Distributionen ein Löschantrag mehr möglich ist (außer jemand findet - was mich eher wundern würde - eine komplett neue Begründung). Einen etwas seltsamen Listen-Artikel gibt es in der gleichen Kategorie allerdings noch dem ich wohl demnächst an den Kragen gehen werde.

Für die Zukunft muss nun eine Lösung gefunden werden, wie man Löschdiskussionen weitgehend bis komplett vermeidet. Die Entstehungsweise von Linux-Distributionen ist hierbei allerdings sehr hilfreich, denn diese entstehen ja nahezu alle als Ableger anderer Distributionen. Und genau an dieser Stelle müssen sie sowieso vermerkt werden. Auf diesen Abschnitt gibt es dann einen Redirect und schon kann die Erklärung von jedem gefunden werden – beispielhaft nenne ich einmal "Super OS". Diese Redirects werde ich für alle bei Distrowatch verzeichneten Distributionen in der nächsten Zeit systematisch anlegen.

Einen EIGENEN Artikel (der diesen Absatz nur ergänzt, nicht ersetzt!) bekommen Distributionen, über die in der normalen IT-Fachpresse (vor allem heise oder golem) mehrfach aus unterschiedlichen Anlässen (zwei Versionen sind zwei Anlässe!) berichtet wird. Gleiches gilt für eine Distribution, die nicht-Exklusiv von einem relevanten Unternehmen auf seinem Systemen vorinstalliert wird.

Distributionen, die exklusiv von einem relevanten Unternehmen vorinstalliert werden, werden entsprechend als Absatz bei diesem Unternehmen eingetragen. Hierzu gehört dann auch wieder ein Redirect, ein solches Beispiel heißt "Winki" von MSI.

Damit bleiben als Streitpunkte nur noch Distributionen, bei denen jemand von 0 angefangen hat, trotzdem aber keine Beachtung gefunden hat. Wie viele von diesen es nachher gibt, muss man sehen und dann auch, was damit zu tun ist. Vielleicht hat da ja jemand eine Idee – wobei ich schon einmal vorwarne, dass so etwas wie "einfach alles behalten" keine Chance auf Umsetzung hat.

Mittwoch, 6. Oktober 2010

Der große Kleinwagen

Das in der Autoindustrie ein Trend zum sogenannten "Downsizing" existiert, ist nichts neues. Dieser Begriff bedeutet nichts anderes, als dass man einen neuen 2L-180PS-Motor nicht mehr dazu nutzt, den bisherigen 2L-150PS zu ersetzen, sondern den 2,3L-180PS. Dieses Konzept auf die Spitze getrieben hat jetzt der französische Hersteller Peugeot mit dem 508 und hat dabei auch einmal klar gemacht, was Franzosen von großen Autos halten. Das Modell ist der gemeinsame Nachfolger der Modelle 407 und 607 und damit das Spitzenmodell von Peugeot (ein 607 dient in Frankreich als Staatslimousine!). Und bei eben diesem Spitzenmodell wird konsequent auf extrem leistungsstarke Motoren verzichtet. Der stärkste Motor ist ein 204 PS starker 2,2L-V6-Turbodiesel (die V6-Motoren mit einem Biturbo oder ähnlichem komplett zu verbannen, traute man sich dann doch nicht). Diese Leistung entspricht zwar dem stärksten 607-Diesel, hat aber einen CO2-Ausstoß von 150 statt 223g pro km. Und genau diese 150g waren wohl auch eine Designvorgabe, denn auch der stärkste von nur zwei Benzinern hat diesen Wert. Das bedeutet bei diesem zwar weniger Leistung, aber das gehört hier zum Konzept. Ebenso zum Konzept gehört das Gewicht, welches selbst das kleinere der beiden ersetzten Modelle – den 407 – um 85kg unterbietet. Wem 150g CO2 bzw. 5,7L Verbrauch noch zu viel sind, für den geht es derzeit runter bis zu 109g – oder mit dem für kommendes Jahr versprochenen Diesel-Hybrid auf 99g…

Peugeot liefert hier mal eben die mehr als deutliche Antwort auf die "Nation der Kleinwagenfahrer". In Frankreich ist nicht nur die Oberklasse, sondern auch die obere Mittelklasse nach den Verkaufszahlen mausetot. Also machte man aus der Not eine Tugend und brachte ein Auto, welches jegliches Geschrei nach Größe und Leistung ignoriert und stattdessen radikal auf niedrigen Verbrauch optimiert ist. Über die 130g EU-Grenzwert kann man sich so nur noch totlachen.

Freitag, 1. Oktober 2010

Dateiformat WebP - Messungen

Google hat heute ein neues Dateiformat für Fotos vorgestellt, dass das inzwischen doch arg in die Jahre gekommene JPEG ersetzen soll. Selbst mit 2 MBit sind Full-HD-Bilder nervig zu laden und können daher nicht mal eben in einem Text eingebunden werden. Dazu kommen Internet-Zugänge, bei denen aus eben diesem Grunde Bilder komplett abgeschaltet werden. In ärmeren Ländern teilt sich immer noch oft genug ein ganzes Dorf 56k - da sind Bilder, auf denen man auch Details erkennen kann, dann komplett nervig bis unmöglich. Einen Nutzen für ein solches Format gibt es also.

Allerdings ist für mich fraglich, ob das Format wirklich die erforderliche Verbesserung bringt - anzustreben wäre hier IMHO etwas im Bereich von unter 250 kB für Full-HD (wäre damit in <1s geladen).

Hierzu habe ich eine kleine Stichprobe mit dem Foto aus dem Wikipedia-Artikel zum 1928er Ford Modell A gemacht. Für die Erstellung der JPEG-Dateien wurde Gimp benutzt; hier mag es mit anderen Programmen Unterschiede geben. Die WebP-Dateien erzeugt das bei Google verfügbare Programm 'webpconv', wobei diese zur Betrachtung derzeit noch in PNG-Dateien zurück umgewandelt werden müssen, was aber aufgrund der Arbeitsweise des PNG-Formates die Qualität nicht beeinflusst.

Ergebnisse:
  • wie es da liegt, hat es 1.25MB
  • als PNG abgespeichert, wiederum in Gimp (höchste Komprimierungsstufe, wobei diese nicht die Qualität, sondern nur den Rechenaufwand beeinflusst) werden es 4MB. Diese Datei dient als Ausgangsmaterial für die weiteren Konvertierungen.
  • für JPEG-Dateien benutze ich selbst normalerweise 85%, was 722 kB ergibt.
  • als 75% JPEG (da wird es dann langsam schlechter, besonders anfällig ist das Hinweisschild im Hintergrund, wo auf der grünen Fläche Datenmüll entsteht) sind wir bei 536 kB.
  • WebP versucht sich selbst mit 82% Qualität, hierbei ergibt sich eine Größe von 468 kB. Auffällig war die im Vergleich zu den Konvertierungsvorgängen mit einer von mir vorgegebenen Qualitätsstufe deutlich längere Arbeitszeit – dies liegt daran, dass 'webpconv' die ideale Bildqualität über das Rauschverhalten des Bildes ermittelt.
  • WebP mit 100% liefert 1MB
  • 75%-WebP sieht immer noch gut aus und liefert 384 kB.
  • und einmal die Schmerzgrenze überschritten: 50% WebP. Man sieht Verluste (wieder an dem Schild, diesmal wird es unscharf), aber eindrucksvolle 223 kB.
Die Realität im Internet (100% JPEG) liefert also 1,25 MB. Diese Dateien werden nach dem Grundsatz "viel hilft viel" von den Kameras selbst erstellt. Dort kommt es ja auch auf den Platz nicht an. Mit JPEG selbst kriegt man das ganze auf 722 kB runter (die oben genannten 85%). Darunter fängt bei jedem Bild etwas anders die Schmerzgrenze an, so dass man manuell probieren müsste.

Wenden wir die "viel hilft viel"-Methode nun auf WebP an, sind wir bei 1 MB, also schonmal 20% Gewinn. Dank des mitdenkenden Konvertierungstools fallen aber eben keine 100%-Dateien an, sondern diese sind schon leicht in der Qualität, aber sehr stark in der Größe verkleinert. Somit landet man ohne größere Experimente bei 468 kB – deutlich kleiner, als bei einem JPEG mit manueller Optimierung denkbar wäre (selbst die Datei jenseits der Schmerzgrenze ist noch größer!). Die angestrebten 250 kB sind hier allerdings nicht erreichbar.

Noch ein anderer Versuch ist interessant: Das Logo von heise-Online. Derzeit eine 3,3 kB-Große GIF-Datei. Bereits als PNG schrumpft sie auf 2,6 kB. Ein 85%-JPEG ist mit 2,7 kB minimal größer; wobei ob der extrem einfachen Bildstruktur bereits hier Artefakte auftreten, so man die Datei vergrößert - bei normaler Größe sieht man sie dagegen nicht, da die Abweichungen zu klein sind. Ein recht ähnliches optisches Egebnis liefert auch WebP, dass hier 62% nehmen will. Der Hit ist aber die Dateigröße: Dieses Format liegt mit 1014 Byte knapp unter 1 kB! Hier ist die Einsparung also mehr als 2/3…

Ein deutlich kritischeres Fazit zieht ein x264-Entwickler in seinem Blog, was ob der Konkurrenzsituation zwischen beiden nicht so gänzlich verwundert. Dort hat man ein Bild aus einem Full-HD-Film genommen, welches als 100%-JPEG recht erstaunliche 3,3 MB liefert – weit mehr als das Doppelte von meinem Versuchsobjekt. Die Frage war zudem nicht "wer ist bei gleicher Qualität kleiner?", sondern das Gegenstück "wer ist bei gleicher Größe besser?". Die hierbei angestrebte Größe von 150 kB kann man gewiss als mehr als ambitioniert ansehen, entsprechend sehen alle Ergebnis-Bilder scheiße aus. Die Schreiber dort sind nun allerdings der Meinung, dass das JPEG-Bild "hübscher tot komprimiert" sei… An der gleichen Datei habe ich nun einmal den umgekehrten Weg erprobt: webpconv mit seiner Automatik fördert hier nun 85% und 640 kB zu Tage, ein 85%-JPEG ist mit 846 kB dagegen deutlich größer.

Dieser scheinbare Wiederspruch erklärt sich in der unterschiedlichen Art der Bildfehler. Ein WebP wird mit stärkerer Komprimierung unscharf - ein Merkmal, dass auch durch schlechte Fotografen entstehen kann, weshalb es ohne direkten Vergleich erst auffällt, wenn es sehr stark ausgeprägt wird; dann aber umso mehr. JPEG neigt dagegen zu "komischen Mustern auf glatten Flächen". Diese können auf keine andere Art entstehen, so dass man sofort erkennt "dieses Bild wurde zu stark komprimiert". Werden diese Muster stärker, ändert sich nichts mehr an der Bildwahrnehmung.

Für den Alltag halte ich den Ansatz einer angestrebten Qualität, zu der dann die Größe gesucht wird, für häufiger als den, wo die Größe vorgegeben wird.

Sonntag, 19. September 2010

Mal wieder LED-Lampen

Links LED, Rechts ESL.
Am vergangenen Donnerstag hat sich nun einer meiner 7 W-Sparlampen-GU10-Strahler hier verabschiedet. Nach etwas über 20.000 Stunden Leuchtdauer darf er das auch. Damit ging natürlich die Suche nach Ersatz los, bei meinem Sparfimmel ist 'einfach wieder das gleiche' ja schließlich zu langweilig. Der Anforderungskatalog ist natürlich nicht ohne: GU10-Sockel und 350 lm (orientiert an einer 35 W Halogenlampe dieser Bauform).

Das naheliegendste wäre wieder die gleiche Technik, die es damals noch einzig von Megaman gab; heute aber auch von diversen Noname-Fabrikaten. Im Ergebnis kosten die Lampen statt schweineteuren 15 € jetzt nur noch deren 10.

Aber die Technik geht ja weiter, also einen Blick auf die LEDs geworfen. Hier ist man durchaus positiv überrascht, Leuchtmittel mit mehr als 100 lm/W gibt es inzwischen auf breiter Basis im Handel. Damit wären für den gedachten Zweck 4 W angesagt. Soweit die Theorie, denn der Besuch im Baumarkt fördert insgesamt drei GU10-LED-Leuchtmittel zu Tage:
  • Eine offenbar Noname-Lampe "Premium",  vermutlich eine Hausmarke mit 3 W basierend auf einer sehr großen LED in der Mitte. Darüber, wie hell das Ding ist, verliert die Beschreibung kein Wort; einzig steht da toll "90% Einsparung". Das wären durchaus über 300 lm, aber für "einfach mal versuchen" sind mir 20€ deutlich zu viel. Dank sehr "umweltfreundlicher" Plastikverpackung ist auch nix mit vor dem Kauf testen.
  • Von Philips gibt es eine ebenfalls 3W-LED, die hier jedoch nur noch als Vorführexemplar existierte. Insofern kann ich die Deklaration auf der Verpackung nicht beurteilen. Die Helligkeit einer GU10-Lampe in diesem Vorführkasten zu beurteilen, ist mir auch nicht wirklich möglich, wohl aber kann ich dem Ding eine sehr angenehme Lichtfarbe bescheinigen. Die genaue Farbwiedergabe müsste man herausfinden.

    Und wo wir gerade beim Herausfinden sind, Philips hat ja eine Website (im Gegensatz zu dem Hersteller zuvor...), wo man dann auch ein 3 W-LED-Leichtmittel findet. "3 W, ersetzt 35 W." Klingt gut. "150 lm." Klingt weniger gut. Tatsächlich ersetzt das Ding vielleicht 15 W und ist damit nicht effizienter als eine Sparlampe (wenn auch immerhin quecksilberfrei). Eine 7 W-Version gibt es auch – 230 lm. Entspricht also etwa 25 W, womit sie sogar noch recht weit hinter die Sparlampen oder ihren kleinen Bruder zurückfällt. Lichtfarbe 2700 K und Farbwiedergabeindex von 90 (entspricht Halogen und liegt recht deutlich über eienr Sparlampe) bestätigen aber immerhin in diesem Bereich den positiven Eindruck. Kost (als 3 W) 15€. Die 7 W-Version hatte man da nicht.
  • Kandidat Nummer drei stammt von Osram. Leider ist aber nur die "Decospot"-Serie vorrätig und die muss man sich bei 1 W eigentlich gar nicht weiter ansehen. Zur Helligkeit steht nichts, die Website übt sich in Kundenverschreckung (kriegen die ihre Datenbankfehler auch irgendwann mal in den Griff?) und in den unendlichen Tiefen findet sich "100 Candela, 20° Abstrahlwinkel". Ja, das kann man irgendwie umrechnen - aber meine Lust dazu ist sehr nah bei 0. Den Preis hab ich dann auch nicht mehr gesucht.
  • Geben tut es bei Osram durchaus noch mehr; auf der Website findet sich die "PARATHOM PAR16" mit 5 W, die so hell wie 35 W sein soll. In der Datenbank das gleiche Problem wie vor, diesmal mit 350 Candela. Na dann eben doch mal die Umrechnung raussuchen. Die Abgründe der Wikipedia hierzu sind tief, die {{Unverständlich}}-Bapperl vermehren sich da gleich mal, aber es findet sich dieser Satz: Eine Leuchtdiode habe einen Öffnungswinkel von 20° und eine Lichtstärke von 15 cd; für den Lichtstrom ergibt sich Φ = 15 · 0,0955 = 1,432 lm. Mit anderen Worten: Gesucht wären hier irgendwas bei 4800 cd… Entweder ich rechne falsch, oder Osram übertreibt noch viel maßloser als Philips und das Ding besitzt gerade mal die Effizienz einer Glühlampe…
Nach diesem doch arg ernüchtenden Ergebnis habe ich dann einmal eBay bemüht. Über den Tisch gezogen wird man auch hier gerne – "So hell wie 40W!" und im kleingedruckten "150 lm". Immerhin das ganze so vor 6-7€. Gefunden habe ich am Ende eine mit angegebenen 480 lm bei 3,5W für knapp 7€. Selbige hat sich als Glücksgriff erwiesen: Tatsächlich recht deutlich heller als die zugegeben schon recht abgenutzte Sparlampe. Inzwischen kostet das Ding aber auch 17€ :/

Inzwischen gibt es übrigens LEDs mit 200 lm/W, die allerdings noch schweineteuer sein dürften und eher nicht als fertige Leuchtmittel erhältlich sind. Damit wären dann 2 W für meinen Anwendungsfall ausreichend und eine 60 W-Glühlampe kann man mit 3 W ersetzen – 95% Einsparung und selbst gegenüber den "Sparlampen" noch 70% weniger Verbrauch. Aber so lange die Hersteller (egal ob etabliert oder noname) bei den Helligkeiten lügen dass sich die Balken biegen oder gleich gar nichts angeben, werden LEDs sicherlich einen schweren Stand haben und vermutlich irgendwann pauschal als "sind sowieso immer viel dunkler als versprochen" abgelehnt werden.

    Samstag, 18. September 2010

    E-Roller und falsche Herangehensweise der Gesetzgebung

    Die Grünen haben vorgeschlagen, zunächst die Neuzulassung, später dann auch die Nutzung von Motorrollern mit Verbrennungsmotor zu verbieten. Dieverse Leute schreien jetzt natürlich erstmal von Unterdrückung, "Ökodiktatur" und ähnlichem Bullshit.

    Der Hintergrund dieser Verbotsidee ist, dass es ja inzwischen Elektroroller gibt, die für die Umwelt besser sind. Wie so oft in der deutschen Umweltpolitik kommt dann auch gleich jemand mit der Verbotskeule für die alte Technik, was bei vielen Leuten das Thema "Umweltschutz" hat zu einem Feindbild werden lassen.

    Die sonst so auf den freien Markt schwörende FDP hat auf einmal ihre soziale Ader entdeckt und kritisiert den Vorschlag dafür, dass er ja unsozial sei.

    Dabei wäre genau dieser freie Markt hier die Lösung! Ein Eletroroller kostet im Unterhalt je nach Quelle 35 (obiger Spiegel-Artikel) oder 70ct (Angabe eines Herstellers) auf 100km. in China sind diese Roller schon seit einigen Jahren auf dem Markt und haben die Verbrennungs-Dinger längst komplett verdrängt. In Deutschland dauert es halt nur mal wieder etwas länger, bis die neue Technik auf den Markt kommt, hier gibt es allerdings keinen Grund, wieso sich das ganze nicht genauso entwickeln sollte. Zur Not werden sicherlich wieder einige Politiker irgendeine finanzielle Förderung vorschlagen.

    Das einzige, woran mal wieder niemand zu denken scheint, sind die Bürger. Eine einfache Aufklärungskampagnie, in der den Leuten gesagt wird, dass ein Elektroroller ihnen 80-90% der Betriebskosten spart und sie dabei noch etwas für die Umwelt tun, würde ausreichen! Die macht aber natürlich niemand.

    Und genau das ist der Grundsatz, wie sich die Politik der Piratenpartei in diesem Bereich gut erklären lässt: Aufklären vor Fördern vor Fordern. Nicht andersrum.

    Donnerstag, 16. September 2010

    Wikipedia und der falsch verstandene Relevanzbegriff

    In der Diskussion um die sogenannte "Relevanz" bei Wikipedia scheinen viele nicht zu verstehen, wonach diese Kriterien festgelegt sind oder wozu es solche überhaupt gibt. Hierbei grassieren zumeist irgendwelche wirren Theorien über den Sinn dieser Kriterien – die freundlicheren glauben an eine wie auch immer begründete Absicht zur Begrenzung der Artikelanzahl, die weniger freundlichen auch an Absichten zur Unterdrückung unbequemer Themen. Das ganze gerne verbunden mit panikmachendem Unsinn wie der Aussage, dass Wikipedia schrumpfen würde.

    Angelegt wurden diese Kriterien aber zu genau dem gegenteiligen Zweck! Nach der Zeit des anfänglichem wilden Wachstums der Wikipedia gab es nämlich genau das gegenteilige Problem; eine ganze Reihe von Benutzern wollte die Themenauswahl wesentlich strenger eingrenzen – manche propagierten gar noch als die Artikelzahl bereits deutlich 6-stellig war eine Wikipedia von etwa 10.000 Artikeln, die dafür allerdings besonders genau geprüft sein sollten. Zwischen den meisten Benutzern gab es jedoch einen Konsens, dass ein Thema dann für Wikipedia geeignet – "relevant" – ist, wenn es zu diesem Literatur, umfangreiche Medienberichte (bitte zu unterscheiden von "einmaligen Nachrichten"!) oder ähnliches gibt; brauchbare Quellen eben, um daraus einen Artikel zu schreiben. Da dies aber in den wenigsten Artikeln zu erkennen war (der "Einzelnachweis" war noch nicht erfunden und bis heute nicht in allen Artikeln eingeführt), entstanden zunächst oft über 100 Löschdiskussionen jeden Tag – eine kaum handhabbare Masse! Um dies nun irgendwie einzudämmen, wurden Kriterien gesammelt, bei denen man diese Quellen nicht mehr nachweisen muss, sondern einfach als vorhanden annehmen kann. Beispielsweise bezweifelt niemand, dass es zu einer Stadt, einem Bundesminister oder einem Papst Quellen gibt. Mit der Zeit entstand so ein umfangreicher Wust an Kriterien, die eigentlich alle nur eine Konkretisierung der einen einzigen Frage nach den Quellen sind.

    Aus diesem Grund kann man eben auch einen "bequellten" Artikel schreiben, ohne sich Gedanken über die Relevanz machen zu müssen – denn diese Quellen selbst verschaffen ja die Relevanz.

    Insofern kann man die Relevanzkriterien auch Kriterien, nach denen die Benutzer der WIkipedia ohne eine Einzelfallprüfung davon ausgehen, dass zu einem Thema eine Außenwahrnehmung existiert nennen. Ob das jetzt aber unbedingt die bessere Bezeichnung ist?

    Dienstag, 7. September 2010

    Energiekonzept mit viel heißer Luft

    Zu der derzeit viel diskutierten Verlängerung der Restlaufzeiten der Kernkraftwerke gehört auch noch ein vergleichsweise wenig diskutiertes Gesamtkonzept. Positiv an diesem Konzept ist erst einmal seine Existenz als solche, denn oftmals enden die "Konzepte", die man hier und da so hört bereits mit der Stromproduktion. Leider fehlen diesem Konzept jedoch so richtig zündende Ideen, es lässt sich auch beim besten Understatement wirklich nicht als "abitioniert" bezeichnen und schon fast erschreckend oft finden sich Begriffe wie "Aufklären" und "Eigenverantwortung" in den falschen Zusammenhängen. Offenbar plant man, dass im Zuge der Laufzeitverlängerung eingenommene Geld in den Ausbau erneuerbarer Energieen und vor allem in mehr Effizienz zu investieren, anders kann ich mir nicht erklären, wieso sich hier diverse Faktoren positiv entwickeln.

    Für die Energieversorgung des Jahres 2050 geht man von einem EE-Anteil von gerade einmal 50% aus. Der Strom käme demnach zur Hälfte aus Windkraft, zu 1/4 aus Solarenergie und Geotherie zusammen und zu je etwa 1/12 aus Wasser, Erdgas und Steinkohle (!). Das etwas seltsame "ohne Laufzeitverlängerung wäre alles schrecklich"-Szenario kommt dagegen auf insgesamt mehr als 1/3 für die fossilen Energieträger, da zum einen von einem deutlich höheren Energiebedarf ausgegangen wird und zum anderen das Wachstum bei der Windkraft geringer angesetzt wird. Dazu muss man wissen, dass es Studien gibt, die bereits für das Jahr 2030 (!) eine 100% regenerative Versorgung auch ohne eine Laufzeitverlängerung für möglich halten. Selbiges ist auch das Ziel der niedersächsischen Piratenpartei für ihr eigenes Bundesland.

    Der schon angedeutete geringere Energiebedarf durch die Laufzeitverlängerung liegt man eben bei 50% bis 2050 und bereits 20% bis 2020. Erreicht werden soll dies durch mehr Effizienz, die durch "Eigenverantwortung" und "Aufklärung" erreicht werden soll. Soweit so toll – konkreter wird man auch nur an zwei Stellen. Zum einen sollen E-Autos (Achtung, Festhalten!) von Parkplatzgebühren befreit werden und dürfen auf Busspuren fahren. Mit anderen Worten, die Kommunen zahlen das doch bitte. Außerdem will man die Förderung für die Gebäudesanierung aufstocken (hatte man die nicht gerade erst gekürzt?).

    Noch an einer anderen Stelle wird Geld ausgeben, und zwar für Offshore-Windparks. Hier wird von 75 Mrd. Bedarf geredet, deswegen gibt man auch großzügig deren 5 (nein, kein Tippfehler von mir!).

    Was haben wir sonst noch? Achja, CCS, wobei da die Betreiber schon abwinken "in Deutschland nicht durchsetzbar", einen Plan (nein, kein Geld) für den Ausbau des Stromnetzes inklusive Aufklärung der Bürger, über deren Dächer dann die Leitungen laufen sollen und ebenfalls Aufklärung für Onshore-Windenergieanlagen.

    Insgesamt also recht wenig, aber wenn man von den erwarteten 78 Mrd. € zusätzlicher Gewinne der Stromkonzerne nur 26 einsacken will, ist das wohl wenig verwunderlich.

    Was mir fehlt, ist eben ein etwas ambitioniertes Ziel oder eine wirklich gute Idee. Ein paar Ideen auf die Schnelle:
    • Für die Stromproduktion muss jeder Betreiber genau erklären, wieso an irgendeinem Standort nicht der CO2-technisch ideale Neubau vorgesehen werden soll. Dazu setzen wir einen hübschen Grenzwert für den CO2-Ausstoß von Neuanlagen. Liegt eine über diesem, ist auch keien Ausnahme zu bekommen. CCS gibt's hier natürlich nicht!
    • Eine Kennzeichnungspflicht für den Energiebedarf im Betrieb für *sämtliche* elektrischen Geräte in sehr deutlicher Form sowohl mit einem jährlich angepasstem Marktvergleich wie auch mit konkreten Zahlen.
    • Kleine Nettigkeit für Autos, weil mir das immer wieder begegnet: Ist von einem Modell eine nicht weniger als 10% schwächere Variante mit geringerem Verbrauch verfügbar, muss ein entsprechender Warnhinweis angebracht werden. Derzeit kaufen viele in dem Glauben an "wenig Leistung wird wohl sparsam sein" noch Autos mit leistungsschwachen und billigen aber nicht eben sparsamen Grauguss-Motoren.
    • Wiederaufforstung von aufgegebenen landwirtschaftlichen oder militärischen Flächen. Ich vermute, damit wäre die erforderliche CO2-Bilanz fast alleine erreichbar…
    • Verschärfung der EnEV soweit, dass Neubauten noch in dieser Legislaturperiode regenerativ versorgte Passivhäuser sein *müssen* oder eine Begründung geliefert werden muss, wieso eine regenerative Versorgung nicht möglich ist. Sprich: Jeder Neubau hat im Regelfalle _gar keinen_ Heizenergiebedarf mehr.
    • Massive Verschärfung der CO2-Grenzwerte für Autos: die 130g werden nicht als Durchschnitt, sondern als Höchstwert festgelegt. Nur 5% der von einem Hersteller produzierten Modelle dürfen über diesem Wert liegen. Damit bleibt Platz für ein paar "guckt mal, was wir können"-Modelle, die Mehrzahl aber muss massiv auf Verbrauch optimiert werden. Ich persönlich halte die Grundlagen für einen Durchschnitt von 95g auch ohne den Einsatz von Elektroautos bereits heute für gegeben.
    • Apropos Elektroautos: Diese werden mit einer scheinbar hohen Kfz-Steuer von 250€ belegt, dafür kriegen die Käufer aber 5000€ geschenkt. Unterm Strich rentiert sich das ganze für die Käufer immer noch, weil die Verbrauchskosten ja vergleichsweise verschwindend gering sind. Dafür lassen wir den Parkplatz-Quatsch weg.

    Samstag, 4. September 2010

    Das Wikipedia-Prinzip der maximalen Aufregung

    Vor einigen Tagen hatte ich eine mehr als bizarre Beobachtung auf der Löschseite der Wikipedia. Da stellte jemand etwa 20 Löschanträge zu diversen Artikeln über Brunnen. Genauer handelte es sich hierbei um jeweils eine Kurzerklärung des Motivs und darunter eine stichpunktartige, verlinkte Aufzählung solcher Artikel. Ein konkretes Beispiel hiervon ist der Artikel "Simsonbrunnen". Diese Artikel hatten seiner Meinung nach das Problem, fälschlich als Liste eingeordnet zu sein, obwohl es sich dabei um Begriffsklärungen handelt. Kann man so sehen, muss man aber nicht. Statt dies aber einfach zu ändern, musste er eben Löschanträge stellen – nach 30 Minuten war der ganze Spuk durch die Mitarbeit einiger anderer Benutzer erledigt.

    Eine andere aktuelle Löschdiskussion geht um den Artikel zum VW Passat B7. Dieses Auto wird so sicher wie das Amen in der Kirche am 2. Oktober 2010 vorgestellt werden; mit etwas Glück auch schon 1-2 Tage früher. Trotzdem gibt es jetzt eine Löschdiskussion mit "Glaskugel" (was soviel heißt wie "Zukunftsmusik"), wo auch noch diverse Benutzer für Löschen plädieren. Warum man jetzt einem Admin die Arbeit machen muss, den Artikel zu löschen und in 4 Wochen wiederherzustellen, wissen wohl die Löschbefürworter selbst nicht.

    Ein anderes gängiges Problem dieser Art sind sogenannte Sperrprüfungen bei Benutzern, die wegen einer Verbalentgleisung oder eines Editwars für 30 Minuten gesperrt wurden. Da endet dann die Diskussion, ob die Sperre berechtigt war, mit dem Satz "Erledigt, da Sperre abgelaufen." – solche Diskussionen dauern sonst nicht selten mehrere Stunden. In der gleichen Zeit könnte der gesperrte Benutzer auch einfach einmal durchatmen, dann ist selbige schon fast abgelaufen.

    Gar nicht anfangen möchte ich mit einer Unmenge an Löschanträgen mit der ausdrücklichen Absicht, dass der Artikel bitte überarbeitet werden würde.

    Nach all solchen Diskussionen – es gibt auch Editwars und Sperrverfahren um Satzstellungen oder Rechtschreibung, Löschdiskussionen wegen Tippfehlern oder eine unendliche Zahl von Benutzern, die einen irgendwie gearteten Hinweis, dass ihrem gerade angelegten Artikel irgendetwas wichtiges fehlt, als Grund für eine mit Verbalentgleisungen durchsetzte Vandalismusmeldung sehen – komme ich immer mehr zu der Erkenntnis, dass es ein "geheimes Wikipedia-Prinzip" gibt. Dieses Prinzip nenne ich das "Wikipedia-Prinzip der maximalen Aufregung". Dieses Prinzip folgt dem Grundsatz, dass ein Problem, welches man klein und unauffällig schnell lösen könnte, ohne dass irgendein Benutzer sich deswegen angegriffen fühlen müsste oder es zu einer Diskussion (gar einer größeren) kommt, zwingend so lösen muss, dass eine große Zahl an bisher unbeteiligten Benutzern darin involviert wird, derjenige dessen Änderung unübersehbar als unfähig dargestellt wird und vor allem auch garantiert die Leser merken, dass der Amtsschimmel einmal mehr wiehert.

    Dienstag, 31. August 2010

    Der weiße Fleck, der woanders war

    Die Deutsche Telekom hat nun in Kyritz im Nordwesten Brandenburgs den ersten Sendemast einer neuen Mobilfunktechnik, genannt "LTE" aufgebaut. Die Stadt mit knapp 10.000 Einwohnern war dem Rest der Republik wohl bisher entweder völlig unbekannt oder der Name ist im Kontext des Bombodroms einmal gefallen, dessen Gebiet als Kyritz-Ruppiner Heide unter anderem nach diesem Ort benannt ist. Entsprechend niedrig ist der Wissensstand über den Ort, was sich offenbar bis weit in die IT-Fachjournalisten zieht – man ließt nämlich den schönen Satz "ein weißer Fleck von der Breitband-Landkarte gestrichen" an diversen Stellen. Fragt man einmal die Ortsansässigen, die es wider jedes Erwartens im Internet gibt, staunt man: In der Innenstadt gibt es 6, in den Randbereichen 2MBit-DSL. Und irgendwo wird da auch gerade ein VDSL mit bisher allerdings nur 16MBit aufgebaut – ein weißer Fleck ist DAS nicht.

    Ganz anders ließt sich die Meldung dann bei heise: Hier ist von der im Westen angrenzenden Gemeinde Gumtow mit 3700 Einwohnern die Rede. Hier erleben wir dann das klassische DSL-Problem, wo der eine Ort VDSL hat und der Vorort sich über Sumpf-DSL freuen kann. Offenbar ist es (nicht nur hier) für die Telekom rentabler, einen Ortskern von 6 auf 16 oder gar 52 MBit aufzurüsten als Vororte überhaupt zu versorgen… Bin ich der einzige, der das nicht wirklich glaubt und es vor allem ziemlich doof findet?

    Ein paar weitere offene Fragen gibt es noch: Angeblich gibt es keine Geräte (in Schweden aber durchaus, inkompatible Standards?), Preise will die Telekom nicht nennen, sondern "in Abhängigkeit von den Gerätepreisen" (sic!) festlegen und für die Bandbreite ist nur von 2MBit die Rede. Das wäre weniger als UMTS, aber offenbar meint man die "Erwartete Bandbreite pro Kunde" – nur bei wie vielen Kunden, das steht da nicht; sicherlich nicht bei 3700… Da ist dann also noch ein weißer Fleck, nämlich der im Informationswert des Artikels.

    Dienstag, 24. August 2010

    Der Stein auf dem Weg zu kleineren PCs

    Die IT definiert sich ja traditionell über den Weg zu immer stärker integrierten Bauteilen. Insofern müssten die PCs ja auch – zumal die Leistung stärker steigt als die Nachfrage nach ihr – immer kleiner werden. Für einige Spezialgeräte gilt dies sicherlich (man denke nur an die ersten Laptops im Vergleich zu einem heutigen Netbook oder gar Smartphone!), aber der "normale" PC wird kein Stück kleiner. Kleinere Mainboard-Formate gibt es durchaus, bleiben aber in der Praxis ohne großen Effekt auf die Gehäusemaße. Von den rund 1500 Gehäusen, die die Geizhals-Datenbank so kennt, hat gerade einmal 1/3 ein Volumen von weniger als 30L. Größer war der Ur-PC auch nicht. Bei weniger als 20L landen dann noch gerade einmal 86 Einträge (1/17 des Angebotes). Im Gegensatz dazu bewegen sich Nettops zwischen 1 und 5L.

    Während nämlich ein Mainboard heute teilweise nur noch einen Bruchteil des früheren Platzes belegen (von 30*24cm bei ATX auf 17*17cm bei ITX) und Erweiterungskarten nur noch in Ausnahmefällen gebraucht werden, sind alle anderen Komponenten keinen Millimeter kleiner geworden, als bei der Erfindung des PCs Mitte der 1980er.

    Angefangen mit dem unumgänglichsten Teil, dem Netzteil. Hier gibt es die allgegenwärtige ATX-Norm, mit der das Netzteil alleine ungefähr so groß ist wie ein durchgehend aus spezial-Komponenten bestehendes Nettop. Es gibt zwar etwas kleinere Normen (SFX und TFX), aber wirklich was bringen tun diese auch nicht, dafür schränken sie die Auswahl der möglichen Netzteile gleich mal gewaltig auf welche mit der Technik der einfachsten ATX-Modelle ein. Sieht man sich die Größe externer Netzteile für Notebooks oder Nettops an (die es durchaus bis 120W gibt), wird klar, dass es wesentlich kleiner ginge – da es hier aber keine Norm gibt, setzen die Hersteller von kleinen Gehäusen auf Eigenentwicklungen mit meist unbekannter Qualität oder gleich auf externe Lösungen samt einer Wandlerplatine im Gehäuse. Die letztere Lösung gibt es als "Pico-PSU" auch für Bastler, dies aber zu aberwitzigen Preisen.

    Bei Festplatten und Optischen Laufwerken kann man mit dem Griff in die Notebook-Abteilung eine ganze Menge Platz sparen. Das optische Laufwerk bleibt aber als nach unten begrenzender Faktor der Gerätebreite (eine CD/DVD/BluRay ist nun einmal 12cm groß) erhalten, egal wie eng es sonst gebaut ist. Auch hier haben die kompakten Laufwerke zudem diverse Nachteile von langsamer über teurer bis schlechter verfügbar.

    Erweiterungskarten braucht man heute, wie schon gesagt, nur noch für Spezialaufgaben wie TV-In oder wenn die Zahl der Anschlüsse nicht ausreicht. Sobald eine Grafikkarte zum Einsatz kommen soll, ist es mit "Kompakt" sowieso vorbei. 2 Slots belegen die nämlich gleich mal ganz selbstverständlich, nur eine winzige Minderheit begnügt sich da noch mit einem. Ist nun das Gehäuse auf nur einen Slot ausgelegt (wie bei der ITX-Norm üblich), ist eine Grafikkarte damit de facto ausgeschlossen. Inzwischen sind die kleinen Gehäuse dann auch mal für Mini-DTX gedacht, was einen Slot mehr bedeutet. Boards, die tatsächlich 2 Slots haben, sind wohl aus dem gleichen Grunde dann nicht im Handel anzutreffen.

    Hier wird auch recht klar, wie die Mehrheit der PCs in 10 Jahren aussehen wird: Die Technik entstammt dem, was heute die Notebooks sind (schon jetzt sind dort die Stückzahlen größer!) und analog hierzu beschränkt sich die Hardware-Erweiterbarkeit auf externe Geräte, RAM und eine neue Festplatte. Nur die Freaks werden sich weiter mit Steckkarten und austauschbaren Netzteilen beschäftigen, deren Stückzahlen dann aber keine wirklich große Bedeutung mehr haben werden.

    Freitag, 20. August 2010

    Löschungen bei Wikipedia vermeiden

    Ich möchte an dieser Stelle einmal erklären, wie man am wirksamsten die Löschung eines selbst erstellten Artikels bei Wikipedia vermeiden kann.

    Hierfür muss man als erstes einmal die Löschprozedur verstehen. Einen Löschantrag kann und darf jeder stellen, auch ein unangemeldeter Benutzer. Letztere und auch Neulinge sollten sich dies aber nicht zur Haupt-Tätigkeit machen, denn "Berufslöscher" sind in WP inzwischen ungerne gesehen; die zwei alteingesessenen ("Weissbier" und "Eingangskontrolle") dienen hier wohl zum einen der Abschreckung, haben zum anderen aber einen gewissen Bestandsschutz. So eine Löschdiskussion kann nun auf vier Arten enden: Der Artikel wird behalten oder gelöscht; jeweils kurzfristig oder nach einer Woche. Insgesamt bewegt sich die Überlebenschance eines zur Löschung vorgeschlagenen Artikels schon seit Jahren um die 50%, wenn nicht inzwischen noch höher. Ist der Löschantrag offensichtlicher Unsinn (Extrembeispiel jemand will den Artikel zu Angela Merkel wegen Irrelevanz löschen), fliegt der Antrag schnell raus – nennt sich bei Wikipedia dann "LAE" (Löschantrag entfernt"). Ist der Artikel offensichtlicher Unsinn (Ein angeblicher "Internet-Promi" mit 0 Google-Treffern ist wohl ein Fake), wird umgehend gelöscht. Ebenso gibt es für viele Themen umfangreiche Datenbanken, in denen das Thema als "Existenznachweis" erwähnt sein sollte. Selbiges gilt auch, wenn keine Indizien zu erkennen sind, dass das Thema relevant sein könnte. Ein gerne mal vorkommender Fall wäre etwa ein Sportverein, über den da schön drin steht, dass er in irgendeine bedeutungslosen Liga Fußball spielt (solche Anlagen gibt es zu Hauf und wären nicht relevant), vergessen wurde aber, dass die Abteilung im Tischtennis deutscher Meister wurde. Sowas wird dann natürlich halt auch fix gelöscht, wenn es nicht vorher einer merkt – das ganze wird "SLA nach LA" genannt, also "Schnelllöschantrag nach Löschantrag" (oder besser: Nach eindeutiger Löschdiskussion). Hier merkt man schon, dass es auch noch den "SLA" ("Schnelllöschantrag") alleine gibt, das ist dann für den offensichtlichen Unfug ("Mein Tischnachbar stinkt"), aber auch für "Artikel", die nur aus einem Satzfragment bestehen oder wo der Antragsteller sich sicher ist, dass der Artikel nix wird! Einsprüche sollten dort schnell erfolgen, und zwar direkt unter dem Antrag und begründet. Für die Abarbeitung nach einer Woche bleiben die Artikel, bei denen die Sache nicht so eindeutig ist, und genau hier kann der Autor selbst was retten.

    Die wichtigste Frage ist die Erfüllung der Relevanzkriterien durch den Artikel. Diese Kriterien sind nicht immer so ganz logisch, weshalb man da am besten einmal selbst reinguckt. Das diese Relevanz erfüllt ist, muss natürlich auch in dem Artikel stehen, denn niemand kann hellsehen und das ganze ist in der Regel sowieso die wichtigste Information. "Angela Merkel ist eine studierte Physikerin." interessiert eher wenige, "Angela Merkel ist deutsche Bundeskanzlerin." definiert dagegen klar die Relevanz und liefert auch gleich die wichtigste Aussage zur Person. Oftmals (ganz besonders bei Firmenartikeln!) ist es wichtig, dass diese Relevanzmerkmale auch durch eine entweder unabhängige oder gesetzlich zur Wahrheit verpflichtete Quelle belegt werden kann. Der berühmte Satz "weltweit führendes Unternehmen" von der eigenen Website führt als Werbung eher zur Schnelllöschung; schreibt sowas aber eine überregionale Tageszeitung über das Unternehmen, sieht die Sache ganz anders aus. Ansonsten ist es sehr förderlich, sich die Löschdiskussion einmal durchzulesen; insbesondere auch die Antragsbegründung und eventuell die Begründung weiterer "Löschen"-Kommentare. Hieraus ist recht schnell zu erkennen, was man am Artikel noch ändern muss und ob es womöglich auch schlicht nicht möglich ist, den Artikel zu retten, weil das Thema eben wirklich nicht relevant ist.

    Die Auswertung der Löschanträge nach einer Woche erfolgt nach den gelieferten Argumenten, NICHT nach der Anzahl derer, die "Löschen" oder "Behalten" schreiben. Wenn der Antragstext lautet "Irrelevant" und 30 Leute da drunter schreiben "hübsches Foto, behalten", wird natürlich trotzdem gelöscht; andersrum wird der Artikel aber natürlich auch behalten, wenn alle 30 dem Antragsteller zustimmen, aber nach 3 Tagen einer kommt "ehy, der Typ war mal Minister in XY!" (mit Belege natürlich, Scherzkekse gibt es auch da). Irgendwo dazwischen ist dann der Bereich, in dem der auswertende Admin einen Würfel nimmt (aus Sicht des Admins empfielt es sich, so eine Entscheidung dann zu begründen; das Eingeständnis des Würfelns dürfte der eigenen Reputation abträglich sein). Wenn du meinst, dass der Admin da völligen Käse entschieden hat, sprich ihn an und erkläre ihm, welches Argument er denn da nun übersehen haben soll – das ganze funktioniert übrigens in beiden Richtungen. Hat man den Eindruck, hier gegen eine Wand zu reden, gibt es irgendwann auch noch die Löschprüfung als Revisionsinstanz. Hier wird NICHT neu entschieden, sondern nur die Entscheidung überprüft. Anders als vor Gericht darf man aber auch neue Argumente einbringen; im Extremfalle sogar auf eine veränderte Faktenlage hinweisen.

    Ein paar Tabu-Argumente für Löschdiskussionen gibt es auch noch:
    • "Das hat doch einen Artikel in 10 anderen Sprachen!" (manche Werbespammer schaffen bis zu 20, einfach mal maschinell übersetzt.)
    • "Aber Amazon.de hat auch einen Artikel, wieso dann mein geplanter Webshop nicht?" (Selbsterklärend, oder?)
    • Richtig böse ist die Variante "Aber die völlig unbekannten Bands X und Y haben auch einen Artikel!" (da kann es dann passieren, dass diese beiden recht bald auch keinen Artikel mehr haben, weil sie bisher schlicht übersehen wurden)
    • Jegliche Argumente, in Richtung "Löschen ist doch sowieso doof" werden schlicht ignoriert. Die Löschseite ist nicht für Grundsatzdiskussionen da.

    Am sichersten Ruhe vor dem ganzen Löschgekaspere hat man, wenn aus dem Artikel so klar hervor geht, warum dieser Artikel hier steht, dass dies auch die Leute verstehen müssen, die es eigentlich gar nicht verstehen wollen. Dazu gehört neben einer Nennung des Relevanzmerkmals am besten gleich im ersten Satz auch eine möglichst umfangreiche Nutzung von unterschiedlichen Einzelnachweisen vorzugsweise von Stellen, die sogar ein kompletter Offliner kennen müsste.

    Donnerstag, 19. August 2010

    E-Autos bald ohne große Akkukosten?

    Bisher sind neben der Reichweite die Kosten für den Akku das größte Argument gegen Elektroautos. Wenn der Akku nicht fürchterlich klein sein soll, sind da schnell mal 10.000€ weg. Die Einsparungen gegenüber einem Auto mit Verbrennungsmotor sind dagegen vergleichsweise winzig, so dass der Wagen effektiv deutlich teurer wird.

    Nun ist allerdings die Entwicklung eines Akkus angekündigt worden, der ohne irgendwelche gravierenden Nachteile zu haben, 85% dieser Kosten einsparen soll – sprich: Ein Akku in heute üblicher Größe kostet dann also nur noch 1500€. Oder man investiert mehr Geld und hat daher eine wesentlich Reichweite… Die Sache hat allerdings den Haken, dass der Hersteller bisher nicht ansatzweise verrät, wie dies funktionieren soll. Auch dass die Entwicklung nicht durch das effektiv dahinter stehende Unternehmen A123Systems, sondern über ein Spin-off namens "24M" geregelt wird, lässt den Verdacht aufkommen, dass man sich hier des Erfolges nicht so ganz sicher ist. Immerhin hat dieses Spin-off jetzt aber 16 Mio. US-$ zur Verfügung, hoffen wir also, dass sie das Wunder wirklich erfüllen können.

    Street View – was sieht man denn?

    Wenn man sich die Debatte um Google Street View einmal ansieht, bekommt man den Eindruck, dass sich nach der Wende das "Tal der Ahnungslosen" nicht etwa aufgelöst, sondern einfach auf das gesamte Bundesgebiet ausgedehnt hatte… Die Annahme, was Google hier veröffentlichen will, scheint sich irgendwo im Bereich von Echtzeitvideos von jedem beliebigen Standort dieser Welt, inklusive des eigenen Vorgartens mit einer Verknüpfung sämtlicher nur irgendwo jemand erfassten Daten inklusive mindestens der Angabe aller Wohnorte (natürlich durchsuchbar) und vermutlich auch noch deren Einkommens- oder Krankendaten, zu bewegen. Würde dies zutreffen, ich würde die ganzen Proteste sogar verstehen! Und zwar voll und ganz! Und ich würde sie unterstützen!

    Die Sache hat nur einen Haken: Diese Vorstellung ist vollkommener Humbug!

    Was Google uns hier zeigt, und wie man am Beispiel diverser Städte in diversen Ländern bereits sehen kann, ist etwas völlig anderes. Es handelt sich vielmehr schlicht um von dem Fahrzeugdach aufgenommene Rundumblicke, deren Aufnahmestandorte einen Abstand von in den meisten Bereichen etwa 10m, teilweise aber auch wesentlich mehr haben. Auf diesen Fotos lassen sich kaum die Verkehrszeichen lesen (nicht zuletzt, weil die automatische Verpixelung sowieso auf alle möglichen Strukturen reagiert). Konkret habe ich als Muster gerade eine Aufnahme an der Nordseite des Dom von Utrecht (wer es genau wissen will: Ecke Domstraat/Voetiusstraat). Das Foto hat eine nicht ganz bildschirmfüllende Auflösung (wenn es nicht sogar dafür schon gestreckt wird, denn es wird bei weiteren Vergrößerungen sehr schnell pixelig) und ähnlich wenig, wie es ein 2MPix-Handyfoto aus dieser Perspektive tun würde – wenn nicht weniger, insbesondere wird leider der obere Teil des Kirchturms nur sehr unscharf abgebildet. Die Verpixelung erwischt übrigens nicht nur Gesichter und Kennzeichen, sondern schlägt hier und da auch mal bei Verkehrszeichen, Autofelgen oder anderen ähnlichen Teilen zu.

    Kurz: Wer Google Street View verbieten will, hat es entweder noch nicht gesehen oder hat offenbar die Absicht, Fotos im Freien generell zu untersagen. Oder er will einfach nur mit einer sinnlosen Panik irgendwelche Angst schüren…

    Montag, 16. August 2010

    Interessenprofile wirklich ein Datenschutzthema?

    Ich möchte einmal in Frage stellen, ob es sich bei den gerne als Datenschutzthema genannten "Interessenprofilen" wirklich um ein Datenschutzthema handelt, oder ob hier nicht vielmehr rein prinzipielle Sorgen auf sehr praktische Vorteile stoßen.

    Ein solches Profil dient rein wirtschaftlich schlicht dazu, den Kunden zielorientierte Werbung zukommen zu lassen; also einem Ökofundi besser Werbung für ein neues Fahrrad als für einen 15L verbrauchenden SUV anzuzeigen und dem sozial interessierten Geek lieber einen Werbebanner mit geekingen Shirts als einen von Kik… Von diesem Prinzip profitieren im Grunde beide Seiten: Der Werbende hat bessere Chancen, dass die Werbung ihr Ziel auch erreicht; der Kunde trifft eher auf ein Werbebanner, das etwas bewirbt, was ihn auch interessiert. Noch größer der Profit für den Nutzer, wenn ihm über dieses System auch ihn vermutlich interessierende sonstige Inhalte zu sehen bekommt.

    Im Internet werden solche Profile seit eh und je massenhaft erstellt. Werbebanner-Anbieter wissen ja auch, in welche thematische Ecke welche Seite gehört, auf der ihr Banner eingeblendet wird. Schon ist schnell identifiziert, welche IP welche Seiten besucht. Jetzt noch ein Cookie, um als den täglich wechselnden IPs einen Benutzer zu machen und fertig. Den Dingern zu entkommen, geht nicht wirklich, denn es gibt genug andere Wege, um einen Rechner eindeutig zu erkennen. All diese Profile sind übrigens anonym; ja die Anbieter haben gar kein Interesse daran, sich mit großer Mühe irgendwelche Merkmale zur Identifikation zu suchen – denen ist ziemlich egal, ob sie nun 'Herrn Fritz Meier aus Hintertupfingen' oder 'dem Benutzer mit Cookie Nummer 374' dieses spezielle Werbebanner anzeigen. Eben so wenig wird ihn eine zu genaue Unterteilung interessieren, die dann nur die Zahl der Werbekunden für diese Nische unnötig eingrenzt.

    Eine Postadresse, wie sie bei Kundenkarten mit dem Profil verknüpft ist, um die Werbung denn auch zustellen zu können, ist zunächst auch noch harmlos. Interessant wird es erst, wenn das exakte Verhalten (also die Einzelevents) in Verbindung mit einer Adresse gebracht werden und diese exakte Information bei einer Stelle landet, die der profilierten Person aus diesem Einzelevent irgendeinen Strick drehen will. Jetzt stelle ich mir allerdings die Frage, was wahrscheinlicher ist: Dass dein Chef dich aus dem Sexshop kommen sieht oder dass ihm irgendwelche Profildaten in die Finger gelangen, aus denen zu erkennen ist, dass du zu diesem Zeitpunkt in einem Sexshop etwas mit einer EC-Karte (nehmen die überhaupt Kartenzahlung?) gekauft hast?

    Montag, 9. August 2010

    GVU als Löschtroll

    Bei Wikipedia nennt man jemanden, der ohne oder mit fragwürdigen Argumenten und dem starken Verdacht einer persönlichen Aversion etwas löschen will, einen Löschtroll. Und genau dieses Verhalten zeigt jetzt offenbar auch die Gesellschaft zur Verfolgung von Urheberrechtsverletzungen. Hinter diesem sperrigen Namen verbirgt sich nicht etwa irgendeine staatliche Einrichtung, wie man sicherlich gerne den Anschein vermittelt, sondern eine Lobby-Organisation, die mit teilweise gnadenlos übertriebenen Mitteln gegen Urheberrechtsverletzungen vorgeht und einer der Haupt-Wortführer hinter Aktionen wie Raubkopierer sind Verbrecher ist.

    Nun, und genau diese Organisation ließ nun bei dem Videoportal vimeo mindestens fünf Videos löschen, die unter einer freien Lizenz standen und sich zum Teil kritisch mit dem derzeitigen Urheberrecht auseinandersetzen oder zumindest von Kritikern dieses stammen. Konkret erwischte es vier Folgen der ausgezeichneten Podcasts "Elektrischer Reporter" von Mario Sixtus und das berühmte "du bist Terrorist"-Video; selbiges aber nur in einer Version.

    Eine Begründung gibt es bisher nicht, Mario Sixtus hat – bisher erfolglos, da alle ihm bekannten Mail-Adressen tot sind – versucht, eine solche zu bekommen. Eine Vermutung gibt es aber schon, und diese ist sehr sehr übel. Unser Urheberrecht beinhaltet in Bezug auf Musik nämlich eine bisher von der Öffentlichkeit kaum beachtete Schuldvermutung: Einfach gesagt, wenn du Musik veröffentlichst, kann man dich dafür anzeigen, wenn du nicht beweisen kannst, dass du sie selbst gemacht hast. Dieser Stuss trägt den Namen "GEMA-Vermutung". Das ganze geht offenbar auf ein BGH-Urteil des Jahres 1986 zurück, ist also noch aus der reinen Offline-Zeit, als freie Musik, die dennoch in größerem Umfange auf Tonträgern verbreitet wurde, etwas weitgehend undenkbares war. Die Alternative zu dieser Erklärung wäre dann wohl mal wieder das berühmte Versehen, das man dann als "man kann ja mal versuchen, ob unsere Kritiker es schlucken, auf diese Art abgewürgt zu werden".

    Ganz egal, wie die Begründung ist; selbst wenn der Inhalt eine *echte* Urheberrechtsverletzung darstellen würde (was ich für ausgeschlossen halte), zeigt dieses Vorgehen, wie das Urheberrecht als Mittel zur Zensur missbraucht werden kann – denn einem Kritiker das Leben schwerer zu machen, hat man ohne jeden Zweifel erreicht.

    Quelle: Netzpolitik.org

    Sonntag, 8. August 2010

    Umweltpolitische Erfolge

    Umweltpolitisch aktive Personen, gemeinhin auch einfach "Ökos" genannt, haben ja den Ruf, überall nur dagegen zu sein. Dies ist sicherlich insofern richtig, dass die meisten öffentlichen Großprojekte die Probleme, die sie vermeintlich lösen, eigentlich nur verlagern und in ihrer Gesamtheit verstärken. Aber darum will es mir hier gar nicht gehen, sondern darum, was die Umweltpolitik in den vergangenen rund 30 Jahren in Deutschland bereits erreicht hat. Zu diesen Erfolgen möchte ich einmal einen groben Überblick liefern und verdeutlichen, wie es uns ohne diese erginge.

    An erster Stelle hätten wir da die Abgase und den Verbrauch der Autos. Das meistverkaufte Auto 1080 war einmal nicht der Golf, sondern ein Mercedes; genauer der W123. Ein Auto, dass zwar partout nicht kaputt zu kriegen ist, allerdings auch ein recht gutes Beispiel dafür, wie es damals an der Verbrauchs-Front aussah. Der Verbrauch lag irgendwo bei 12L/100km, auch wenn später Versionen mit 10L nachgeschoben wurden. Schadstofffilterung ist völlig unbekannt, ein Katalysator war erst ganz zum Ende der Produktionszeit wohl eher experimentell erhältlich. Heute heißt das meistverkaufte Auto wieder Golf und verbraucht in den meisten Versionen um 6L. Die Geschichte der Abgasnormen beginnt überhaupt erst 1992 und seitdem ist der erlaubte Kohlenstoffmonoxid-Ausstoß auf rund 1/3 und der von Kohlenwasserstoffen und Stickoxiden auf zusammen ein Siebtel der damaligen Grenzwerte gesunken. Im Ergebnis führt dies vor allem dazu, dass der Gesamtverbrauch in Deutschland zugelassener Autos trotz ihrer leider weiter steigenden Zahl seit Mitte der 1990er Jahre sinkt. Bis man wieder auf dem niedrigen Niveau von 1960 ist, müsste er sich allerdings noch einmal halbieren… Autoabgase bleiben natürlich nach wie vor ein Thema, allerdings weitaus weniger dramatisch als etwa in Ostasien, wie das anschauliche Foto aus Peking einmal ohne und einmal mit der dortigen Smog-Glocke zeigt. Selbige wird bei einem Regenschauer "ausgewaschen" (so dass sie dann überall am Boden landen…), so dass nur dann einmal klare Sicht existiert. Auf dem Foto rechts "scheint die Sonne".

    Das nächste große Erfolgsthema ist der Müll. In Deutschland sind Mülldeponien inzwischen verboten; eine Müllverwertung (Teilweise Recycling, teilweise leider noch Müllverbrennung) ist inzwischen vorgeschrieben. Im Ergebnis gibt es also keine Müllberge, wie auf dem anschaulichen Foto aus dem Umland von Santo Domingo, der Hauptstadt der Dominikanischen Republik (rechts). So sah es in Europa mancherorts vor 30 Jahren auch noch aus, auch wenn diese Gebiete wenigstens abgegrenzt waren.
    Was ohne eine Abgrenzung passiert, veranschaulicht dagegen das Foto hier auf der linken Seite: Der Müll landet irgendwann in einem Gewässer und von davor der Küste anderer Länder.
    Daneben gelangen in Deutschland auch keine Schadstoffe mehr als neuen Deponien in den Boden und von dort ins Grundwasser. Leider gibt es noch genug Altdeponien, die nur sehr schwer abgebaut werden können, da dieser Müll erst einmal aufwändig sortiert werden müsste – und das kann man in so einem halb verrotteten Zustand vergessen.

    Mit Bildern wie diesen erscheint mir die manchmal etwas nervige Mülltrennerei in Deutschland jedenfalls recht klar als das kleinere Übel!

    Gleich weiter geht es mit wenigstens einer Komponente des Energieverbrauchs, welcher dann doch mal gesunken ist: Die Heizenergie. Eine erste Vorschrift, die irgendwie vorgab, wie ein Haus gedämmt sein müsse, trat 1977 in Kraft. Die damaligen Werte sind lasch ohne Ende, aber immerhin es gab einmal welche. Inzwischen ist diese Vorschrift recht streng und bis 2019 wird wohl EU-Weit vorgeschrieben sein, dass ein Haus alleine über die Abwärme seiner Bewohner geheizt wird. Dies führt natürlich auch dazu, dass Klimaanlagen in Deutschland unüblich sind. Die Situation in den USA demonstriert dagegen wenn auch etwas überspitzt das Foto hier rechts: Keinerlei Dämmung, aber eine Klimaanlage…

    Neben diesen Regelungen gibt es noch eine unendliche Liste von kleinen und nicht ganz so kleinen Regelungen zu Industrieabgasen und diversen Schadstoffen (von Asbest über Blei bis Cadmium und Quecksilber), die ich hier und jetzt zunächst nicht näher erörtern will. Auf jeden Fall kann man erkennen, dass unsere "Ökos" durchaus vieles erreicht haben, was man schnell als selbstverständlich annimmt, so man es nicht mit der Situation in Ländern ohne solche Regelungen vergleicht. (Alle Fotos aus Wikimedia Commons, unter CC-BY-SA)

    Samstag, 7. August 2010

    Klimawandel zum Mitmachen, Teil zwei

    Im März hatte ich hier über eine nVidia-Grafikkarte mit völlig aberwitzigem Stromverbrauch abgelästert. Wer wie ich glaubte, dass dank der 300W, die die Stromstecker liefern können, ja jetzt ein Ende gefunden wäre, der sieht sich inzwischen eines besseren belehrt: Bei nVidia hat man sich nämlich gesagt statt 75W aus dem Mainboard, 75W aus einem 6-Pin-Stecker und 150W aus einem 8-Pin-Stecker kann man ja auch zwei 8-Pin-Stecker einsetzen – also entstand das hier. Theoretisch möglicher Stromverbrauch wären 375W. Für die Grafikkarte alleine wohlgemerkt. Damit kann man übrigens bei der derzeit schnellsten Karte der Konkurrenz fast den ganzen Rechner betreiben – das sind dann auch nur 17W mehr. Für den kompletten Rechner würden rein rechnerisch 535W herauskommen (ein '80 PLUS Gold'-Netzteil vorausgesetzt, mit einfachem 80 PLUS wären's nochmal 65W mehr…

    Scheiß Schifffahrt!

    Eine Fahrrad-Odyssee.

    Heute morgen hatte ich die Idee, doch einmal den Mittelalter-Markt im etwa 25km entfernten Bleckede zu besuchen. Das ist schon eine etwas weitere Strecke, aber versuchen kann man es ja mal. Das diverse Radwege nur 30cm breit, überwachsen und manchmal auch abrupt ganz verschwunden sind, ist man ja ebenso gewohnt wie das völlige Fehlen irgendeiner Ausschilderung. Also einfach mal da lang, wo man ja mit dem Auto auch lang fährt… nein, das war eine Scheißidee. Denn ein kleines Stückchen (geschätzt keine 2km) des Weges haben nicht nur keinen Radweg, eine sowieso viel zu enge, langgezogene Rechtskurve voller LKW ist sicherlich keine Option. Die Verkehrsführung des Radweges da hin sagte auch recht unmissverständlich, dass das so nicht gedacht ist. Nur: Wie ist es dann gedacht? Um die Stelle herum fahren ist nämlich etwas schwer: Es ist eine Brücke über den Elbe-Seiten-Kanal! Google Maps vermittelt dann den trügerischen Eindruck, das da noch eine Brücke daneben sei. Gesehen habe ich diese allerdings nicht. Wo ich jetzt nachträglich auf die Karte gucke, kann ich mich wenigstens an die Kreuzung erinnern, wo der dazugehörige Weg angeblich abzweigen soll. Nur: DA IST KEIN WEG! Die einzige Lösung über den Kanal zu kommen ist also offenbar die B216 etwa 3km südlich. Da kommt man auch recht schnell hin – jedenfalls, wenn man weiß, dass eine der ca. 30 Sackgassen dort gar keine ist, sondern zumindest für Radfahrer durchlässig ist. Ausschildern? Achwas, wozu denn?

    Donnerstag, 5. August 2010

    Nochn Netzteil: NZXT Hale90

    Und jetzt mal wieder eine neue 80 PLUS Gold-Serie. Die Firma NZXT, bisher eher für gewöhnungsbedürftige PC-Gehäuse bekannt hat jetzt eine solche als NZXT Hale90 vorgestellt. Versionen gibt es mit 550, 650, 750, 850 und 1000W. Optisch erinnern die Dinger arg an die Super Flower Golden Green-Serie, die aber andere Nennleistungen (glatte 100er dort) aufweist.

    Bei der Ausstattung hat man sich offenbar gesagt, nicht kleckern sondern klotzen. Alle Netzteile erreichen die Nennleistung alleine über die 12V-Leitung, so dass man hier auch nicht lange rumrechnen muss. Die größeren Versionen haben zudem ein Kabel-Management (mit festem ATX-Kabel); bei der 550W-Version wird hierauf hingegen verzichtet. Für frische Luft im Innern sorgt ein 14cm-Lüfter. Für alle Casemodder sind die Netzteile auch optisch mal was neues, sie sind nämlich weiß lackiert mit einigen schwarzen Akzenten.

    Die Herstellerseite wirft einen übrigens regelrecht mit Informationen zu. Wo man bei anderen Herstellern schon froh ist, die Zahl der Stecker zu finden, wird diese (übrigens bereits bei der 550W-Version sehr üppige) hier auch gleich mit den Kabellängen angegeben und als besonderes Highlight gibt es Diagramme mit dem Wirkungsgrad des Netzteils bei 115V DC und 230V AC und ziemlich eindeutig deutlich mehr Messpunkten als der 80-PLUS-Test erfordert.

    Die Preise sind dann auch nicht ganz ohne, man fängt bei 120 US-$ für die kleinste Version an und jede weitere kostet 20 US-$ mehr bis zu 180 US-$ für 850W. Da der letzte Schritt größer ist, ist er es auch beim Preis – 210 US-$ für das Kilowatt. Mit Umrechnung und dem üblichen Unterschied zwischen Listen- und Straßenpreis könnte das ganze durchaus günstiger als Enermax Pro87+ bzw. Modu87+-Serie werden, die als "kleines Goldenes" bisher noch alleine am Markt ist.

    Dubioses Markennetzteil

    Der eigentlich für durchaus hochwertige Mainbaords bekannte Hersteller Gigabyte bietet jetzt eine neue Serie von PC-Netzteilen an, die hier und da als "besonders günstig" bezeichnet werden. Dabei handelt es sich um Modelle mit 300, 350, 400 und 500W, genannt wird die ganze Serie "PoweRock". Und soviel wie ein Rock, also Stein taugen diese Netzteile nach den vom Hersteller auf seiner britischen Seite verkündeten technischen Daten auch. Effektiv handelt es sich bei den Netzteilen um zwei unterschiedliche Serien, die als eine beworben werden. Preise gibt es bisher nicht, nach Blick auf die Daten wird die Sache aber sicherlich vor allem eines: Billig – allerdings eher im Sinne von "wer billig kauft, kauft zweimal".
    • Noch das beste der vier Modelle ist das 400W. Als einziges sind die 400W hier nicht schöngerechnet, sondern tatsächlich über die bei heutigen PCs fast alleine relevante 12V-Leitung erfüllbar. Der Wirkungsgrad wird mit '80 PLUS' angegeben, wobei bisher kein Prüfbericht vorliegt. In diesem Leistungsbereich sind inzwischen Netzteile mit 80 PLUS Silber (das sind dann je nach Auslastung 5-8 Prozentpunkte mehr Wirkungsgrad) verfügbar, eines mit Gold (7-10 Prozentpunkte mehr) ist angekündigt. Zu empfehlen ist dieses also weniger.
    • Wie gesagt, das war noch das beste. Das "500W"-Netzteil unterscheidet sich im Ergebnis nur marginal, auch wenn es aus irgendeinem Grund wesentlich schwerer ist. Die 12V-Leistung hat hier dann auch nicht 500 oder wenigstens annähernd 500W, sondern ganze 432. Andere Hersteller würden sowas als '450W' verkaufen. Der Wirkungsgrad bleibt beim einfachen '80 PLUS', so dass ein Netzteil mit 7-10 Prozentpunkten besserem Wirkungsgrad dann sogar erhältlich ist. Insofern auch hier sicherlich keine Empfehlung.
    • Richtig lustig wird es dann beim 300W-Modell. Die Leistung ist diesmal halbwegs richtig, der Rest allerdings entspricht einem dieser 10€-Klumpen, denen ich hier vor einigen Tagen einen Beitrag gewidmet hatte: Keinerlei Prüfzertifikat, welches auch nur die Hoffnung auf 80% Wirkungsgrad macht. Die wirkliche Krönung ist aber, dass dem Netzteil laut den technischen Daten die gesetzlich vorgeschriebene (!) PFC fehlt, da steht nämlich frech "Non-PFC". Das Ding darf also, so diese Angabe denn stimmt, nicht in der EU verkauft werden. Das sehr geringe Gewicht des Netzteils spricht allerdings nicht gerade dafür, dass es sich hier im einen Fehler handelt. Ein CE-Label wird unter den "Features" trotzdem aufgelistet – was davon wohl die Gewerbeaufsicht hält…
    • Wem das noch nicht dubios genug war, für den gibt es noch das "350W"-Modell. Dieses verzichtet ebenfalls auf irgendeinen zählbaren Wirkungsgrad und auf eine PFC. Hier kommt dann noch eine sehr schöne Auslegung der 12V-Leitung hinzu – mehr als beeindruckende 192W. Das Ding ist danach also kleiner; wesentlich kleiner als das "300W"-Modell. Anders als bei den anderen Modellen wird hier dann auch in der Übersicht nur von "ATX 2.0" geschrieben, was immer man uns damit sagen will (den erst mit ATX 2.2 eingeführten 24-poligen Stecker hat es nach der Tabelle…)
    Offenbar wird hier ein eigentlich eher für hochwertige Mainboard bekannter Markenname für völligen Schrott missbraucht, um diesen dann vermutlich zu fast dem Preis eines wesentlich höherwertigen Modells verkaufen zu können. Traurig ist indes, dass die "Fachpresse" bei den Netzteilen teilweise völlig falsch von "effizient" redet.

    Achja, falls hier ein abmahnwütiger Anwalt des Herstellers vorbeikommt: Ich hätte da einen Screenshot der Technischen Daten so wie sie von Gigabyte behauptet werden. Wenn selbige also falsche Angaben machen, wäre dies nicht mein Problem.

    Mittwoch, 4. August 2010

    Nation der Kleinwagenfahrer

    Vor inzwischen einigen Jahren tobte der damalige bayrische Ministerpräsident Erwin Huber, in dessen Bundesland vornehmlich für europäische Verhältnisse eher große Autos und insbesondere keine Kleinwagen gebaut werden, dass Deutschland bzw. Europa durch die Begrenzung des CO2-Ausstoßes zu einer "Nation der Kleinwagenfahrer" werden würde. Nicht nur, dass vielen, die einen Sinn für Umweltschutz haben oder denen die europäische Definition von "Kleinwagen" eigentlich schon viel zu groß geworden ist, das Problem dieser Feststellung bis heute ein Rätsel geblieben ist, nein das ganze ist auch einfach eine Frage der Sichtweise.

    Als ich heute die neuesten Errungenschaften meiner Modellautosammlung betrachtete, kam mir nämlich der Gedanke, ob wir nicht bei der entsprechenden Definition schon lange eine solche Nation sind. Also schnell einmal einen VW Golf V zwischen die drei gestellt. Da sieht doch Deutschlands meistverkauftes Auto wirklich wie ein Kleinwagen aus. Die Drei als Vergleich dienenden sind übriges keineswegs Luxusautos, im Gegenteil. Alle drei entstammen der jeweils billigsten Marke des jeweiligen Konzerns, sind aber sogenannte "Full-size cars". Die etwas kleinere Kategorie der "mid-size cars" war in den USA um 1960 entstanden, noch kleinere Modelle gab es hingegen nicht. Verkauft wurden mit weit überragender Stückzahl die full-size Modelle.
    • Das Fahrzeug ganz links ist ein 1970er Ford Custom. Das Fahrzeug stellte Fords Einstiegsversion in die full-size cars dar, in höherer Ausstattung aber mit weitgehend identischer Karosserie war der Wagen als als Ford Galaxie und Ford LTD erhältlich.
    • Das weiße Fahrzeug relativ weit hinten ist ein 1968er Plymouth Fury I. Die höheren Modelle hießen wenig einfallsreich Fury II, Fury III und VIP.
    • Das schwarze Fahrzeug ist selbst, wie man unschwer erkennen kann ein PKW-Basierender Pickup. Die Basis des 1959er Chevrolet El Camino sind die full-size cars von Chrevrolet aus jenem Jahr, mit denen er sich dann auch die Abmessungen und die gesamte Formensprache teilt – selbst die damals üblichen Heckflossen sind hinten angedeutet. Diese großen hießen dann in aufsteigender Ausstattung Biscayne, Bel Air und Impala. Daneben gab es eine ganze Reihe Kombis als Brookwood, Parkwood, Kingswood und Nomad. Damit war – abgesehen von der Corvette – dann die PKW-Modellpalette von Chevrolet in jenem Jahr auch erschöpft.
    Alle drei Fahrzeuge haben eine Länge von etwa 5,4 bis 5,5m (selbiges gilt für die Full-size cars von Chevrolet der Jahre 68-70, von denen es leider auch nur den El Camino als Modell gibt). Damit überragen diese Modelle einen aktuellen (!) BMW 7er lang um 20-30cm. Der damalige BMW 2800 (auch wieder die Langversion) war gerade einmal 4,8m kurz. Ein aktueller VW Golf (Golf V und VI sind bis auf wenige Millimeter gleich lang) kommt auf dagegen winzige 4,2m. Ein VW Käfer war auch nur 5-10cm kürzer…

    So gesehen: Sind wir wohl schon lange eine Nation der Kleinwagenfahrer. Und es stört niemanden.

    Dienstag, 3. August 2010

    Riesiger Fortschritt der Solartechnik

    Bisher krankt die Solartechnik, die ja zumeist in Photovoltaik und Solarthermie geteilt wird an ihrer schlechten Wirtschaftlichkeit, die durch das Verhältnis aus eher mäßigen Wirkungsgraden und den eher hohen Herstellungskosten verursacht wird. Dies könnte sich nun dank einer Entwicklung der Stanford University massiv ändern. Diesen ist es gelungen, die beiden Funktionen miteinander zu kombinieren, so dass der Wirkungsgrad von den derzeitigen gerade einmal 20% auf über 50% steigt. "Nebenbei" sind sowohl Herstellung wie auch Rohstoffe für dieses System preiswerter als für eine herkömmliche Photovoltaik. Mit einer bisher nur theoretischen Weiterentwicklung wäre wohl sogar ein Wirkungsgrad von fast 60% möglich.

    Die Lösung ist wie so oft relativ trivial: Eine Photovoltaik verliert sehr stark an Wirkungsgrad, wenn sie sich zu stark erhitzt. Diese Lösung umgeht das ganze durch eine dünne Schicht Caesium, deren genaue funktion ich noch nicht so perfekt verstanden habe. Hierdurch kann die Wärme zusätzlich verwertet werden und das ganze erreicht den idealen Wirkungsgrad erst bei über 200°C. Caesium ist übrigens _nicht_ radioaktiv, dies gilt nur für einige künstliche Isotope; allerdings reagiert das Zeug mit so ziemlich allem und mit Luft und Wasser jeweils recht heftig…

    Mit diesen 50% Wirkungsgrad und dem Wissen über bisher 20% kann man ja mal eine kleine Kostenrechung anstellen. Derzeit wird allgemein gesagt, dass in Deutschland so eine Photovoltaik-Anlage nach 10 Jahren über den garantierten Strompreis von 45ct pro kWh für die Dinger refinanziert ist; wobei die Anlagen selbst in der Regel doppelt so lange halten. Damit wären wir bei Kosten im Bereich von 22ct. Dies nun bei gleichen Kosten (die es ja nicht einmal sind!) auf einen Wirkungsgrad von 50% hochgerechnet wären wir bei Kosten von 9ct pro kWh. Das ist zwar immer noch das doppelte gegenüber Kohle, aber aufgrund der wesentlich einfacheren Rahmenbedingungen und der natürlich wesentlich besseren Umweltbilanz (die eigentlich schon lange überholte Diskussion über die Produktionsenergie ist hier überhaupt kein Thema mehr) dürfte diese Technik die Chance bieten, mit der man Solarenergie in einer ganz großen Basis und womöglich als primäre Energiequelle einsetzen kann.

    Gold, Passiv, Modular, 400W

    gestern erst das erste 400W-Netzteil mit '80 PLUS Silver' gefeiert, gibt es inzwischen erste Details zur Seasonic Fanless X-Series. Dabei handelt es sich um Netzteil mit 400 und 460W, 80 PLUS Gold (!), mit abnehmbaren Kabeln und ohne einen Netzteillüfter. Auch auf einen großen Kühlkörper wird bei dem Netzteil verzichtet. Der Preis ist nach einigen ersten Nennungen wohl irgendwo zwischen 130 und 150€ zu erwarten – viel, aber bei einem Netzteil dass den Stand der Technik voll ausreizt, zu verstehen. Leider hat der Hersteller ein NDA auf weitere Details gesetzt, so dass es bisher bei diesen Informationen bleibt. Ein gutes hat so ein NDA aber: Man kann sich sicher sein, dass die Sache nicht im letzten Moment im Sande verläuft. Spannend bleibt zudem bei den doch recht hohen Preis, ob auch eine einfache Version, die alleine auf Effizienz ausgelegt ist, erscheinen wird.

    Montag, 2. August 2010

    400W in Silber

    Gerade habe ich entdeckt, dass seit rund einer Woche das Cougar SE 400W endlich im Handel ist. Bei diesem Netzteil handelt es sich um das erste 400W-Netzteil mit '80 PLUS Silber' und das erste Netzteil unter 500W, dass ein besseres Label als 'Bronze' hat. Konkret reden wir hier von jeweils gut 86% bei 20 und 100% der Nennleistung sowie gut 89% bei 50% der Nennleistung. Das Netzteil verfügt zudem über 6 SATA-Anschlüsse und zwei 6-polige PCI-Express-Stecker. Diese Auslegung erscheint sinnvoll, nachdem es für Systeme mit einer Radeon HD 5970 oder GeForce GTX 480 wohl auch nicht ganz ausreicht. Der Straßenpreis liegt derzeit bei knapp 70€. Zum Vergleich: 80 PLUS Bronze gibt es mit 400W ab 40€; das von mir bisher empfohlene Enermax-Netzteil mit 385W liegt allerdings auch bei fast 60€. Insofern gibt es hier dann auch eine neue Empfehlung!

    Noch eine kleine Nebenmeldung: Alle Beiträge zum Thema "Netzteile" sind hier jetzt mit dem entsprechenden Label versehen.

    Mac mini-(nicht-)Konkurrenz

    Manchmal ist es erstaunlich, wie sehr sich die klassischen PC-Hersteller von dem Mac-Hersteller Apple auf der Nase herumtanzen lassen. Vor inzwischen 5 1/2 Jahren (genauer am 11. Januar 2005) stellte Apple den "Mac mini" vor – einen Desktop-Rechner, der auf Notebook-Technik basiert und auf Erweiterungsslots völlig verzichtet; dafür ist das Gerät mit einem Gehäusevolumen von 1,4L extrem kompakt und hat durch die Notebook-Technik auch einen extrem geringen Stromverbrauch. Beim aktuellen Gerät ist gar von weniger als 10W im Idle die Rede (es gibt Netzteile, die "aus" mehr wollen!); bei dem davor waren es noch 13W. Die ersten Generationen bewegen sich dagegen zwischen 25 und 40W. Mit "klein" und "sparsam" erfüllt das Ding also genau die beiden Kriterien, wegen denen sich Nettops und Netbooks in Massen verkaufen und es kommt noch der Aspekt einer gegen über diesen wesentlich höheren Leistung hinzu.

    Doch auch nach all dieser Zeit hat es kein Hersteller geschafft, dieses Konzept zu kopieren. Bereits relativ zeitnah hatte Acer ein relativ hässliches Gerät vorgestellt, dass grundsätzlich eine ähnliche Idee verfolgte, allerdings völlig überteuert war. Es war recht schnell wieder vom Markt. Etwas besser ergeht es dem Fujitsu Esprimo Q1500. Nachdem auch dieses Gerät anfangs auf einen extrem langsamen Celeron-Prozessor setzte, wird inzwischen ein Pentium Dual-Core T4300 eingesetzt. Inzwischen hat das Gerät unter dem Namen Q9000 einen Nachfolger mit Core i3- oder i5-Prozessoren, für welchen Fujitsu einen Idle-Verbrauch von 16W angibt. Optional ist für beide Fujitsu-Geräte im Gegensatz zum Mac Mini auch ein BluRay-Laufwerk verfügbar, einen leistungsstarken Grafikchip gibt es dagegen nicht.

    Ein weiteres Modell dieser Art ist der Dell Zino HD. Dabei handelt es sich um ein System mit AMDs Spar-CPUs 3250e und 6850e. Beide Prozessoren entstammen ebenso wie der verwendete Chipsatz der Desktop-Technik, weshalb die Stromaufnahme nicht ganz so sensationelle 30-35W (je nach Testbericht, Dell selbst macht hier keine Angaben) beträgt. Das Gerät soll jetzt einen auf der aktuellen AMD-Notebook-Plattform basierenden Nachfolger bekommen. Auch hier gibt es optional BluRay. Die Grafik ist wahlweise ein Radeon HD 4250 (also die Grafikeinheit des verwendeten Chipsatzes) oder ein Mobility Radeon HD 5450. Daten zu Stromaufnahme und Preis sind leider noch nicht bekannt, ein Handbuch gibt es aber schon. Sollte nach 5 1/2 Jahren dann endlich ein wirklich interessanter Mac mini-Konkurrent erscheinen?