Samstag, 31. Juli 2010

Das 90%-Netzteil

Seit Anfang des Jahres gibt es für besonders effiziente Netzteile die "80 PLUS Platinum"-Norm. Diese schreibt bei 20% Last einen Wirkungsgrad von 90%, bei 50% von 92% und bei Volllast von immer noch 89% vor – ehrgeizige Zahlen also. Bisher gibt es bereits einige Servernetzteile, die diese Werte auch erfüllen. Bei diesen spielt der Preis praktisch keine Rolle, denn wenn ein Netzteil über normalerweise 5 Jahre permanent 500-1000W liefern soll, ist jedes gesparte Prozent bereits viel Geld wert.

Für Privatanwender gibt es derartige Netzteile bisher nicht, jetzt wurde jedoch von dem Hersteller FSP Group ein solches einer '80 PLUS'-Prüfung unterzogen (siehe Prüfbericht). Das Ergebnis erfüllt nicht nur die Norm, es geht mit 91, 93 und 92% sogar sehr deutlich darüber hinaus. Auch die PFC liefert auf zwei Nachkommastellen gerundet zumindest bei höherer Last schlicht eine 1. Das ganze ist übrigens mal kein riesiges Monstrum weit jenseits von 1 KW, sondern hat durchaus praktikable 450W Nennleistung.

Wann wir ein solches Netzteil im Handel sehen werden, weiß ich nicht; auf jeden Fall wird aber eine neue Ära eingeläutet – steht doch nun zum ersten mal durchgehend eine '9' ganz vorne am Wirkungsgrad. Damit dürften dann bald 80% nicht mehr als "gut", sondern als "gerade noch ok" gelten, denn wirklich "gut" sind eben über 90%. Insofern auch etwas schade, dass das neue Label nicht schlicht "90 PLUS" heißt…

Donnerstag, 29. Juli 2010

Tastatur aus Nachwachsendem Material

Diese Meldung ist nicht ganz neu, aber ich finde sie trotzdem nochmal erwähnenswert. Der PC-Hersteller Fujitsu hat eine Tastatur aus Naturmaterial entwickelt und bietet diese jetzt für knapp 50€ an.

Die Tastatur selbst besteht aus einem Stoff namens "Biogrande", offenbar ein Celluloseacetat. Wie Bio dieser Teil ist, bin ich mir noch nicht ganz sicher. Für die Handballenablage wird Arboform verwendet, umgangssprachlich auch "Flüssigholz" genannt. In der Papierherstellung fallen jährlich 50 Mio. Tonnen der Hauptkomponente Lignin an, welche bisher schlicht verbrannt wurden. Das Zeug ist das, was Holz hart macht. Das Zeug verrottet entsprechend auch schlicht mit der Zeit, ohne dabei irgendwelche kruden Chemikalien freizusetzen.

Eine Tastatur alleine macht nun noch keine Öko-Sensation, ob der erwarteten Absatzzahlen – ich behaupte mal frech, dass man auch die bei allen PCs beiliegenden Tastaturen durch diese hier ersetzen wird – geht Fujitsu von einer jährlichen Einsparung von 60 Tonnen Kunststoff aus. Was herauskommt, wenn man überlegt, was jedes Jahr an Massen von Gehäusen nicht nur für Tastaturen, sondern auch für Mobiltelefone, Mäuse und diverse andere Kleingeräte hergestellt werden. Oder für Fahrradteile, die sich gerne genau da lösen, wo Verrottung in der Tat das einzige ist, was verhindert, sie dort in 300 Jahren noch zu finden ;)

Mittwoch, 28. Juli 2010

Netzteil-Gruselkabinett

Das Netzteil hatte einen ganzen
Hausbrand zu verantworten…
Das billige PC-Netzteile nicht sonderlich effizient sind, ist ja nichts neues - heute hab ich aber mal was neues für euch: Das Gruselkabinett der Sicherheit und Zuverlässigkeit.

Fangen wir harmlos an mit diesem Casecom 400W. 400W? Naja, nach 150W hat der Tester von weiteren Tests abgesehen – Explosionsgefahr. Das Netzteil besitzt nämlich weder Kurzschluss- noch Überlastungsschutz und die Funkentstörung verdient ihren Namen nicht.

Eine Nummer größer gibt es den Spass genauso: Dieses "1050W" der Marke "Diablotek" hat eine wahrhaft diabolische Qualität. Bei 200W kann man die Spannungsversorgung noch als stabil betrachten; bis immerhin 600W gibt es überhaupt eine, danach schlägt die immerhin vorhandene Sicherung zu, indem sie sich in ihre Bestandteile auflöst. Auch der Wirkungsgrad gehört zumindest am Anfang noch zum besseren – immerhin fällt er "erst" ab 400W unter die 80%-Marke.

Wer jetzt dem irrigen Gedanken nachhängt, dass solche Ausfälle die Ausnahme sind, die gleiche Seite hat eine ganze Armee solcher Bruchpiloten getestet. Die guten davon schaffen die halbe Nennleistung; die schlechten geben dagegen schon auf, bevor eine erste Messung möglich ist… Wenn es was zu messen gab, sind das übrigens meist Spannungen die nur ungefähr getroffen werden und Wirkungsgrade zwischen 60 und 70%.

Und so sieht so ein Ausfall dann aus. Ist deine Tapete eigentlich feuerfest?

Dienstag, 27. Juli 2010

Der Duden in hoffnungsloser Mission

Ihr erinnert euch sicherlich daran, als die Medien groß feierten, dass der Duden jetzt das Verb "googlen" kennt? Fragt mich nicht, wann das war, aber soo lange ist es nicht her. Seit etwas mehr als einem Monat kennt man nun ja auch "twittern". Interessant ist dabei, welche Verbreitung dieses Wort inzwischen hat. Ein Blick zu Google offenbart irgendwas von weit über 5 Millionen Nennungen. Mal sehen, ob man sich bei der nächsten Ausgabe wieder 4 Jahre Zeit lässt und vor allem, wie viele Flamewars vorher entstehen, ob es "flattern" oder "flattrn" heißt ;)

Sonntag, 25. Juli 2010

Unglücke und die Menschenwürde

Es gibt Tage, da fehlen einem die Worte - gestern war ein solcher. Schon die anfängliche kleine Meldung "10 Tote bei Massenpanik auf der Loveparade" erzeugte wohl bei jedem einen Schock. Umso genauer man sich informiert, umso größer wurde das entsetzen darüber, wie bei dieser riesigen und eigentlich stets fröhlichen Party so eine Katastrophe mit inzwischen neunzehn Opfern werden konnte. Nicht nur, dass 1,5 Millionen Menschen direkt vor Ort waren, wohl nicht wenige weitere wollten noch da hin oder waren in den letzten 20 Jahren bei einer Loveparade. Und wenn nicht, so kennt man womöglich zumindest den einen oder anderen, der einmal da war. Entsprechend geht vielen – auch mir – diese Sache wirklich nahe.

Das solche Katastrophen dann auch zu einigen seltsamen bis fragwürdigen Kommentaren führt, ist man ja schon fast gewohnt – aber auch in dieser Hinsicht brauchte man diesmal harte Nerven. Der erste Aufreger waren da ein paar (oder war es nur einer? Der Inhalt war eigentlich immer der gleiche) Idioten offenbar aus den USA, die bei Twitter das nun mehr als gefragte Hashtag #loveparade für ihren Spam missbrauchten.

Das die Menschenwürde auch in Deutschland nicht viel wert ist, musste dann natürlich einmal mehr die BILD beweisen, indem sie es für nötig hielt, eine Bildergalerie aus Fotos der Toten mit extra viel Werbung zusammenzustellen. Da wollte man bei RTL nicht nachstehen, ersparte einem aber wenigstens die Werbemengen.

Der wirkliche Abschaum ließ zunächst zum Glück noch auf sich warten – holte dies aber heute in Person von Eva Herman nach. Diese freute (!) sich nun darüber, dass eine "höhere Macht" diesem "schändlichen Treiben" ein Ende gesetzt hatte (weitere Zitate will ich hier den Lesern ersparen). Solche Äußerungen gibt es aus christlich-fundamentalistischen Kreisen bei Katastrophen immer mal wieder – etwa beim Hurrikan Katrina 2005. Zum Glück haben aber von diesen die meisten etwas, was Frau Herman offenbar fehlt: Genug Anstand, ihre eigene Nichtachtung der Menschenwürde und eigentlich auch christlicher Werte, wenigstens für sich zu behalten. Wenn diese Worte ein Ggutes haben, dann wohl, dass die Frau damit die letzten Reste von Respekt, die sie noch irgendwo bei "normalen" Menschen besessen hat, zu verlieren. Dennoch stellt man sich bei solchen Ergüssen auch die Frage, ob eine unbegrenzte Meinungsfreiheit wirklich immer so ideal ist…

Dienstag, 13. Juli 2010

Automobiles Downsizing

Irgendwann Ende 2007 wurde von der EU nach ziemlich zähen Verhandlungen ein "Flottenverbrauch" für die Automobilindustrie beschlossen. Alle von einem Konzern hergestellten Fahrzeuge sollen hierbei im Durchschnitt einen bestimmten CO2-Ausstoß nicht übersteigen. Nachdem die Hersteller einst versprochen hatten, bereits 2008, nach dieser Formel einen Wert von 130g zu erreichen – jedoch ohne Ausnahme weit daran gescheitert sind, die Realität lag eher bei 160g – sollte ursprünglich für das Jahr 2012 ein Wert von 120g festgeschrieben werden. Nachdem insbesondere die deutsche Bundesregierung dies versucht hat zu blockieren – legendär ist hier ein tobender Erwin Huber (CSU), der sich vor einer "Nation der Kleinwagenfahrer" fürchtete – "einige" man sich auf 130g bis 2015. Ein wachsweicher Wert, aber besser als nichts.

In der Zeit vor dieser Regelung war die Automobilindustrie relativ träge geworden – die von den Kunden geforderten Leistungen, zumeist im Bereich von 50 bis 150 PS ließen sich bei einem von den Kunden gleichermaßen akzeptierten Verbrauch von 7-9L/100km problemlos auch mit vergleichsweise uralten Motoren erreichen. Einen wirklich neuen brachte man eigentlich nur, wenn man damit die Produktionskosten senken konnte.

Nun aber musste man reagieren – 130g CO2 entsprechen etwa 5,5L Superbenzin oder 5L Diesel auf 100km. Um diesen Durchschnitt zu erreichen, werden nun vor allem drei Maßnahmen angewendet. Als erstes werden die Kunden durch Werbung und veränderte Angebote ("Premium-Kleinwagen") dazu gebracht, die schon existierenden sparsameren Autos mehr zu kaufen. Maßnahme Nummer zwei ist die Verbesserung der Effizienz der vorhandenen Modelle und Maßnahme Nummer drei das Experimentieren mit völlig neuen Lösungen, die eine wirklich massive Reduzierung des CO2-Ausstoßes bedeuten – hier sind vor allem Elektroautos zu nennen.

Ich möchte hier einmal die zweite der oben genannten Maßnahmen genauer betrachten. Diese besteht im Grunde aus zwei Teilen: Dem "Downsizing" und diversen technischen Zusatzspielereien.

Downsizing bedeutet hierbei nichts anderes, als dass eine Effizienzsteigerung nicht in mehr Leistung sondern in weniger Verbrauch investiert wird. Im Diesel-Bereich hat sich weitgehend herstellerübergreifend eingebürgert, alle Kleinwagen und Kompaktklasse-Modelle mit einem CO2-Ausstoß von erstaunlich exakt 99g anzubieten. Hier scheinen sich weitere Verbesserungen derzeit nur sehr begrenzt zu lohnen. Bei Benzinern wird nun statt den 1,5L-Motor von 100 auf 150 PS zu steigern, dieser durch einen 1,2L-Motor mit 100 PS ersetzt – so geschehen in diversen VW-Modellen. Die Leistung bleibt die gleiche; der Verbrauch sinkt massiv. Gerade dieser 1,2L-TSI-Motor hat inzwischen erstaunlich weit die Runde gemacht und soll im kommenden Jahr sogar im VW Passat B7 zum Einsatz kommen, im nicht viel kleineren Skoda Octavia wird er sogar schon angeboten und führt zu einem CO2-Ausstoß von 134g. Im Audi A1 und Seat Ibiza stehen gar nur 118g zu Buche; das geringere Gewicht hilft. Für die Zukunft ist zudem ein 1L-Dreizylindermotor mit 60 bis 85 PS geplant.

Einen noch radikaleren Schritt ist der italienische Fiat-Konzern gegangen. Im Fiat 500 wird sich zwar weiterhin trotz seines Namens kein 500ccm-Motor finden, wohl aber ein mit 875ccm ebenfalls sehr kleiner Zweizylinder. Für das Motörchen hat man bei Fiat alle Register gezogen, mit variabler Einspritzung, Turbolader und einer ströhmungsoptimierten Brennkammer (daher auch der krumme Hubraum) steht nun ein Verbrauch von 4,1L/100km oder 92g CO2 zu Buche – das ganze bei 85 PS. Eine Version mit 105 PS, womit wir auf dem Niveau von Volkswagens 1,2L TSI des vorherigen Absatzes sind, ist zudem angekündigt. In dieser Form dürfte er dann seinen Weg mindestens bis rauf in die Kompaktklasse finden und dürfte auch dort nicht nur jeden Benziner hinter sich lassen, sondern selbst den in Herstellung und Versicherung deutlich teureren Dieselmotoren Konkurrenz machen. Durch die kompakte Bauform ist zudem eine Hybridversion des Fiat 500 möglich (wer den vollgestopften Motorraum kennt, kann sich dies kaum vorstellen!). Daneben soll der Motor dann auch mit 65 PS als Saugmotor auf den Markt kommen. In dieser Version dürfte er dann als erster Benziner überhaupt unter die 4L/100km-Marke fallen.

Die weitere Liste von Fahrzeugen unter 99g CO2 ist übrigens arg überschaubar. Vom VW Polo V gibt es eine optimierte "BlueMotion"-Version, die durch allerlei kleine Tricks auf 87g kommt, der Smart fortwo liegt als Diesel bei 88g und der Toyota Prius III bei 89g.

Vor diesem Hintergrund wird dann auch klar, dass die bereits diskutierte Verschärfung des CO2-Grenzwertes auf 95g gar kein so absurdes Ziel ist, denn die technischen Grenzen werden bisher noch von keinem Fahrzeug ausgenutzt und einen eigentlich viel einfacheren Weg zu weniger Verbrauch hat man noch gar nicht angekratzt: Wirklich weniger Leistung, die dann doch nicht genutzt wird. SO lange ist es nicht her, dass 100 PS noch selbst in Mittelklasse-Autos von Premium-Herstellern aufpreispflichtig waren…

Donnerstag, 8. Juli 2010

Warum freie Computerspiele scheitern

Ohne Zweifel gibt es eine ganze Reihe von Freien Computerspielen, die entweder selbst ein sehr interessantes Spielprinzip entwickelt haben oder ein solches kopieren. Leider aber leiden diese Spiele oft nicht nur an einem Mangel an fähigen Grafikern, sondern noch viel mehr an dem Entwicklungsprinzip selbst. Freie Software wird traditionell von den Anwendern so geschrieben, dass sie selbst damit umgehen können. Dies führt schon bei normalen Anwendungen oftmals zu einer eher gewöhnungsbedürftigen Bedienphilosophie, was bei Spielen natürlich nicht anders ist. Aber an eine komische Bedienung kann man sich mehr oder weniger schnell gewöhnen und diese oftmals auch einfach ändern.

Bei einem Spiel kommt nun aber noch ein Problem dazu. Der Entwickler ist zugleich der Haupttester, oft genug wohl sogar der einzige für den Entwicklungsprozess relevante Tester. Selbiges hat einen extrem schwerwiegenden Einfluss auf den Schwierigkeitsgrad der Spiele: Während man kommerzielle Computerspiele auf der untersten Stufe oft in aller Ruhe durchspielen kann und selbst verpasste Möglichkeiten, die eigene Spielkraft zu verbessern das Spiel zwar schwerer, keineswegs aber unlösbar machen, ist dies bei nahezu sämtlichen Freien Spielen undenkbar.

Schon fast legendär ist in diesem Zusammenhang des Strategiespiel "Battle for Wesnoth". Wenn man dort im Verlauf einer Kampagne einen besonders weit ausgebildeten Charakter verliert, hat man oftmals nicht einmal mehr eine theoretische Chance, das Spiel zu gewinnen. Ähnliche Probleme zeigen fast alle mir bekannten freien Spiele, was auch logisch ist - der Entwickler hat das Spiel so extrem oft durchgespielt, dass er ganz genau weiß, wie er aus irgendeiner Situation am besten herauskommt.

Besonders deutlich wird dieses Problem übrigens auch bei Remakes von alten Arkade-Spielen - so gibt es etwa ein Remake von Konamis "Road Fighter", den man selbst auf der untersten von drei Stufe nur mit perfekten Reflexen durchspielen kann - die höheren Stufen sind ohne jahrelanges Training wohl gar nicht spielbar. Zugleich findet sich auf Youtube ein Video, wo einer der Entwickler das Spiel auf der höchsten Stufe perfekt durchspielt. An gleicher Stelle gibt es dann auch Videos des Originalspiels, bei welchem man auf einer vergleichsweise leeren und geraden Straße bei ungefähr der halben Geschwindigkeit fährt…

Auf diesem Grunde doch einmal ein Wunsch an all jene, die ein freies Computerspiel entwickeln: Versucht euch bei den Schwierigkeitsgraden nicht an euren eigenen Fähigkeiten, sondern an denen der unbedarften Benutzer zu orientieren. Dass für euch selbst die höchste Stufe nur eine leichte Herausforderung darstellt, muss so sein!