Samstag, 12. Dezember 2009

Wikipedia-Löschhölle, der Status

Nun bin ich seit 6 Wochen (puh!) Löschhöllen-Nanny, also kommt mal wieder ein neuer Status.

Zunächst muss man zu der ernüchternden Erkenntnis kommen, dass sich noch immer nichts wirklich grundlegend neues getan hat, wohl aber viel zum Thema diskutiert wird (ein Einschlafen ist also nicht zu befürchten).

Die wohl größten Änderungen gibt es im Bereich der Schnelllöschanträge. Hier hat die Zahl der Einsprüche deutlich zugenommen und diese stammen zu einem guten Teil von Urgesteinen der Wikipedia - Elian, Southpark, Datura ("Benutzer:D") seien hier nur exemplarisch genannt. Einige andere "Regulars" haben zumindest angedeutet, dass sich in diesem Bereich etwas ändern muss. Passieren tut indes nichts; Vandalismusmeldungen wegen egal wie schreiend falscher SLA werden mit "kein Vandalismus" abgebügelt, wobei der entsprechende Admin auch noch deutlich macht, dass er die SLA-Regeln selbst nicht kennt.

Es bleibt das Problem, dass viele Benutzer "zu kurz" als Schnelllöschgrund sehen, was mit dem (völlig anders gemeinten) "kein Artikel" begründet wird. Ob einer kurzen Stichprobenanalyse, die nicht weniger als _60_ diskussionswürdige SLA binnen 24 Stunden ergab (das sind mehr Artikel, als in der gleichen Zeit normal zur Löschung vorgeschlagen wurden), sind die bisherigen Verbesserungen wohl eh nur ein Tropfen auf den heißen Stein.

Die dummen Bemerkungen auf der Löschseite sind nach meinem Eindruck _wesentlich_ weniger geworden, die nächste Baustelle ist wohl das "nein, der gehört in die QS!" "nein, hierhin!"-Gekeife, wo sich eine Initiative für eine Zusammenlegung von QS und Löschseite unter einem Namen ohne ein "Löschen" drin abzeichnet. Mal sehen, wie viele Jahre diese vorher noch zerredet wird.

Was es derzeit dringend braucht, sind:
  • Mehr Benutzer, die Löschkandidaten überarbeiten, statt auf der Löschseite rumzulabern. Konkret könnte der LA zu "Redmine" lange weg sein, wenn endlich mal jemand den Artikel überarbeitet.
  • Mehr Benutzer, die auf die Schnelllöschungen aufpassen - hier muss man oft sehr schnell reagieren und dann einen begründeten Einspruch setzen. Gleich danach mit dem Ausbau beginnen (die englische Wikipedia liefert sehr oft Material!) hilft, diesen Einspruch soweit zu untermauern, dass der SLA teilweise gleich komplett zurückgezogen wird. Auf keinen Fall den SLA einfach nur entfernen, das gibt nur Radau.
  • Admins, die sich trauen, "Löschen"-Gebrüll als etwas unerwünschtes zu ahnden.
Alles in allem: Es geht voran - sehr sehr langsam, aber doch etwas.

Samstag, 28. November 2009

Klima auf der Wikipedia-Löschseite

In dem letzten Monat habe ich versucht (was übrigens ein Fulltime-Job ist!) das Klima auf der Löschseite von Wikipedia etwas zu verbessern. Nach genau 4 Wochen ist es imho Zeit für ein erstes Fazit dieser Arbeit.

Eine meiner ersten Tätigkeiten war es, die Zahl der vorzeitig beendeten Löschdiskussionen (meist im Sinne des Behaltens, selten auch im Sinne einer Löschung) deutlich zu erhöhen. Konkret bedeutet dies, dass Löschanträge entfernt werden, wenn die Erfüllung der Relevanz- und Qualitätskriterien eindeutig gegeben und mit Quellen belegt ist. Andersherum werden Artikel, bei denen klar wird, dass diese unrettbar sind (vor allem Fakes und Bereiche, in denen sich "harte Relevanzkriterien" etabliert haben) schnell gelöscht. Bis zu der Hälfte aller Löschanträge ist so schon am ersten Tag wieder verschwunden.

Der zweite Punkt ist das Nennen von "Relevanzindizien" in der Diskussion. In vielen Artikeln steht irgendein Aspekt drin, der dafür spricht, dass das jeweilige Thema durchaus die RKs erfüllt, insbesondere die Aspekte "Medienecho" und "Alleinstellungsmerkmale" (konkret: Auszeichnungen jeder Art). Bei vielen Artikeln kann unter diesem Aspekt in Zusammenarbeit mit den Autoren ebenfalls eine schnelle Lösung gefunden werden - wichtig ist aber halt auch, dass die Autoren sich auf der Löschseite sehen lassen.

Das dritte ist das Entfernen von reinen Provokations-Kommentaren inklusive Antworten darauf (so etwas schaukelt sich erschreckend schnell hoch). In diesem Zuge gab es auch schon einige wenige Benutzersperren gegen Accounts, deren einzige Tätigkeit darin bestand, auf der Löschseite für "Stimmung" zu sorgen - sei es durch Anträge selbst oder durch Kommentare auf diese.

Als Erfolge will ich vor allem einige Aussagen werten, nach denen das Klima auf den Löschseiten besser geworden ist. Weitere mir aufgefallene Verbesserungen sind sehr viel mehr unangemeldete Benutzer, die sich konstruktiv (also mit Quellen, Relevanzindizien aber auch gegenteiligen Feststellungen) an der Diskussion beteiligen, ein fast völliges verschwinden unbegründeter "behalten-" bzw. "löschen"-Kommentare und - imho das wichtigste - ein langsam aufkommendes "kann man das retten?"-Klima. Gerade die Tatsache, dass ein verbesserter Artikel gute Chancen hat, _sofort_ behalten zu werden, scheint wieder viele Benutzer zu Verbesserungen zu animieren. Nicht selten nehme ich diese allerdings auch selbst vor, insbesondere wenn es um das Einarbeiten von Quellen geht. Einige voreilige Schnelllöschanträge habe ich auf diesem Wege auch schon vereitelt.

Für die nächste Zeit will ich mich vor allem noch stärker für einen Verzicht auf polemische Bemerkungen einsetzen, insbesondere muss man nicht mehr Energie in einem Spruch zu einem Rechtschreibfehler investieren, als es kostet, diesen zu entfernen. Im Extremfalle muss dies auch den Ausschluss von lange etablierten Benutzern bedeuten, die sich partout nicht benehmen können - auf dieser "Sorgenliste" befinden sich nicht sehr viele Benutzer, selbige sollten aber wohl allgemein namentlich bekannt sein, zumindest einer davon ist übrigens eher ein "behalten"-Troll. Weiters will ich versuchen, dem "AbKüFi" (Abkürzungsfimmel), der sich auf dieser Seite eingebürgert hat, etwas entgegen zu treten.

Als langfristiges Ziel sehe ich die Hoffnung, dass bei _jedem_ Artikel, also auch jenen, die sich relativ weit unterhalb der Relevanzkriterien befinden, eine ergebnisoffene Diskussion geführt wird, die sich alleine an der Qualität der Artikel orientiert.

Die Zusammenarbeit mit den Administratoren in dieser Sache ist zwiespältig. Das Interesse an einer Verbesserung ist groß, ebenso die Bereitschaft im Streitfalle bei dem vorzeitigen Beenden einer eindeutigen Löschdiskussion zu helfen. Dagegen fehlt es leider an jeglicher Bereitschaft, gegen etablierte Benutzer vorzugehen, die sich auf der Seite wie die sprichwörtliche "Axt im Walde" benehmen.

Donnerstag, 22. Oktober 2009

Co2-Neutrale Blogs

Eine interessante Idee, um auf das Thema der Umweltbelastung durch IT aufmerksam zu machen ist die Aktion "mein Blog ist CO2-Neutral". Statistisch erzeugt jeder Zugriff auf einer Internetseite 0,02g CO2. Das ist nicht viel, läppert sich aber, so dass bei einem Blog mit 15.000 Zugriffen (ja, davon träume ich…) im Monat 3,6kg pro Jahr herauskommen. Die genannte Aktion will für jeden Blog, der mitmacht einen Baum pflanzen. Dieser kompensiert je nach Rechnung zwischen 10 und 30 kg CO2 pro Jahr. Was übrigens rechnerisch bedeutet, dass jeder Bundesbürger zwischen 300 und 900 Bäumen pflanzen müsste, um seinen CO2-Ausstoß zu kompensieren. Im Großen vergessen wir diesen Weg also einmal; im kleinen ist er aber mehr als wertvoll, zumal der eine Baum wohl mehr kompensiert, als die meisten Blogs erzeugen...

Aus dem Grunde kommt da rechts jetzt auch ein Banner hin ;)

Dienstag, 20. Oktober 2009

Mitmachaktion: CO2-Ausstoß

Ich habe gerade im Ubuntu-Offtopic-Chat dazu aufgerufen, einmal den eigenen CO2-Ausstoß zu errechnen. Das Ergebnis war erstaunlich: *jeder* dort bleibt weit unter dem Bundesdurchschnitt von 10t pro Kopf. Darum möchte ich einmal alle Leser dieses Blogs dazu aufrufen, ihren CO2-Ausstoß zu errechnen und mitzuteilen. Den Rechner gibt es unter http://lfu.klima-aktiv.de/.

Werte bisher:
jahb: 10,7 (21,39 mit 2 Personen)
meiner einer: 7,8t
TheInfinitiy: 6,5t (ein Grüner!)
zerwas: 5,9t
sash_: 5,9t (11,86 für 2 Personen)
ThreeM: 5,43
hui: 5t (4-Personen-Haushalt)
nymtar: 4,87t (Öko in WG)
...findet sich auch mal jemand ÜBER 10t?

Donnerstag, 15. Oktober 2009

Neue Herangebensweise an die Energiebilanz von PCs

In den letzten Jahren war der beste Weg, die Umweltbilanz des eigenen PCs zu verbessern, ihn durch einen neuen zu ersetzen - die (über den Kaufpreis erahnbare) Produktionsenergie war oft binnen kürzester Zeit wieder eingespart. Doch nachdem sich im Bereich des Leerlauf-Verbrauches eine gewisse Sättigung eingestellt hat, sieht die Sache etwas anders aus.

Einen großen Schritt gibt es derzeit noch einmal im Bereich der Grafikkarten, wo in den letzten Tagen von ATI eine ganze Reihe neuer Karten vorgestellt wurde, die insbesondere im Leerlauf (in dem sich Grafikkarten nun einmal die meiste Zeit befinden) wesentlich weniger verbrauchen als noch die Vorgeneration. In Verbindung mit intels Core i7 870 liegt somit selbst ein absoluter Highend-PC bei etwa 65W im Leerlauf.

Bei diesen Zahlen werden weitere, zukünftig zu erwartende Einsparungen (etwa durch SSDs, weitere Verbesserungen der Stromsparmodi von CPU und GPU oder durch effizientere Netzteile) weniger interessant. Eine finanzielle wie energetische Refinanzierung benötigt wesentlich länger - und genau an diese verlängerten Refinanzierungszyklen gilt es sich in Zukunft auch im Kaufverhalten anzupassen. In Zeiten, in denen es keine ökologische Todsünde mehr ist, den PC mit etwas mehr Leistung zu versehen, gilt naturgemäß auch die Regel nicht mehr, dass der PC so wenig Leistung wie möglich und so viel wie nötig haben sollte. Stattdessen gilt es in Zukunft, die Nutzungsdauer des Rechners soweit, wie irgendwie möglich zu verlängern. In den letzten Jahren hat sich für diesen Bereich vor allem die Grafikkarte als begrenzender Faktor erwiesen, während selbst die ersten Dualcores von vor inzwischen über 4 1/2 Jahren sind noch immer nur in wenigen Fällen ein Hindernis!); also sollte eben diese Grafikkarte in Zukunft aus ökologischer Sicht lieber etwas größer bemessen werden (welch Unterschied zur Vergangenheit!). Dieser Wert hat aber Grenzen, da sich Grafikkarten zum einen nicht nur in der Leistung weiterentwickeln und zum anderen sehr schnelle Karten so viel mehr Geld kosten, dass sich die ganze Sache dann auch nicht mehr lohnt.

Als Beispiel nehmen wir die erste Generation der DirectX10-Grafikkarten (Radeon HD 2000, GeForce 8000). Modelle, die Mitte 2007 etwa 300€ kosteten sind noch heute in der Lage, leistungsmäßig mit Karten für etwa 80€ mitzuhalten. Mit leichten Einschränkungen lassen sich auch die Highend-Modelle der letzten Generation von DirectX9-Karten (Radeon X1xxx, GeForce 7000) noch verwenden, in dem gleichen Leistungsbereich liegen Mittelklasse-Modelle der ersten DX10-Generation. Karten der Generation davor erweisen sich aus heutiger Sicht hingegen als untauglich - unabhängig davon, was sie damals gekostet haben.

Die Leistung von Grafikkarten fällt also um eine der großen Leistungsstufen pro Generation, wobei die drei obersten problemlos, die vierte mit Einschränkungen (vor allem Egoshooter muss man etwas runterdrehen) eingesetzt werden können. Betrachten wir den Preis also nur in Hinblick auf die Langzeit-Tauglichkeit, sollte sich der Kaufpreis in etwa in dem Bereich des dreifachen einer der aktuell gerade noch uneingeschränkt einsetzbaren Karten bewegen. Derzeit liegt dieser Bereich bei einer Radeon HD 4770 oder einer 9800GT und damit bei 80€. Das dreifache davon sind 240€ und eine Radeon HD 5850, ATIx zweitschnellste Karte. In der anderen Richtung läuft die Betrachtung übrigens ähnlich: Eine GeForce 8800 GTS ist durchaus noch ausreichend und war zu ihrer Zeit ebenfalls das zweitschnellste Modell (die absurd überteuerte 8800 Ultra einmal ausgelassen). Ein weiterer Vorteil der Planung für drei Generationen ergibt sich daraus, dass sowohl DirectX9 wie auch 10 jeweils drei Karten-Generationen überdauerte.

Für den Rest des Rechners gilt dagegen: Behalten, so lange wie es irgendwie geht - was die drei Jahre bei weitem übersteigen kann. Die alles entscheidende Aussage liegt aber in etwas, was vor allem die "Öko-Muffel" begeistern wird: Umweltschutz wird in Zukunft nicht mehr durch "Verzicht auf Leistung" erreicht, sondern im Gegenteil durch Highend-PCs, die dann so lange benutzt werden, bis sie eher Lowend sind.

Sonntag, 4. Oktober 2009

CO2-Rechner

Nachdem ich schon die Berechnungsprogramme zum ökologischen Fußabdruck kritisch begleitet habe, sind heute jede zur persönlichen CO2-Bilanz dran. Genauer ist es nur einer, denn alles, was ich im Netz so finde, basiert auf dem immer wieder gleichen, offenbar von der Uni Pforzheim entwickelten Programm. Ein Beispiel gibt es unter http://lfu.klima-aktiv.de/.

Das Programm teilt den CO2-Ausstoß in 5 Bereiche ein. Einen "Grundumsatz" der den Anteil an der öffentlichen Infrastruktur ausmacht sowie die Bereiche Wohnen (Heizung und Strom), Mobilität, Ernährung und Konsum. Einen Bereich für "Kompensation" gibt es nicht (ist vielleicht auch zu unbedeutend).

Die beiden Abfragen im Bereich Wohnen gefallen mir sehr gut, da man hier optional auch *direkt* den eigenen Strom- und Heizenergie-Bedarf eingeben kann. Für mich selbst kommt allerdings dabei heraus, dass ich leicht über dem Bundesdurchschnitt liege - übrigens trotz der Sparerei sowohl bei der Heizung wie beim Strom (als Single hat man es da schwer; aber vielleicht ließt diesen Text ja ein hübsches Mädel, dass mir bei der Lösung dieses Problems behilflich sein will? :)

Auch im Bereich Verkehr sind genaueste Eingaben möglich, die bei mir rauskommende Null schluckt das System auch, so dass statt der bundesüblichen rund 6,5 hier "erst" 4 t zusammen sind.

Der Bereich "Ernährung" liefert etwas seltsame Zahlen. Nenne ich meine Ernährung "Mischkost", ergibt dies 1,84t. Nenne ich das ganze "Fleischreduziert" (was es eigentlich wäre), kommen 1,74t heraus. Das ganze heißt *eigentlich*, dass mein Fleischkonsum etwa 2/3 unter dem Bevölkerungsschnitt liegt (50g/Tag statt dem Schnitt von ~160g). Schreibe ich nun "Vegetarier" (also das andere Drittel auch noch weg; die Veganer ohne Milch und Eier sind nochmal extra!), wären es danach 1,36t. Da ist wohl irgendwo "der Wurm drin". Auch wieso man bei 80kg, Fleischreduziert und ansonsten Durchschnittsangaben über dem Durchschnitt liegt, ist mir ein Rätsel. Also werden wir dreist und schreiben "Vegetarier" - und als Ergebnis 5,5t gesamt bis hier.

Ein völliger Griff ins Klo ist die Abteilung "Konsum". Hier kann man zunächst sein Kaufverhalten anhand von 2 Kriterien ermitteln. Zum einen welches "Qualitätsverständnis" (billig, funktional, langlebig) man fährt und dann eine dreistufige Einstellung des Kaufverhaltens selbst - wenig, normal, viel. Selbiges kann man sich aber auch sparen, denn das Ergebnis schwankt damit zwischen 2 und 2,5t. Dazu kommt noch eine Einstellung für Hotelaufenthalte - <2>4 Wochen pro Jahr. Warum man hier keine Zahl (die bei mir genau 2 Nächte in Jugendherbergen in den letzten 10 Jahren wäre) eingeben kann, ist mir schleierhaft. Jede Woche macht dabei übrigens offenbar 0,18t aus. Weitere Recherchen ergeben, dass dieser Wert von der Wohnfläche, dem Auto und einige weiteren Faktoren beeinflusst wird - wie weit das auch immer sinnvoll ist (der typische Student fährt 'ne Mittelklasse von vor 30 Jahren und hat 0 Konsum...) In Summe kommen wir jetzt auf 7,83t.

Ist der Wert gut? Das ist nun wohl Definitionssache. Er ist - offen gesagt bisher (fast) alleine Aufgrund des Bereichs "Mobilität" - unter dem Bundesdurchschnitt. Nur hat das Ding nicht ohne Grund bei etwa 2,5t eine Linie, die mit "Verträgliche Quote" beschrieben wird. Dieser Wert entspricht dem, was einem jedem Menschen auf dieser Welt als Durchschnitt bis 2050 noch zusteht, um nicht über die 350ppm CO2 zu kommen, die als Grenze für den kontrollierbaren Klimawandel errechnet wurden. Würde man den Ausstoß weltweit einfach proportional reduzieren, gingen sogar 4t, langfristig dagegen wäre gerade einmal 1t ein dann wiederum fairer Wert.

Verbessern kann ich (neben natürlich überall Details) vor allem den Bereich Strom. Mit einer Umstellung auf Ökostrom wären es an dieser Stelle 0,75t einsparen. Naja, und mit einer Mitbewohnerin wären es (der deswegen leicht steigende Stromverbrauch ist bei Ökostrom ziemlich "Wurscht"), da dann die Heizung ja nur Anteilig berechnet wird nur noch 5,5t. :) Zudem behaupte ich, dass mein Wert im Bereich "Konsum" eigentlich nochmal 1t tiefer liegt, als hier errechnet wird. Das wären dann schon 4,5t.

Mittwoch, 30. September 2009

"Ökologischer Fußabdruck"

Im Netz finden sich diverse Rechner für den sogenannten "Ökologischen Fußabdruck"; also die Frage wie sehr der eigene Lebensstil der Umwelt schadet. Doch versuche ich über diese Programme einmal mein Verhalten einzustufen, stoße ich immer wieder auf das gleiche Problem: Die Gefragten Angaben sind viel zu ungenau.

Das Muster-Negativ-Beispiel gibt es auf "Latschlatsch.de": Es wird gefragt, wie viel Zeit pro Tag man "Unterhaltungsgeräte" nutzt - da muss ich jetzt nur an Leute denken, die ihre 60"-Glotze als "Hintergrundgedudel" nutzen während sie am 500W-Gamer-PC sitzen, um zu wissen, was die Zahl taugt. Die dürften jedenfalls in einer Stunde mehr verbraten als ich am ganzen Tag hier. Selbiges kann ich schonmal vorweg nehmen: KEINE EINZIGE Seite gibt einem die Möglichkeit, den eigenen Stromverbrauch direkt einzugeben; obgleich sich oftmals um die 10 Fragen nur auf dieses Thema beziehen.
Auf der gleichen Seite fehlt auch gleich die Frage nach dem Dämmstandard der Wohnung - also unsanierter Altbau mit Einfachverglasung führt zu dem gleichen Ergebnis wie ein Passivhaus. Das Ergebnis ist übrigens entsprechend: Würde ich die Fragen ehrlich beantworten (wer hat da noch Lust zu bei solchen Seiten?), käme ein Wert über dem Bevölkerungsschnitt heraus.

Ein paar bessere Rechner gibt es auch noch; zumeist liege ich da dann um 1/3 unter dem Durchschnitt. Einer der ausführlichsten Rechner gibt es unter www.mein-fussabdruck.at. Das ganze ist zwar für Österreich gedacht, aber die Fragen lassen sich problemlos auf Deutschland übertragen. Auch sonst ist das ganze nicht perfekt (eine ähnliche Marotte ist nicht zu fragen, wie VIEL, sondern wie OFT man Fleisch isst), aber ansonsten isses wohl wie in der Politik: Das kleinste Übel...

Mittwoch, 23. September 2009

Trendwende beim Stromverbrauch von Grafikkarten?

Heute nun sind die ersten Tests zu AMDs neuer Grafikchip-Serie Radeon HD 5850/5870 aufgetaucht. AMD hatte hier (für die 5870) nicht weniger als die doppelte Rechenleistung einer 4870 bei praktisch gleichem Stromverbrauch gegenüber einer 4890 versprochen (was wiederum nicht weit über der 4870 liegt). Zudem hat AMD erstmals eine Aussage zum Verbrauch im Leerlauf gemacht.

Doch was ist nun dran an den Versprechungen? Fangen wir mit der Leistung an: Diese bleibt minimal hinter einer "Radeon 4870 X2" zurück, was vermutlich daran liegt, dass die Speicherbandbreite nicht ebenfalls verdoppelt wurde. Dennoch handelt es sich bei der 5870 um die mit riesigem Abstand schnellste Karte mit nur einer GPU am Markt - der bisherige Spitzenreiter "nVidia GeForce GTX 285" wird um 25-30% überboten. Um den alten Kalauer aufzuwärmen: Mit dieser Karte kann man in der Tat Crysis (fast) ruckelfrei auf einem 30"-Display spielen.

Der Stromverbrauch war mit 188W versprochen, eine "Radeon 4890" hat 190W. Hier sollte es also eine minimale Verbesserung geben. Hierbei gehen die Ergebnisse etwas auseinander. Während Computerbase 15W mehr gegenüber der 4890 misst, kommt PC Games Hardware (die den Verbrauch der Karten direkt messen) tatsächlich auf die versprochene Zahl für die 5870, aber auf wesentlich mehr für die 4890. Diese 15W machen aber nicht wirklich etwas aus, denn hier folgt die eigentliche Sensation: Der Verbrauch im Leerlauf war von AMD mit 27W versprochen worden - nun, herausgekommen ist noch wesentlich weniger. 9W mehr als für die "Radeon 4670" (zu der andere Quellen 8W schreiben) wären 17W. Das sind 9W weniger als für die "GTX 285" und vor allem 45W weniger als für die Radeon 4890.

Mit anderen Worten: Gegenüber AMDs bisherigen Topmodell spart diese Karte 1 kWh pro Tag rumidlen oder rund 100€ Stromkosten in einem Jahr. Gegenüber der praktisch gleich schnellem "Radeon 4870 X2" reden wir gar von 60W im Idle und unglaublichen 178W unter Last.

Glückwunsch AMD, das ist mal WIRKLICH eine Verbesserung! Ich hoffe nur, dass die kleineren Karten (egal ob die 5850 oder die 57xx) genauso deutliche Verbesserungen beim Stromverbrauch bringen. Verbrauch der 4670 mit der Leistung der 4870 kombiniert wäre doch mal was :)

Dienstag, 22. September 2009

Deutschland deine Radwege

Man hört ja gerne mal Autofahrer singen "die Radfahrer fahren alle auf den Straßen, dabei sind da doch soo schöne Radwege". Nun, die Ausbeute von heute, gesammelt auf 6km hin und den gleichen Weg zurück.

  • Ein Feldweg, wie er um Buche steht: 2 jeweils 30cm Breite befahrbare Streifen, unterbrochen nur von regelmäßigen bis zu 10cm tiefen _Löchern_. Zum Glück hab ich MTB-Reifen, mit einem normalen Rad hätte ich mir wohl an den Steinen in und an diesen Löchern die Reifen aufgeschlitzt.
  • Den Glasscherbenhaufen beim örtlichen Kaufland gab es da Freitag schon - auf der Straße wird sowas *sofort* korrigiert.
  • Fast an gleicher Stelle werden die Löcher immerhin jetzt vom Kies der angrenzenden Baustelle wieder gefüllt. Nur leider reißen die LKW dabei auch ständig neue.
  • Ein Stückchen Sandweg. Schön, wenn man sich wundert, wieso plötzlich der Vortrieb gegen 0 tendiert - kein Wunder bei 5cm Einsacktiefe (ja, mitm MTB; Rennradler wären da wohl geflogen). Das Rad sieht zudem seitdem aus wie Sau :/
  • Wie gut, dass ich ein tierlieber Mensch bin. Anderenfalls gäbe es auf der Strecke jetzt 2 verletzte Hunde mehr. Der Dackel, der mich zur Vollbremsung veranlasst hat (wenn sich Frauchen bückt, gehe ich davon aus, dass sie ihn auch festhält!), wäre wohl schlicht platt gewesen.
  • Ein Kreisel, von dem ich auch ein Foto habe: http://www.flickr.com/photos/31365699@N07/3877758502/ - wie das da funktioniert, kapierten die Autofahrer in der Zeit dann auch nicht; wen wundert's. Danach (auf dem Bild nicht zu sehen) muss man übrigens auf der linken Seite fahren - offenbar ist es den Autofahrern nicht zuzumuten, an der nächsten Kreuzung nochmal zu halten (dort mitm Auto rausfahren kann man ebenfalls vergessen).
  • Für Autofahrer gibt's Verkehrszeichen wie 101, 103, 108/110, 112 oder 120/121. Wo sind deren Gegenstücke für Radfahrer? 3m Kurve, 30° Gefälle hatte ich heute auch mehrfach dabei.
  • Absolutes Meisterwerk: Schild 237 und darunter ein kleines "Ende" - bedeutet ja nur mal eben das Gegenteil vom 237 (richtig wäre hier ein 254). Wo es weiter geht? Tja, dass muss man dann schon selbst rausfinden (meist mit viel Umweg auf der anderen Seite).
  • Die Einfahrt zum Kaufland hat man auch verbessert: Die Absenkung des Bordsteins ist weg (im Gegensatz dazu die der Grundstücksumrandung noch da). Kann man als Radfahrer entweder auf der Straße absteigen und das Rad hochheben oder 30m Umweg fahren, wo die Autofahrer reihenweise die Kurve schneiden. Oder man tut was für seine Lebenserwartung und fährt auf dem Gehweg.

Freitag, 4. September 2009

Falsche Prämisse beim Umweltschutz

Diskussionen rund um Umweltschutz kranken oftmals an einem immer wieder gleichen Problem. Wird eine Verbesserung dadurch erreicht, dass die Effizienz eines Produktes verbessert wird, wird unter Garantie irgendein Umweltverband schreien, dass das so wahlweise sogar eine Verschlechterung sei oder zumindest doch viel zu wenig.

Ein schönes Beispiel sind die angeblichen "Bonzenautos" unserer Politiker. Hier wird nicht etwa gefragt, warum die S-Klasse der Minister denn über 10l verbrauchen muss, sondern warum sie eine S-Klasse fahren. Das gleiche Ziel - einen Verbrauch von etwa 7l - kann man derzeit auf 2 Wegen erreichen: Durch einen S 400 Hybrid oder durch einen C 180 (genauer: Die C-Klasse verbraucht sogar noch etwas mehr). Doch absolut NIEMAND fordert öffentlich, dass unsere Politiker doch bitte ein Hybridauto einsetzen sollen. Überall wird nur gefragt, "warum die so große Autos haben müssen".

Das gleiche Phänomen kann man auch bei Flachbildschirmen (wobei hier die Tendenz zur Überkompensation schon knapp existiert), bei PCs (wo die Verbesserungen der letzten Jahre in der Diskussion *völlig* ignoriert werden) oder bei den Sparlampen (dass das Licht einer 25W-Glühlampenfunzel scheiße ist, stört auch niemanden!) beobachten. Umweltschutz ist offenbar nur dann "guter" Umweltschutz, wenn er mit Verzicht einher geht.

Das Ergebnis ist verheerend: Warum sollte man ein Produkt kaufen, dass effizienter ist, wenn einem eingeredet wird, dass man damit auch nicht besser sei? In der Folge wird Umweltschutz vollends ignoriert. Nicht selten geht die Reaktion aber weit darüber hinaus - Umweltschützer werden als "Ökospinner" abgestempelt und selbst Produkte, die *nur* Vorteile haben, werden nicht gekauft. Gerne wird Umweltschutz als als "Neid" verstanden und sein eigentlicher Zweck bestritten.

Aus diesem Grunde sollte unsere Umweltpolitik sich wesentlich mehr darauf konzentrieren, Produkte zu fördern, die besser für die Umwelt sind _ohne_ dabei irgendwelche Nachteile zu haben. Und es muss auf Vorteile dieser neuen Produkte, die über "es ist besser für die Umwelt" hinausgehen, hingewiesen werden. Oftmals sind hier nämlich durchaus Eigenschaften, nach denen der Markt verlangt hat bei. Auf diese Art lassen sich bereits deutliche Verbesserungen im Umweltschutz erreichen; wesentlich mehr, als jemals mit der "Verzichte, sonst bist du böse!"-Methodik erreicht wurde. In den wenigen Fällen, wo man ohne Verzicht nichts erreicht, ist ein solcher dann auch weitaus eher durchsetzbar.

Montag, 31. August 2009

Prozessor-Empfehlung

An dieser Stelle möchte ich einmal eine kurze Beurteilung verschiedener aktueller Prozessoren bezüglich Leistung und Stromaufnahme zusammenstellen.

AMD Athlon X2 4x50e/5050e
Das älteste noch verfügbare Muster eines Dualcore-Prozessors basiert noch auf dem K8. Im Leerlauf ist seine Stromaufnahme noch immer ungeschlagen, was umso erstaunlicher ist, als dass dieser Prozessortyp es einst war, der intels "Pentium D" vollens blamiert hat. Die Leistung ist dagegen eher bescheiden und die Stromaufnahme unter Last nicht unbedingt überragend. Aus diesem Grunde empfielt er sich überall dort, wo es kaum auf die Leistung ankommt und der Rechner nur selten ausgelastet wird.

AMD Athlon II X2
Der moderne Nachfolger des obigen basiert auf dem K10-Kern, besitzt aber keinen L3-Cache. Dies senkt die Stromaufnahme vor allem unter Last sehr deutlich, kostet aber insbesondere in Spielen einige Leistung. Der Idle-Verbrauch ist leider nur im üblichen Rahmen, unter Last ist er zumindest der sparsamste AMD seit langem - was aber leider noch kein Weltwunder ergibt. Wo etwas mehr Leistung gefragt ist und Intel-Lösungen Aufgrund der dort bescheidenen Grafikchips ausfallen, ist dieser Prozessor ideal.

AMD Phenom II X2
Die Phenom-Prozessoren besitzen alle einen L3-Cache, der in Spielen etwas mehr Leistung bringt. Haken an der Sache ist, dass dieser unter Last Strom frisst. Aus diesem Grund ist der Prozessor weniger zu empfehlen: Bei Spiele-Rechnern entfällt der Vorteil der besseren Onboard-Grafik für AMD-Systeme, weshalb man klar zu einem intel raten sollte.

AMD Phenom 9xxx
Die erste Generation des Phenom - zu erkennen an den vierstelligen Modellnummern - ist im Grunde nur eines: Schrott. Wenig Leistung (auch und gerade im Idle!), viel Stromverbrauch. Die Prozessoren sind daher definitiv nicht zu empfehlen; ich würde sie nichtmal geschenkt nehmen.

AMD Phenom II X4
Die zweite Generation von AMDs Quadcores ist hingegen durchaus interessant. Zwar verursacht auch hier der L3-Cache einen mehr als derben Stromhunger, aber der Grafikchip-Vorteil schlägt sich nieder. Für mich DER Tipp etwa für Bildbearbeitung. Im Spiele-Bereich punktet er zumindest noch durch den Preis pro Leistung gegenüber Intel, ist aber oftmals überdimensioniert.

Intel Pentium Dual-Core E2000
Der kleinste der Pentium-Serie konkurriert mit AMDs "gut abgehangenem" 4x50e. Als Pluspunkt gegenüber diesem ist der extrem niedrige Last-Verbrauch zu nennen, beim Idle liegt AMD hingegen deutlich vorne.

Intel Pentium Dual-Core E6000
Der E6000 (und eingeschränkt auch die auslaufenden E5000) konkurrieren mit dem Athlon II X2. Hier punktet er beim Last-Verbrauch leicht. Will man aber einen Grafikchip, mit dem wenigstens HD-Videos laufen, sind die Vorteile wieder dahin. Allerdings: Auch für Spiele ist diese CPU hin und wieder eine Überlegung wert, und da braucht man eh eine Grafikkarte.

Intel Core 2 Duo E7000
Der E7000 ist der eigentliche Konkurrent des Phenom II X2, allerdings ist der Leistungs-Unterschied in Spielen kleiner als bei den AMD-Modellen. Daher ist der E6000 fast durchweg die bessere Wahl.

Intel Core 2 Duo E8000
Weitgehend konkurrenzlos steht Intels E8000 da. Diese CPUs sind fast so teuer wie Quadcores, gehen aber gut ab, die Topmodelle mit weit über 3 GHz lassen in vielen Spielen jeden Quad alt aussehen - bei wesentlich weniger Stromhungern.

Intel Core 2 Quad
Quadcores hat Intel mit dem Q8000 und Q9000 gleich zwei Serien. Die 8000er sind langsamer, aber noch bezahlbar. Die 9000er sind hingegen fast durchweg extrem teuer und lohnen daher nur in Ausnahmefällen. Im Stromhunger sind beide Serien wesentlich sparsamer als die AMD-Konkurrenz oder die i5/i7-Familie.

Intel Core i5 700
Gerade heute ist der erste Test eines i5 durch die c't reingeflattert. Die Stromausnahme im Idle ist mit dem Core 2 Quad (und etlichen anderen CPUs in diesem Bereich) vergleichbar, unter Last zieht er dagegen wesentlich mehr und liegt auf dem Niveau des AMD Phenom II X4.

Intel Core i7 900
Anders sieht es bei Intels Highend-CPU aus. Die Leistung ist durchaus beeindruckend; außer in Spielen, wo er oftmals keinen Blumentopf gewinnt. Der Stromverbrauch unter Last ist im ähnlichen Bereich wie AMDs Phenom II X4. Soweit alles toll, wären da nicht 2 schwere Probleme: Die Preise sind schlicht Wucher und der Stromverbrauch im Idle erinnert mich eher an die Zeiten des Pentium 4 - ein hierauf aufgebauter Office-PC zieht 30-40W mehr als bei *jedem* anderen aktuellen Prozessor (außer dem Phenom I).

Samstag, 29. August 2009

Gedanken zu Gesetzesänderungen im Bereich Kompaktleuchtstofflampen

Der Quecksilber-Gehalt von Kompaktleuchtstofflampen (ESLs) ist derzeit ja eines der ganz großen Sommerlochthemen. Etwas Nachholbedarf und vor allem -Potential gibt es in diesem Bereich ohne Zweifel.

Der Quecksilbergehalt

Technisch ist heute ein Quecksilbergehalt von weniger als 2mg möglich und bei den großen Herstellern auch umgesetzt. Hier wäre es mehr als Hilfreich, die Grenzwerte zügig entsprechend zu verschärfen. Anzumerken ist, dass der bisherige Grenzwert lediglich eine Ausnahme der RoHS-Regelung ist, welche die Verwendung von Quecksilber eigentlich völlig untersagt.

Ein etwas seltenerer Ansatz ist eine Quecksilber-Legierung (Amalgam), die den Zweck offenbar genauso erfüllt. Hier besteht dann zwar noch ein Risiko bei der Herstellung, jedoch keines mehr bei Nutzung und Entsorgung.

Rücknahmesystem

Die Rücknahme ist definitiv verbesserungswürdig. Bei Batterien funktioniert eine Rücknahmepflicht für die Händler auch; warum sollte dies bei ESLs ein Problem darstellen? Das ständige Gejammere, dass man dann ja weniger Gewinn macht, kann ich jedenfalls nur mit einem Wort beantworten: PECH.

Kennzeichnung

Eine regelrechte Plage ist in den letzten Jahren die Kennzeichnung von Leuchtmitteln geworden. Die einzige Angabe, die die Hersteller sehr gerne und sehr deutlich rausrücken, ist die Lebensdauer - kein Wunder, ist diese doch durchweg deutlich länger als bei einer Glühlampe. IMHO sollten hier aber eine ganze Reihe weiterer Angaben vorgeschrieben werden: Der Lichtstrom (die Lumen), die Stromaufnahme, der Farbwiedergabeindex und den Quecksilbergehalt.

LED-Lampen

In den letzten Tagen habe ich mich einmal mehr mit dem Thema LED-Lampen beschäftigt und einige mehr als positive Ergebnisse gefunden.

Inzwischen gibt es LED-Lampen (also fertige Lampen mit E14- oder E27-Sockel) mit einem Wirkungsgrad von etwa 75 lm/W tatsächlich zu kaufen, was besser ist als bei ESLs (50 lm/W).Die Lampen sehen übrigens gar nicht schlecht aus; der LED-Cluster bildet eine Säule in der Mitte des Glaskolbens.

Die anfänglich völlig unbrauchbaren Angaben nur Helligkeit sind inzwischen zumeist durch nachvollziehbare Angaben ersetzt worden. Teilweise muss man aber immer noch ohne jede Angabe für die eigentliche Helligkeit auskommen, so etwa bei Osrams "Parathom"-Serie, hier wird nur ein Vergleich zu Glühlampen gezogen, der zwar ob des aktuellen technischen Standes glaubhaft, jedoch nicht konkret prüfbar ist. Diese Modelle erinnern ansonsten eher an ESLs in "klassischen" Bauformen.

Zu der Produktionsenergie gibt es eine Statistik des Herstellers Osram, nach dem diese in Relation zur Lebensdauer mit einer ESL vergleichbar ist und gegenüber Glühlampen etwa halbiert. Im Vergleich zu ESLs, die derzeit bei etwa 5€ Endkundenpreis liegen, ergäbe dies also einen theoretischen Preis von etwa 12,50€. Der Rest ist der F+E-Anteil.

Besonders erstaunt war ich bei der Recherche nach dem Farbwiedergabeindex. Dieser wird leider noch nicht flächendeckend angegeben, jedoch finden sich vereinzelt Angaben von 92 oder gar 95. Das wäre die Größenordung einer 5-Band-ESL und nur minimal unter einer Glühlampe. Auch das eigentliche Lichtspektrum sieht nicht schlecht aus. Bei der Lichtfarbe ist theoretisch jeder Weißton möglich, Modelle mit 2700K und 6500K findet man schon.

Zu der gesamten Kostenbilanz eine einfache Rechnung, in der sich der noch gigantische Kaufpreis von LED-Lampen niederschlägt. Haarscharf lohnt es aber schon... Je für 20000 Stunden:

Glühlampe: 20x 0,5€ + 20000*60W bei 0,25€ = 310€
ESL: 2x 8€ + 20000*11W bei 0,25€ = 71€ (eine ESL mit besserem Farbwiedergabeindex wäre teurer)
LED: 1x 30€ + 20000*8W bei 0,25€ = 70€ (ohne den F+E-Teil wären wir hier ungefähr bei 53€!)

Ein großer Kritikpunkt sei noch genannt: LED-Lampen findet man im normalen Handel leider fast nur in sehr geringer Stärke - die oben genannte Osram-Serie endet beispielsweise bei 2W.

Persönlicher Umweltschutz

Ich möchte an dieser Stelle einmal meine ganz persönliche Umweltbilanz niederschreiben.

Stromverbrauch

Den Stromverbrauch zu optimieren ist schon seit einigen Jahren eines meiner Haupt-Anliegen, entsprechend sind hier in der jüngsten Zeit keine Wunder entstanden, wohl aber ein imho tragfähiges Gesamtergebnis. Mein Stromverbrauch liegt derzeit bei etwa 1400 kWh pro Jahr, wobei der hier verwendete PC wann immer ich da bin (und leider auch, wenn ich mal kurz nicht da bin; hier könnte man noch was verbessern) immer läuft. Am Rest lässt sich nur wenig verbessern; insgesamt schätze ich etwa ein Potential von 100 kWh pro Jahr, welches sich durch die Modernisierung von inzwischen nicht mehr ganz aktuellen Geräten (dies ist insbesondere ein Radio und das Netzteil im PC) erreichen ließe. Mit Blick auf die Gesamtumweltbilanz (die Geräte funktionieren ja noch einwandfrei) wären Maßnahmen hier wenig angebracht.

Ansonsten findet man wohl wenig: Kühlgeräte sind A+, daneben werkelt ein Induktionsherd. Der PC ist auf besonders geringen Stromverbrauch bei einer dennoch für meine Anwendungszwecke (Fotobearbeitung, Rollenspiele) geeigneten Leistung ausgelegt. Die Beleuchtung erledigen praktisch durchweg ESLs (ok, im Wohnzimmer hängt noch [selten benutztes] Halogen und bei den vorhandenen Lampen hab ich noch nicht auf den Quecksilber-Gehalt geachtet), Standby gibt's praktisch nirgends (außer bei oben genanntem Radio) und ebenso wird auf sinnlose Geräte verzichtet.

Geplant ist dagegen in der nächsten zeit eine Umstellung auf Ökostrom - und zwar echten solchen, keinen über schwedische Wasserkraftwerke schöngefärbten Kohlestrom.

Konsum

Wie oben schon zu erkennen, findet bei mir auch die Gesamtenergiebilanz eine Beachtung in der Effizienzberechnung. Selbige ziehe ich dabei schlicht aus dem Kaufpreis. Diese Lösung ist nicht 100%ig korrekt, kommt aber tendenziell eher auf zu hohe als zu niedrige Werte. Im Ergebnis heißt das, dass neue Geräte idr. nur beschafft werden, wenn Kaufpreis und Stromverbrauch über die Lebensdauer zusammen geringer sind als der Stromverbrauch des alten Gerätes alleine. Zudem muss der geschätzte Lebenslauf des alten Gerätes entweder schon rum sein oder eben dieses schlicht nicht mehr funktionieren (sei es wegen Defekt oder sei es wegen gestiegenen Anforderungen).

Bei sonstigen Anschaffungen kann sich da durchaus noch einiges Verbesserungspotential finden, aber irgendwelche Hobbies muss man ja auch haben :)

Wasser

Der Wasserverbrauch wird durch Wassersparer niedrig gehalten; weiteres Potential gibt es in diesem Bereich wohl nur noch, wenn ich mich statt zu duschen nur abstauben würde - also keine Option hier. Eine Brauchwasser-Verwertung ist in einem Mehrfamilienhaus ja eher nicht umsetzbar.

Verkehr

Beim Verkehr ist meine Umweltbilanz wohl sehr eindeutig. Ein Auto nutze ich nicht, da ich für ein solches bisher schlicht keinen Bedarf sehe, keine Ahnung ob sich das irgendwann ändert, aber dann kann man ja immer noch drüber nachdenken. Wenn's dann doch mal nötig ist: Meine Mutter ist sowieso viel zu oft hier in der Stadt, da kann man dann auch was erledigen. Seit einigen Wochen dient für längere Wege (ja, das Umland der Stadt zu erkunden, ist durchaus auch mal interessant ;) mein wieder "ausgegrabenes" Fahrrad - insofern ganz interessant, als dass der Fahrradtacho auch mal verrät, wie lang die Wege eigentlich so sind. In ungefähr 6 Wochen (also seit Mitte Juli) sind bisher 81km zusammengekommen - also 2km am Tag. Die kürzeren Wege bleiben aber zu Fuß, weil es sich beispielsweise nicht lohnt, für die 200m zum Einkaufen das Fahrrad zu bemühen (hier wird auch die Sinnlosigkeit eines Autos deutlich!).

Heizung

Das Haus hier ist von 1987 und die Eigentümergemeinschaft leider nicht besonders investitionsfreudig, ansonsten ließe sich sicherlich noch einiges erreichen. In dem Bereich, wo ich etwas tun kann, versuche ich dies auch - allerdings mag ich es halt auch nicht, wenn drinnen im Winter 15°C sind ;)

Ernährung

In diesem Bereich achte ich bisher ganz subjektiv betrachtet eher zu wenig auf die Umwelt. Bio-Produkte sind mir schlicht deutlich zu teuer. Ansonsten futtere ich eigentlich zu viel Fertigessen, versuche dies jetzt aber systematisch zu verringern. Mal sehen, ob danach nicht sogar Geld für "Bio" übrig ist. Fleisch gibt's eher wenig, ich komme da auf etwa 50g pro Tag im Schnitt.

Donnerstag, 27. August 2009

CO2-Grenzwert

Im Internet findet man ja diverse Zahlen dazu, wie nun die Begrenzung des CO2-Ausstoßes von PKW zukünftig reglementiert werden soll. Die Verwirrung rührt daher, dass die geforderten Werte immer wieder geändert wurden. Wie kaum anders zu erwarten, ist der wohl schlechteste Weg nun zum Ziel auserkoren worden: 2015 darf ein PKW maximal 130g CO2 ausstoßen. Das sind umgerechnet 4,9l/100km für Diesel- und 6l/100km für Benzinmotoren. Wer darüber liegt, kostet relativ saftige "Strafaufpreise". Was passiert, wenn auch der Herstellerweite Durchschnitt diesen Wert überschreitet (was wohl technisch ausgeschlossen scheint...), ist mir unbekannt.

Doch ist ein _Durchschnitt_ von 130g wirklich eine Herausforderung?

Fangen wir mit den Diesel-PKW an, die es hier etwas leichter haben. Bis hinauf in die Kompaktklasse muss man nach Modelle mit mehr als 130g CO2 heute schon suchen. Mehr noch: Es gibt immer wieder Modelle mit unter 110g!

In der Mittelklasse hatte bisher bereits Volvo eine Version des S40 mit durchaus eindrucksvollen rund 105g, BMW legt jetzt nach und bringt 109g für den "320d EfficientDynamics Edition" sowie einen normalen 316d mit 119g. Würde man die Verbesserungen der 320d-Version auf den 520d übertragen, wird vermutlich auch dieser auf rund 120g kommen - damit sind wir dann schon in einem (wenn auch für diese Klasse eher schwach motorisierten) Modell der oberen Mittelklasse.

In der Oberklasse sowie bei SUVs löst man das Problem mit Hybrid-Motoren. Mercedes hat für 2010 2 S-Klasse-Diesel-Hybrid mit rund 120 bzw. 130g CO2 angekündigt.

Sportwagen mit Dieselmotor gibt es eher nicht. Führt im Ergebnis dazu, dass bereits heute die Technik existiert, um _100%_ der Diesel-PKW unter 130g zu drücken.

Etwas schwieriger ist die Sache bei Benzinmotoren. Beim neuen VW Polo schaffen 3 der 4 bisherigen Versionen schaffen die 130g, die vierte hängt bei rund 140g. Beim Golf gibt's bisher 1x 130g, 2x 140g und 3 Modelle darüber. Übernimmt man die Verbesserungen des "BlueMotion"-Diesel für die Benziner, sollten 3x 130g drin sein.

Bei größeren Fahrzeugen kann man in größerer Serie bisher von solchen Werten zur träumen. Macht aber nichts: PKW oberhalb der Mittelklasse spielen nach Stückzahlen kaum eine Rolle und gehen daher für den Durchschnitt eher unter, 2008 lag der europäische Durchschnitt bei 160g CO2 und das, obwohl dieser Wert nur minimal über der damaligen Minimalmotorisierung eines VW Golf V lag.

Mit anderen Worten: Würde man bereits für 2010 die 130g als Durchschnitt vorschreiben, wäre dies vermutlich einzig durch den Wegfall einiger ineffizienter Billigvarianten und die Ausdehnung von bisher aufpreispflichtigen "Sparpaketen" auf die Grundausstattung zu erreichen.

Mal sehen, was zuerst passiert: a) ein Oberklasse-Benziner mit unter 130g CO2 oder eben diese Zahl als vorgeschriebener Durchschnitt...

Achja: Eine zweite Stufe soll es auch noch geben. 2020 will man 95g vorschreiben. Das sind um die 3,5l und damit ein durchaus interessantes Ziel - erreicht wird es bisher fast vom Polo BlueMotion (96g) und recht deutlich unterschritten von einem bisher nur als Studie existierenden kleinen Bruder dazu mit 87g. Ein Smart Fortwo cdi lacht sich mit 88g über den Wert heute schon tot. Sieht schaffbar aus, oder? Naja, wenn die Autoindustrie dann doch etwas tun muss, darf sie aber auch schreien: 2013 soll der Wert überprüft werden. Wie ich die bisherige Entwicklung in dem Bereich so einschätze, wird man dann wohl auf 100g 2025 "korrigieren". Rückblickend hatten sich die Hersteller übrigens 1998 zu 140g für 2008 verpflichtet (was um 20g verfehlt wurde)…

Montag, 24. August 2009

Glühlampe, Akt II

Spiegel-TV hat heute einen Bericht veröffentlicht, dessen Unsinnigkeit kaum zu übertreffen ist. Eine offensichtliche Hetzrede gegen Energiesparlampen, bei der kein einziger Vorteil auch nur erwähnt wurde, dafür jede Menge teilweise schlicht erlogene Nachteile. Dabei beruft man sich reihenweise auf einen "Test" der Zeitschrift Ökotest, der bereits für seine lausige Qualität bekannt geworden ist - und hier noch durch einige Peinlichkeiten mehr auffällt. In diesem Test waren übrigens unter den getesteten 16 ESLs ganze *drei* Modelle namhafter Hersteller (je eine von GE [mir selbst noch nirgends begegnet], Philips und Osram). Die anderen 13 Modelle sind Noname-Produkte, zumeist von den Hausmarken von Lebensmittelhändlern!

Die erste Aussage betrifft die Farbtemperatur. Hier soll angeblich eine ESL kälteres Licht haben, als das Tageslicht. Tatsächlich ist es andersrum: "kaltes Licht" bedeutet eine hohe Farbtemperatur. Nun hat das Tageslicht zwischen 15000 und 27000K. ESLs gibt es zwischen 2700 und 6500K - also wesentlich wärmer (!) Und Glühlampen? 2200-3000K, also ähnlich warm, wie die wärmsten ESLs.

Lustig weiter geht es mit einem Strahler, bei dem die ESL in Wahrheit wesentlich dunkler sein soll, als eine vergleichbare Glühlampe. Ob diese Aussage stimmt, kann ich auf die Schnelle nicht überprüfen; was ich aber prüfen kann, ist dass diese Aussage _nicht_ für irgendwelche Standard-ESLs gilt. Aber warum sollte man aus einer Ausnahme nicht die Regel machen?

Gleich der nächste Aspekt ist die Farbwiedergabe - dass hier für viele ESLs wirklich ein Mango besteht, wird gerne (völlig übertrieben) ausgeschlachtet. Dass es ESLs mit einem besseren Lichtspektrum gibt, "vergisst" man dagegen.

Zur Erheiterung noch 2 Damen, die sich anhand einer Röhrenform-Billig-ESL über die gar so hässliche Bauform eben dieser auslassen. Wohl noch nie von ESLs in Glühlampenform gehört...

Zwischendurch haben wir noch selten gehörten Käse über elektromagnetische Felder - gehört ja dazu, wenn der "Ökotest" von einem "Baubiologen" (anderes Wort für "Strahlen-Esoteriker") durchgeführt wird. Tatsächlich ist diese (völlig bedeutungslose) Strahlung proportional zur elektrischen Leistung, also genauso kleiner als bei einer Glühlampe.

Zum Ende kommt noch der Quecksilber-Aspekt, den ich ja schon vor einigen Wochen zerlegt habe. Auch hier wird völlig übertrieben: "die Hersteller verwenden wesentlich mehr als erlaubt" (tatsächlich verwenden die großen Hersteller zwischen 1/3 und 40% des erlaubten; eine Überschreitung der Grenzwerte wäre ein Fall für die Gewerbeaufsicht und sonst gar nichts), "fällt eine Lampe herunter, ist das extrem gefährlich" (tatsächlich müsste dafür erstmal der Glaskolben zerbrechen; das in einem Fieberthermometer das _200fache_ an Quecksilber ist, wurde natürlich "vergessen"). Kein Wort dagegen über das eingesparte Quecksilber aus der Stromproduktion, kein Wort über Amalgam-Bindungen (die das Quecksilber-Problem dann endgültig lösen) - etwas positives über ESLs zu schreiben, wäre ja auch schlimm.

Freitag, 14. August 2009

Die Schule, die sich selbst abschafft

Das die Hauptschulen in Deutschland ein Problem haben, ist nicht neu. Die Schüler sind unmotiviert und ihr Abschluss eigentlich wertlos. Doch liegt das an der Verblödung der Gesellschaft? Nein. Im Gegenteil!

Die Wahl einer Schulform wird von zwei Faktoren beeinflusst. Die Leistungen in der Grundschule, aus deinen eine "Intelligenz" abgeleitet wird (imho ist es eher der Umfang der Förderung durch Freunde und Verwandte und der in Schulnoten pressbare Wert der Interessen) und aus dem Nutzen, den der Abschluss später hat.

Nach dem Krieg war diesbezüglich die Frage einfach: Ein Hauptschüler konnte wesentlich früher anfangen Geld zu verdienen, welches die Familie brauchte. Einen Job fand jeder, denn die wichtigste Arbeit war lange lange Zeit der Wiederaufbau, also rein körperliche Arbeit. Eigenverantwortung und Kreativität waren für wie weit meisten Berufe bedeutungslos.

Doch dies wandelte sich. Die klassischen Arbeiterberufe gibt es heute kaum noch, was früher zig Leute am Fließband erledigten, macht heute eine Maschine - oder die Produktion wurde nach China verlagert. Die Berufe, die hierzulande noch gefragt sind, haben als Anforderungen eigentlich immer Kenntnisse in mindestens einer Fremdsprache, eigenverantwortliche Arbeit, Lebenslanges Lernen, Teamarbeit, gewisse IT-Kenntnisse und zumindest etwas Kreativität. Anderswo kommt schnell noch die Medienkritik hinzu. Nichts davon kann die Hauptschule bieten, mehr als genug (vor allem die Teamarbeit!) erfüllt selbst das Gymnasium nur sehr begrenzt.

Aus diesem Grunde denke ich, ein Hauptschul-Anteil von maximal 10-20% wäre erstrebenswert. Das ist dann auch der Anteil, der einen vernünftig bezahlten Beruf - bekommt. Wobei sich bei Berufen wie "Handlanger aufm Bau" oder "Friseur" das "vernünftig bezahlt" nicht selten auch schon in Grenzen hält...

Andersrum ist die Tatsache, dass es noch Hauptschulen gibt, übrigens auch ein Beleg dafür, dass die Eltern nicht immer wissen, was "das beste für die Kinder ist".

Sonntag, 9. August 2009

Energiepolitik 2020-2030

Es gibt kaum eine Partei in Deutschland, in deren Programm sich nicht irgendwelche hohlen Floskeln zum Thema Klimaschutz bzw. Energiepolitik finden. Konkrete Ziele, was wann und vor allem wie erreicht werden soll, gibt es leider praktisch nie.

Aus diesem Grunde habe ich hier einmal einen Vorschlag. Das ganze basiert auf den Annahmen einer Studie des Bundeswirtschaftsministeriums aus dem Jahr 2008. Nach dieser ergibt sich, so keine Vorschriften geändert werden, für 2020 folgendes Bild:

  • Noch 3 AKWs (die 3 Konvoi-Reaktoren Isar 2, Emsland und Neckarwestheim 2) mit zusammen 4,5 GW Leistung
  • Eine vergleichsweise winzige Menge Braunkohlekraftwerke (irgendwas um die 10 GW zusammen), durchweg aus Anlagen die nach 1990 in Betrieb gegangen sind, jedoch andererseits kaum eines nach 2010.
  • Eine zu heute mehr oder weniger konstante Menge an Steinkohlekraftwerken, allerdings ebenfalls in weiten Teilen erneuert.
  • Einen deutlich größeren Anteil an Gaskraftwerken, insbesondere GuD
  • Einen gewaltig größeren Anteil an erneuerbaren Energien, die, wenn der nächtliche Tiefstand im Verbrauch und ein Maximum im Wind zusammenkommen, kurzzeitig fast 100% der Energieversorgung decken können. Über das Jahr betrachtet ergibt sich allerdings "nur" ein Anteil von etwa 25%.
  • Selbst an dem Tage des maximalen Stromverbrauches (ein Mittwoch Mittag im Januar) einen Überschuss von über 15 GW Kraftwerksleistung.
Hieraus ergeben sich vor allem diese Folgerungen:
  • Wir bauen 15 GW zu viele neue Kraftwerke.
  • Die 15 GW Grundlast-Kraftwerke (AKWs und Braunkohle) und die bisher gesetzlich vorgesehene Bevorzugung von erneuerbaren Energien kollidieren.
Relevant für die Umweltfrage ist abseits von den AKWs der CO2-Ausstoß pro kWh der einzelnen Kraftwerkstypen. Dieser liegt derzeit bei Braunkohle bei maximal 1100, bei Steinkohle bei maximal 850, bei Gas bei 400 (GuD eher 300) und bei allen anderen Formen teilweise weit unter 100 g/kWh. Neu gebaute Anlagen kommen bei Braunkohle auf unter 900, bei Steinkohle gar auf etwa 650 g. Insofern erzeugt alleine der Markt für 2020 einen CO2-Grenzwert von etwa 900 g. Und genau mit diesem Grenzwert sollte man imho arbeiten.

AKWs und Braunkohle pauschal 2020 abzuschalten, klingt auf den ersten Blick nach einer einfachen Lösung, ist dies aber nicht unbedingt, da zu dem fraglichen Zeitpunkt noch einige wenige Steinkohlekraftwerke mit sehr schlechter CO2-Bilanz übrig sein dürften, während die Konvoi-AKWs eine wesentlich bessere CO2-Bilanz aufweisen und eh zu den sichersten Kraftwerken ihrer Art weltweit gehören. Eine komplette Abschaltung der Braunkohle sehe ich jedoch als erstrebenswert an. Im Atomkonsens wurde darüber hinaus bisher (von den Medien wenig beachtet) eine Reststrommenge von rund 107 TWh vom Kernkraftwerk Mülheim-Kärlich zur weitgehend "freien Verteilung" genannt. Würde man diese auf die 3 Konvoi-Reaktoren anwenden, ergäbe dies eine Verlängerung der Restlaufzeit um je 3 Jahre. Zu überlegen ist, ob man zudem das AKW Krümmel vorzeitig stilllegt und dessen Restlaufzeiten ebenfalls auf die 3 Konvoi-Reaktoren verlagert. Das ergäbe weitere 2 Jahre. In diesen 5 Jahren wäre der Bau eines bezüglich der CO2-Bilanz bestmöglichen Ersatzes problemlos möglich, während man parallel die Stilllegung der verbliebenden Steinkohle-Kraftwerke vorantreiben könnte. Damit besteht die Chance, im Jahre 2025 einen faktischen CO2-Grenzwert von 300-400 g/kWh zu erreichen, also 1/3 des heutigen.

Freitag, 31. Juli 2009

Grusel-AKWs

In der Diskussion im Atomkraft in Deutschland geht leider eine aktuelle Meldung aus einen unserer Nachbarländer völlig unter, welche wohl selbst viele Atromkraftbefürworter zum Gruseln finden dürften. Dass das litauische AKW Ignalina nur haarscharf daran vorbeigeschrammt ist, durch ein Referendum (soviel zum Thema direkte Demokratie...) eine Laufzeitverlängerung zu bekommen, ist ja nichts neues - genauer hatten sich dort 89% bei dem Referendum für eine Verlängerung ausgesprochen, aber mit 48% hatten sich weniger als die Hälfte der Bevölkerung beteiligt, womit das ganze dann doch nicht greift. Im Ergebnis wird Reaktor (Typ RMBK-1500), der mit denen in Tschernobyl weitgehend baugleich ist, jedoch eine um 50% erhöhte Nennleistung hat, nun also doch schon Ende dieses Jahres und nicht erst 2015, wenn an gleicher Stelle ein moderner EPR steht, stillgelegt werden.

Nun kommt aber die nächste Grusel-Nachricht: In Mochovce, Slowakei werden zwei bereits 1985 begonnene und 1993 zunächst eingestellte Bauprojekte fortgesetzt, die Kraftwerke sollen jetzt 2013 ans Netz gehen. Man ahnt schon, modern wird das ganze nicht, und richtig: Der Reaktortyp ist ein WWER-440/213. Das ist nicht nur mit 440 MW einer der kleinsten Reaktortypen, die es in der EU noch gibt, es ist zudem der einzige mir bekannte, der über keinerlei Containment verfügt. Sprich: Der Reaktordruckbehälter steht ungeschützt im Maschinenhaus! Dies ist sicherheitstechnisch fatal und wirtschaftlich kaum besser: Jede kleinste Überprüfung erfordert eine komplette Abschaltung des Reaktors. Zu der Sicherheit hat die EU Kommission bereits am 15. Juli 2008 Stellung bezogen, worin das fehlende Containment kritisiert wird und eine entsprechende Nachrüstung empfohlen wird, um einen Schutz gegen den gezielten Absturz eines Kleinflugzeuges zu bieten (von größerem Reden wir erst gar nicht).

Besonders obskur ist dabei, dass für die Vollendung des Baus je nach Quelle mit Kosten in Höhe von 1,6 bis 2,78 Mrd. € gerechnet wird - zum Vergleich: Für den Bau eines EPR mit einer Nutzleistung von 1600 MW gegenüber hier 810 MW werden bei ungleich höheren Sicherheitsstandards 3,2 bis 5 Mrd € angesetzt. Eine Stromlücke gibt es in der Slowakei nach meinen Kenntnissen nicht und schon gar keine, die so schwerwiegend ist, dass man nicht stattdessen einen einzige EPR bauen könnte, der gleich alle vier Blöcke in Mochovce ersetzt (die Gesamtanlage hat nämlich die gleiche Leistung wie _ein_ EPR). Noch schöner wäre natürlich eine Investition in regenerative Energien; es würde mich arg wundern, wenn man mit den genannten Kosten und der vergleichsweise lachhaften benötigten Leistung hier nicht sogar zu weitaus besseren Ergebnissen käme.

Aufruf: Stromverbrauch von Routern

Als Beitrag zur Green IT möchte ich einmal den Stromverbrauch verschiedener DSL-Router hier sammeln, also bitte fleißig in den Kommentaren posten, die Werte werde ich dann in den Beitrag hier übertragen.

Einen ersten hab ich schonmal selbst:
T-Com Speedport W700V: WLAN aus 11,7W, WLAN an 12,3W.

Was Google so auswirft:
Teledat 431 LAN: 8W.
Draytek Vigor Router 2500WE: 13,5W.
..außerdem jede Menge Schätzungen, die einen nicht weiter bringen.

Der erste per IRC:
Linksys WRT54GL: 11,4W

Mittwoch, 29. Juli 2009

Warum "Abschreckung" als Verbrechensprevention nicht funktioniert

Oftmals wird ja gerade von Konservativen Parteien Abschreckung der Täter als Grund für drakonische Strafen genutzt und teilweise sogar als Hauptzweck von Strafen gesehen. Dies funktioniert aber nicht, da fast gar kein Krimineller eine Kosten-Nutzen-Berechnung durchführt, bevor er seine Tat begeht. Vielmehr geht diese Taktik oft genug nach hinten los.

Grundsätzlich gibt es 4 mögliche Gründe, warum jemand kriminell wird. Dies sind Unwissenheit, eine irgendwie geartete Not, Affekthandlungen und wirkliche Bereicherungsabsichten.

Der erste Fall ist der, wo die Gesetzgebung schlicht versagt hat. Kriminalität aus Unwissenheit deutet nahezu immer auf eine gesellschaftlich nicht anerkannte Gesetzgebung hin, in der irgendetwas verboten wurde, was gesellschaftlich gar nicht geächtet ist. Da schon die Strafbarkeit selbst unbekannt ist, ist es auch der Strafrahmen, also kann auch niemand durch irgendeinen Strafrahmen von der Tat abgehalten werden.

Viele, zunächst gerade kleiner Straftaten werden aus einer Not heraus begangen. Beispielsweise werden Dinge gestohlen, die lebensnotwendig sind, aber nicht legal erworben werden können. Im Regelfalle wird hier die gültige Rechtsnorm anerkannt, aber mit der eigenen Notsituation abgewogen. Gerade hier wirken sich aber drakonische Strafen negativ aus, etwa wenn die Täter gewalttätig werden, um ihre Haupttat zu vertuschen.

Einen sehr großen Teil von schweren Straftaten machen Affekthandlungen aus, in denen jemand in einer Stresssituation durchdreht. Diese Leute erkennen die gültigen Rechtsnormen sehr wohl an, sind aber kurzfristig nicht in der Lage, diese einzuhalten. Auch in diesem Falle wirken hohe Strafen tatverstärkend, wenn die Täter erneut durchdrehen, wenn sie dem Stress ausgesetzt sind, wie sie ihre Tat vertuschen können. Ein oft genanntes Beispiel sind Vergewaltiger, die ihre Opfer wesentlich eher umbringen, umso kleiner der Unterschied im Strafmaß zwischen Vergewaltigung und Mord ist.

Bleiben die eher wenigen Fälle, die tatsächlich bewusst gegen bestehende Gesetze verstoßen, ohne dass eine Notlage vorliegt, hier spricht man von "krimineller Energie". Diese Täter muss man wiederum in zwei Gruppen unterteilen: Jene, die die Rechtsnorm schlicht nicht anerkennen und jene, die ihren persönlichen Vorteil höher wiegen. Die ersten fühlen sich meist so sehr im Recht, dass sie schwerere Strafen nur zu einem "jetzt erst recht" ermuntern. Die letzteren wägen zumeist weniger zwischen Strafe und Beute ab, sondern vor allem zwischen der Aufklärungsrate und der Beute.

Aus diesem Grunde besteht für mich Verbrechensprävention aus drei Dingen: Verständlichen und anerkannten Rechtsnormen (es ist _nicht_ die Aufgabe des Staates, als moralische Instanz zu dienen; darin haben Politiker eh längst versagt!), der Verhinderung von Notsituationen (durch ernsthafte Sozialversicherung und Verzicht auf die Kriminalisierung von Süchtigen jeder Art [diese sind Opfer dritter, die es hingegen zu bekämpfen gilt!]) und durch eine wirksame, aber rechtsstaatlich abgesicherte (Merke: Was der Staat darf, wird sich so mancher für sich selbst auch herausnehmen!) Tätersuche.

Montag, 27. Juli 2009

UPDATE: Glühlampen-Fanatismus

Man hört es ja immer wieder: Energiesparlampen sind ja soo böse. Darum einmal ein paar Richtigstellungen hierzu. Auf die diversen esoterischen Äußerungen zu der "Lichtqualität" will ich hier nicht eingehen, sondern nur auf die umweltschutzrelevanten Fragen.

Das erste wäre die Energiebilanz. Dass man mit einer ESL massiv Strom sparen kann, ist unstrittig; im Falle einer 10W ESL zum Beispiel 50 kWh pro 1000 Stunden gegenüber einer 60W-Glühlampe bei gleicher Helligkeit. Nun kann ein Produkt grundsätzlich nicht mehr Produktionsenergie kosten, als es selbst kostet. Des weiteren ist Industriestrom alleine durch die Brennstoffkosten nirgendwo auf der Welt billiger als 10ct/kWh. Aus diesen beiden Punkten lässt sich für ESLs ein theoretisches Maximum von 50 kWh für die Produktioneenergie ermitteln (ergibt sich aus einem maximalen Kaufpreis von 5€ für normale Bauformen). Bereits nach diesen Zahlen ist nach 1000 Stunden die Energiebilanz einer ESL und einer Glühlampe identisch, danach (ESLs sollten mindestens 6000 Stunden halten, einige Modelle noch wesentlich mehr) spart die ESL dann immer Strom. Zur Erinnerung: 1000 Stunden sind etwa 1 1/2 Monate Dauerbetrieb oder knapp 3 Stunden pro Tag für ein Jahr. Tatsächlich muss man aus dem Kaufpreis aber auch noch Gewinne des Herstellers, dessen Lohnkosten und Steuern abziehen, die ja keine Energiekosten sind.

Die Energiekosten für die Entsorgung müssen bei einer ESL bereits im Kaufpreis enthalten sein, da die Hersteller diese Kosten übernehmen müssen.

Schadstoffe, insbesondere Quecksilber sind ein weiteres beliebtes Hetzthema. Hierbei darf in einer ESL maximal 5mg Quecksilber im Glaskolben enthalten sein (in der Praxis ist es weniger). Des weiteren wird aber bei der Stromproduktion in Kohlekraftwerken Quecksilber freigesetzt. Bereinigt mit dem deutschen Strommix sind dies 0,0147mg pro kWh (ohne eine Filterung der Kraftwerke wäre es übrigens noch mehr). In unserem obigen Beispiel also nach 1000 Stunden 0,735mg. Hier dauert es etwas länger, bis die Umweltbilanz besser ist, als bei der Glühlampe, es sind rund 6500 Stunden. Wird die ESL fachgerecht entsorgt, sind es jedoch 0 Stunden, denn deren Quecksilber lässt sich vollständig recyceln. Des weiteren gibt es inzwischen ESLs mit einem wesentlich geringeren Quecksilber-Gehalt. Philips bewirbt hier ein Modell mit 1,4mg, die Firma Megaman gibt einen Durchschnitt von "unter 2mg" für ihre gesamte Produktpalette an. Selbige Zahlen entsprechen dem durch Kohlestrom ausgestoßenen Quecksilber nach 2000-3000 Stunden. Übrigens wird das Quecksilber heute in Form eines Amalgams (wie man es aus Zahlfüllungen kennt) gebunden, wodurch das Gesundheitsrisiko nach unzähligen Studien bei 0 liegt, selbst wenn diese Substanz freigesetzt wird. Ein völliger Verzicht auf Quecksilber ist bisher leider noch nicht möglich.

Eine lokal erhöhte Quecksilberbelastung ergibt sich auch nur, wenn der Glaskolben einer ESL mit ungebundenem Quecksilber zerbricht (mir ehrlich gesagt noch nie passiert, einzig die Verbindung zwischen Glaskolben und Eletronik habe ich schon kaputt gekriegt). Gesetzlich wäre hier wünschenswert, sowohl diese Bindung vorzuschreiben wie auch den Quecksilbergehalt soweit zu reduzieren, wie dies der Stand der Technik heute erlaubt. So oder so ist jeder Nutzer einer ESL dazu aufgefordert, diese fachgerecht zu entsorgen (zumal, wenn die eigene Lampe diese Bedingungen nicht erfüllt), was bisher nur zu etwa 25% erfüllt wird.

Ein nicht so einfach zu erfassendes Problem ist der Abbau der Rohstoffe für die Herstellung von ESLs, also insbesondere Kupfer, Zinn und Aluminium, welcher teilweise Schadstoffe freisetzt. Eine genaue Erfassung hierzu gibt es bisher nicht.

Aussagen über radioaktive Stoffe generell in Leuchtstofflampen, also auch ESLs sind seit inzwischen fast 20 Jahren erledigt: seitdem sind derartige Lampen vom Markt verschwunden. Unsinnig sind Befürchtungen zu Elektromagnetischen Feldern. Derartige Felder sind in der Summe proportional zum Stromverbrauch und aus diesem Grunde bei einer ESL nur ~1/5 so hoch, wie bei einer Glühlampe. Der Einschaltstrom einer ESL entspricht übrigens für die ersten <0,1 Sekunden maximal dem, was eine normale Glühlampe dauerhaft benötigt; Aussagen, das man ESLs aus Verbrauchsgründen länger leuchten lassen sollte, sind also ausnahmslos falsch.

Kurz einmal zu anderen Punkten: Ein reales Problem vieler ESLs ist der Konflikt aus Lebensdauer und Einschaltzeit, hier gibt es aber bereits einige wenige (und teure) Exemplare, dieses Problem durch einen speziellen Aufbau (Stichwort "Elektrodenlos") komplett lösen. Auch schwankt die Einschaltzeit teilweise erheblich zwischen verschiedenen Modellen. Probleme mit Brummen oder Flimmern im Betrieb beziehen sich generell maximal noch auf extrem minderwertige Modelle.

Die Farbwiedergabe einer ESL ist - anders als bei einer Glühlampe - modellspezifisch. Es gibt hier verschiedenste Lichtfarben, wobei tendenziell die Auswahl mit steigendem Preis zunimmt. Relevante Werte sind 2700K (entsprechend einer Glühlampe), 4000K (Kaltweiß) und 7000K (Tageslichtweiß). Des weiteren gibt es Unterschiede dabei, wie gleichmäßig das Farbspektrum ist.

UPDATE

Inzwischen hab ich noch eine Studie der Firma Osram zur Energiebilanz von Leuchtmitteln gefunden. Kurzfassung: 25 Glühlampen benötigen für die Produktion etwa doppelt so viel Energie wie 2,5 ESLs oder eine LED-Lampe. Über die gesamte Lebensdauer von 25.000 Stunden ist hier von jeweils weniger als 2% der Gesamtenergie für die Produktion die Rede (rechnerisch wären das um die 100 kWh); also ein völlig bedeutungsloser Wert, wenn man die riesigen Unterschiede in der Nutzungsenergie vergleicht. Die Zahlen sind damit sogar noch etwas besser als meine obigen Berechnungen über den Kaufpreis - die energietische Amortisierung ist hiermit schon nach rund 650 Stunden erledigt.

Samstag, 25. Juli 2009

Die Panikgrippe

Die aktuelle Grippepandemie - soweit man diese überhaupt so nennen kann - ist schon ein eindrucksvolles Beispiel für gigantische Panikmache. Diese Erkrankung hat bisher weltweit (soweit man den Zahlen trauen kann) zu knapp 1000 Todesfällen geführt. Selbiges erscheint eine erschreckend hohe Zahl, solange man sie nicht mit den allgemeinen Grippetoten vergleicht: Dies sind alleine in Deutschland pro Jahr etwa 20.000. Rein statistisch (ich bin mir nicht sicher, ob es hier eine Gleichverteilung über das Jahr gibt) müsste es also in den drei Monaten, in denen das Thema durch die Medien geistert, bereits 5000 Todesfälle in Deutschland gegeben haben, ohne dass das Thema irgendwie medienrelevant wäre. Doch wie sieht es bei der "neuen Grippe" aus? Nun, es gab nicht ganz 3000 *Erkrankungen* und 0 Todesfälle. Genauer gesagt: In ganz Europa gab es 35 Todesfälle wegen der "neuen Grippe", die mit Abstand meisten davon übrigens in Großbritannien, dass die meisten Erkrankungen zu vermelden hat und für sein Gesundheitssystem bekannt ist (es wurde schon vor Jahren als "auf Dritte-Welt-Stand" bezeichnet). Übrigens in keinem noch so unterentwickelten Land kommen die Fallzahlen der auch nur in die Nähe der normalen Grippe: Es sterben mehr Menschen an der normalen, als an der neuen erkranken.

Doch nun haben die Panikmacher ein neues Potential entdeckt. Seit einigen Tagen wird in Deutschland nicht mehr kontrolliert, ob wirklich der neue Erreger vorliegt, ein Kontakt mit einer infizierten Person oder ein Aufenthalt in einem Risikogebiet genügt. Das das zu einer massiven Steigerung der Fallzahlen führt, ist wenig verwunderlich, oder? Bingo! Und was vermelden die Medien heute panisch (wobei sie eine Rückreisewelle aus dem Spanien-Urlaub als Grund nennen)? RICHTIG! Einen drastischen Anstieg der Fallzahlen. Um dem ganzen etwas mehr Feuer zu geben, werden jetzt Schnappsideen wie die Absage von Großveranstaltungen vorgeschlagen - oder ist das einfach nur das Sommerloch?

Dienstag, 21. Juli 2009

Produzent oder Konsument?

Ich selbst habe bisher gut und gerne 100 Wikipedia-Artikel geschrieben oder aus einem unbrauchbaren Zustand massiv überarbeitet (und insgesamt fast 30.000 Bearbeitungen vorgenommen). Bei Flickr sind bisher rund 50 Bilder gelandet, dieser Blog hat bald ähnlich viele Einträge. Dann wären da noch fast 20.000 Beiträge in Heise-Forum und einige zigtausende in unzähligen anderen Internetforen.

Und ich bin sicherlich bei weitem nicht einer der fleißigsten: Es gibt Wikipedia-Autoren mit weit über 100.000 Beiträgen, einer der fleißigsten hat gerade eine Liste seiner Bearbeitungen veröffentlicht und ähnlich fleißige Mitarbeiter besitzt nahezu jede Online-Community in durchaus beachtlicher Anzahl.

Sagen will ich mit dem ganzen Text, dass im Internet eigentlich fast jeder zumindest auch Produzent von Kulturgut ist. Und genau aus diesem Grunde sind die derzeitigen Versuche, Verwertungsrechte (um mal nicht das in diesem Kontext oft missverstandene Wort "Urheberrecht" zu benutzen) zu schützen maximal Protektionismus der Branche der Inhaltevermarkter.

Montag, 20. Juli 2009

Grenzen des Jugendschutzes

In Deutschland gibt es nur ein einziges Gesetz, welches zumindest an einigen Stellen dem Grundgesetz gleichrangig ist oder sogar über ihm steht, der Jugendschutz. Dies führt dann auch dazu, dass besonders viele, teilweise absurde Grundrechtseinschränkungen, die eigentlich versteckte "Sittengesetze" sind, mit dem Jugendschutz begründet werden. Aus diesem Grunde sollte man überlegen, wo sinnvoller Weise die Grenzen des Jugendschutzes liegen sollten.

  • Ein besonders großes Problem habe ich mir Gesetzen, die eine Altersverifikation vorschreiben (dies betrifft zum einen "Jugendschutzcodes" bei einigen Fernsehangeboten und zum anderen die gesetzliche Altersverifikation beim Zugriff auf einige Internetangebote). Diese Gesetze sind in meinen Augen weder verhältnismäßig noch sinnvoll. Die Verhältnismäßigkeit ist dann gestört, wenn die Internetsysteme ein bestimmtes Betriebssystem und bestimmte, kostenpflichtige Hardware vorschreiben. Hiermit werden nicht kommerzielle Angebote klar diskriminiert. Auch wenn in einem Haushalt ohne Minderjährige eine zeitgesteuerte Aufzeichnung von nicht jugendfreien Fernsehinhalten unmöglich ist, ist dies eine unnötige Einschränkung auf Kosten der Erwachsenen. Unwirksam sind derartige Lösungen sowieso: Keine technische Vorrichtung lässt sich nicht umgehen; im Falle des Internets genügt gar schlicht der Zugriff auf Inhalte aus anderen Ländern.
  • Überhaupt sollte die Wirksamkeit von Maßnahmen, die aktiv eine Nutzung durch Jugendliche verhindern sollen, hinterfragt werden. Die Kombination aus oft sehr guten technischen Kenntnissen und einem bekannten "Verboten macht interessant"-Effekt stellt für mich die Frage, ob man sich hier nicht vielmehr darauf konzentrieren sollte, dass Jugendlichen nicht versehentlich auf für die ungeeignete Inhalte stoßen können.
  • Des weiteren ist in meinem Verständnis die Erziehung immer noch die weitgehend alleinige Aufgabe der Eltern. Hierbei sollte es dann auch diesen obliegen, bestimmte Jugendschutzeinrichtungen deaktivieren zu dürfen und damit für ihre Kinder andere Wertmaßstäbe anzulegen, als dies Politiker für ideal erachten. Auch sollte aus diesem Grunde für die Eltern erkennbar sein, aus welchem Grund die Eignung eines Inhaltes angezweifelt wird. Ein "Dieser Film ist für Zuschauer unter 16 Jahren nicht geeignet" sagt nichts darüber aus, warum er es ist.
  • Unsere Gesellschaft unterliegt einem ständigen Wandel, dem sich auch der Jugendschutz zumindest nachträglich anpassen sollte. So ist Sexualität heute selbst für 14-jährige weitaus normaler als vor 40 Jahren für einen 21-jährigen (damalige Grenze zur Volljährigkeit!). Ähnliches gilt für die finanzielle Unabhängigkeit. Allen Unkenrufen zum Trotz sind heutige Jugendliche weitaus mehr in der Pflicht, zumindest einen Teil notwendiger Ausgaben von ihrem Taschengeld zu bestreiten. Hieran sollte sich dann auch der Jugendschutz orientieren.
  • In den letzten Jahren ist eine Entwicklung zu beobachten, dass Jugendschutz nach dem Prinzip "bis man 18 ist, darf man nichts; danach wird man ins kalte Wasser gestoßen" umgebaut wird. Dies ist insofern eine gefährliche Entwicklung, als dass Jugendliche so keine Erfahrung durch abgestufte Verbote mehr machen können, sondern spätestens mit 16 anfangen, reihenweise Einschränkungen zu umgehen, was sich dann nach der Volljährigkeit nicht selten in anderen Gesetzen fortsetzt.
  • Grundsätzlich halte ich es für äußerst problematisch, wenn eine Jugendschutzvorschrift zu einem "Erwachsenenschutz" wird und Erwachsenen die Nutzung von Angeboten verboten oder schwerwiegend eingeschränkt wird. Ob der Tatsache, dass es in Deutschland (aus gutem Grunde) faktisch keine "Sittengesetze" mehr gibt, derartige Vorstöße jedoch oftmals auf einem christlich-konservativen Umfeld kommen, steht zu befürchten, dass hier eine Wiedereinführung von Sittengesetzen durch die Hintertür beabsichtigt ist, welche unbedingt begrenzt werden sollte.
Aus all diesem Punkten folgern für mich vor allem zwei Forderungen. Zum einen sollten sämtliche Jugendschutzregelungen, die sich auf Rundfunk und ähnliche Einrichtungen beziehen, von einer nicht abschaltbaren technischen Nutzungssperre auf eine Kennzeichnungspflicht, in Extremfällen in Verbindung mit einem Werbeverbot reduziert werden. Hierbei ist eine Abwägung aus dem zu erwartenden Mindestalter der Nutzer und den zu erwartenden Folgen auf diese vorzunehmen. Ein Beispiel wäre Werbung auf den internen Seiten von StudiVZ/meinVZ, die eh keine Anmeldung durch Minderjährige zulassen. Andersherum ist bei teilweise auch durch Kleinkinder genutzten Fernsehgeräten durchaus beispielsweise eine Filterung der Senderlister bis zu einer Freischaltung über einen Code sinnvoll.

Dienstag, 30. Juni 2009

Offener Brief an 21 Regierungen dieser Welt

In der in Deutschland in den letzten Monaten geführten Diskussion um das Sperren oder Löschen von Kinderpornographie wurde behauptet, dass in vielen Ländern dieser Welt keine Gesetze gegen Kinderpornographie existieren würden und daher ein Vorgehen gegen die Verbreitung derart widerwärtigen Materials international nicht möglich wäre. In diesen Zusammenhang wurde eine Liste von 95 Staaten genannt, in denen es angeblich keine entsprechende Gesetzgebung geben soll. Nach einer weiteren Überprüfung der Angaben verkürzt sich diese Liste jedoch auf lediglich 21 Staaten. Diese fordere ich hiermit dazu auf, entsprechende Gesetze gegen die Verbreitung eines in sämtlichen Kulturen dieser Welt geächteten Materials zu erlassen, so dass derartiges Material weltweit bekämpft werden kann.

Die vollständige Liste der betroffenen Staaten (in alphabetischer Reihenfolge der englischen Bezeichnungen):
  • Zentralafrikanische Republik
  • Republik Tschad
  • Republik Congo
  • Elfenbeinküste
  • Demokratische Republik Kongo
  • Republik Äquatorialguinea
  • Republik Guinea
  • Republik Guinea-Bissau
  • Republik Haiti
  • Republik Irak
  • Jamaika
  • Republik der Marshallinseln
  • Republik Moldau
  • Republik Mozambique
  • Republik Nicaragua
  • Demokratische Republik São Tomé und Príncipe
  • Republik Sierra Leone
  • Saint Lucia
  • St. Vincent und die Grenadinen
  • Demokratische Republik Timor-Leste
  • Republik Togo
Eine kleine Anmerkung an alle, die diese Liste als Rechtfertigung für Sperren sehen wollen: Aus keinem der 21 Staaten sind Server mit Kinderpornos aus irgendwelchen Sperrlisten bekannt. Alle genannten Staaten haben die UN-Kinderrechtskonvention unterzeichnet (ich verweise hierbei auf Artikel 19 eben dieser). Also diese bitte auch anwenden!

Mittwoch, 24. Juni 2009

Eilmeldung!

Das Sommerloch ist hiermit offiziell eröffnet. Oder sollte das irgendwer ernst meinen?

CDU-Wahlprogramm

...oder auch: Ja ist denn schon Sommerloch?

Derzeit geht es ja durch alle Gazetten, die CDU will nach der Wahl einige Themen angehen, die mit dem Internet zu tun haben. Dass dabei absolut gar nichts zur Stärkung der Bürgerrechte ist, verwundert ebenso wenig, wie dass umso mehr davon arg sinnbefreit ist, aber was da so kommt, ist schon eindrucksvoll:

Da wäre zunächst exakt jene vom französischen Verfassungsgericht kassierte Regelung, dass Internet-Provider Selbstjustiz gegen "Raumkopierer" unternehmen sollen. Das Gericht stellte dabei fest, dass schon die Idee als solche ein Verfassungsverstoß ist, wie er kaum klarer sein könnte - aber was kümmert das die CDU?

Zum Thema "Online-Medien" (was für die CDU meint "Online-Ausgaben untoter Tageszeitungen"), will man jetzt irgendein ominöses Förderungsmodell, das arg nach "Internet-GEZ zur Förderung privatwirtschaftlicher Unternehmen" riecht. Muss man, denke ich wenig zu sagen - außer vielleicht, dass es die "Kulturflatrate" inzwischen in das Programm aller anderen Parteien geschafft hat. Für die CDU aber natürlich undenkbar.

Beim Datenschutz isses ganz einfach: Man fordert genau das, was man selbst vor wenigen Tagen dadurch verhindert hat. Logisch, nicht?

Achja, und die Netzsperren will zumindest ein CDUler auch auf die gar so bösen "Killerspiele" ausdehnen - was da genau gesperrt werden soll (PC-Spiele finden eher selten auf Websites statt) und wie man das verfassungsrechtlich degitimieren will (bei KiPo half hier ja noch das Besitzverbot), sind noch offene Rätsel. Ebenso rätselhaft ist allerdings, was man eigentlich mit einem "Killerspiel" meint - es gäbe da Spiele, die wegen Gewaltverherrluchung wirklich nicht verbreitet werden dürfen (Manhunt), welche die wegen realistischer Gewaltdarstellung indiziert sind (Quake), normale "ab 18"-Spiele, die eben Gewalt darstellen (CoD) oder eben "ab 16"-Spiele wie Counter Strike, welches gerne als Beispiel herhalten darf...

Alles in allem kann man wohl sagen, dass die CDU hiermit sicherstellen will, von der Generation der Internet-Nutzer und PC-Spieler garantiert nicht gewählt zu werden. Ob es aber soo schlau ist, sich als "Partei der Internetverweigerer" aufzustellen?

Donnerstag, 18. Juni 2009

ein schwarzer Tag für die Demokratie

http://www.heise.de/newsticker/Bundestag-verabschiedet-Gesetz-fuer-Web-Sperren--/meldung/140746/

Dienstag, 16. Juni 2009

Online-Petitionen auf dem Vormarsch

Die Online-Petition gegen Internet-Zensur, die heute ihren letzten Tag hat, ist ohne jeden Zweifel ein absoluter Erfolg. Es dürften heute noch 130.000 Unterzeichner werden, was die höchste Zahl aller Zeiten ist. Doch dieser Erfolg ist noch größer, denn es handelt sich um die erfolgreichste Petition des neuen Systems, welches eine Registrierung erfordert. Bisher war in diesem System einzig die Petition gegen die "Generation Praktikum" über 50.000 Mitzeichner gekommen und ganze 3 weitere Petitionen (eine aus dem Bereich Internet, zwei aus der Medizin) über 5000 (genauer: alle über 7500, die nächste dann unter 4000). Mit Stand heute sieht die Sache anders aus: Nicht weniger als vier weitere Petitionen neben der Internet-Zensur sind bei annähernd oder über 5000 Mitzeichnern angekommen (genauer hier: 1x knapp 9000, 1x 5500, 2x 4500). Die Themen sind zweimal die GEMA sowie das (absurde) Verbot der Umgehung wirksamer Kopierschutzmaßnahmen (ein Widerspruch in sich) und das hirnrissige Paintball-Verbot. Insofern ist das ganze schon jetzt ein großer Erfolg für die Demokratie.

Trotzdem, auch wenn es etwas spät ist, noch einmal der Link: http://zeichnemit.de/

Samstag, 13. Juni 2009

Warum "Zukunftssicherheit" bei Hardware kein Kaufgrund sein darf

Wann immer man in irgendeinem Internetforum fragt, was für einen PC man sich kaufen sollte, kommt die Aussage, dass der neue PC doch bitte "Zukunftssicher" sein soll - zu praktisch 100% ein Synonym für "überdimensioniert".

Tatsächlich sollte man aber genau das Gegenteil tun: Die Hardware so auslegen, dass sie für das, was man heute machen will gerade eben ausreicht. Selbst wenn man in 6 Monaten deswegen wieder aufrüsten muss ist diese Methode preisgünstiger. Warum?
  1. In den meisten Hardwarebereichen haben die preisgünstigsten Produkte sehr sehr deutlich das beste Preis-Leistungs-Verhältnis. EIn schönes Beispiel sehen wir in diesem Test. Die beiden langsamsten Prozessoren im dem Test (der X2 4850e und der X2 6000+) führen das P/L-Rating mit riesigem Vorsprung an. Kein Wunder: Der 4850e kostet um die 50€ und die schnellsten CPUs, die es derzeit gibt, leisten "gerade einmal" das doppelte, kosten aber rund das ZWANZIGfache. Bei Grafikkarten ist es nicht ganz so extrem, aber auch hier kostet eine GeForce GTX285 das vierfache der Sieger im P/L-Rating, leistet aber nur das doppelte.
  2. PC-Preise sinken. Eigentlich eine Binsenweisheit, aber oftmals vergessen. 2006 kostete ein Core 2 Duo zwischen 183 und 530 US-$, bei Taktraten zwischen 1,86 und 2,66GHz. Und heute? Recht gut mit dem Spitzenmodell (C2D E6600) von damals ist der Pentium Dual-Core E6300 für um die 80€. Man hätte also damals einen E6600 für 500€ kaufen können oder einfach einen - für jede Aufgabe ausreichenden - C2D E6300 (jetzt wird's kompliziert; da wurde nämlich eine Bezeichnung wiederverwendet) für 180€ und heute einen Pentium E6300 für 80€ und hätte für in Summe 240€ ein sogar noch leicht schnelleres System.
  3. Netzteile und Mainboards sind Komponenten, die gerne überdimensioniert gekauft werden. Beim Netzteil "bedankt" sich dieses durch einen erhöhten Anschaffungspreis (jenseits der 500W steigen die Preise *richtig* an) oder durch einen lausigen Wirkungsgrad bei Office-Arbeit. Bei Mainboards werden gerne Modelle mit zwei PCIe-Slots empfohlen - aber mal ehrlich, wer will denn wirklich ein SLI- oder Crossfire-System aufbauen? Doch eigentlich nur eien Verschwindende Minderheit.
  4. Auch sollte man sich fragen, wie lange diese Zukunft wirklich ist. Mein letzter Rechner war von 2005, damals habe ich nicht auf Zukunftssicherheit geachtet, also hatte die Kiste Sockel 754, DDR1-RAM, eine AGP-Grafikkarte und eine IDE-Festplatte. Hätte ich auf "Zukunftssicherheit" geachtet, wäre es wohl Sockel 939 geworden, vielleicht auch mit PCI-Express und SATA-Platte. Und heute dann? Sockel 939 ist genauso tot wie der 754, CPUs dafür gibt es schon lange nicht mehr und auch mit dem letzten kann man keinen Blumentopf mehr gewinnen. Die damaligen PCI-Express-Boards hatten dafür eine aktive Kühlung (mit kleinen Schreilüfter) und DDR2-RAM gab es eh noch nicht.
    Heute ist es akut die Frage AM2+ oder AM3 für AMD-Prozessoren. AM3 hat den Vorteil, dass man vielleicht (!) auch nach 2011 noch Prozessoren dafür bekommt; bei AM2+ wird allgemein davon ausgegangen, dass das dann nicht mehr geht. Erkauft wird diese erhoffte Zukunftssicherheit mit höheren Preisen für Board und Speicher - und 2011 schmeißt man das AM3-Board dann doch weg, weil man vielleicht eien intel-CPU will, oder einem SATA/600, USB 3.0 oder irgendein anderer neuer Standard fehlen - oder weil AMD mal wieder aus irgendeinem grund die Pinbelegung geändert hat; etwa weil (wie derzeit bei intel) der PCIe-Controller in dem Prozessor wandert.
  5. Auch beim Stromverbrauch ist (zumeist) "langsamer = besser". Zwar unterscheiden sich heutige Rechner im Idle-Verbrauch kaum noch, unter Last sind die Unterschiede allerdings riesig. Und wieso bis zu 100W mehr verbrauchen, wenn man davon nichts hat?

Donnerstag, 4. Juni 2009

Warum Quadcores nichts bringen

Eine oft gestellte Frage ist die, warum ein Quadcore-Prozessor gegenüber einen Dualcore kaum bis gar keinen Mehrwert hat, wogegen dieser doch gegenüber einem Singlecore so einen riesigen Vorteil hat. Der Grund ist so einfach wie erschreckend: Der Quadcore bremst sich selbst!

Hierfür muss man zunächst einmal verstehen, dass ein Programm, um auf mehreren Prozessorkernen laufen zu können, aufgeteilt werden muss. Und genau hier liegt das Problem, denn einer dieser Teile, genannt Threads, ist immer das Hauptprogramm, welches einen vollen Prozessorkern braucht. Der Einfachheit halber werde ich die "benötigte Rechenzeit eines Threads" einmal in MHz angeben; in der Praxis ist dieser Wert aber bestenfalls für identische Prozessoren so schön proportional.

Betrachten wir also einmal den Fall, eines Programmes, dass genau einen Kern nutzt. Hinzu kommt grundsätzlich das Betriebssystem selbst, dass wir einmal mit einem Gegenwert von 300MHz ansetzen, bestehend aus vielen kleinen Threads. Verwenden wir hierfür nun einen 2GHz-Singlecore, bleiben also nach Abzug des Betriebssystems nur noch 1,7GHz für das Programm übrig. Tauschen wir den Singlecore gegen einen gleich schnell getakteten Dualcore aus, hat das Programm hingegen 2GHz zur Verfügung und läuft daher schneller. Kern 2: 300MHz Bedarf.

Lagern wir aus diesem Programm jetzt einen Teil, der unabhängig von der Ablaufgeschwindigkeit sein soll, aus - im Falle eines Spiels etwa die KI. Diese braucht beispielsweise weitere 500MHz. In der Summe werden also 800MHz fest verbraucht. Ergebnis: Auf dem Singlecore hat das Programm noch 1,2; auf dem Dualcore aber immer noch 2 GHz zur Verfügung. Kern 2: 800MHz Bedarf.

Noch komplizierter wird die Sache, wenn wir einen dritten Thread für die Grafik nehmen. Dieser hat einen Rechenbedarf, der von dem Haupt-Thread abhängt und 1:3 beträgt. Nehmen wir den 2GHz-Singlecore, bekommt das Hauptprogramm nur noch 900MHz und der Grafik-Thread 300MHz ab. Auf dem Dualcore dagegen sind es immer noch 2GHz für das Hauptprogramm und 333MHz für den Grafik-Thread. Kern 2: 1,033GHz Bedarf.

Nun machen wir also die Grafik komplexer und das Verhältnis wird auf 1:2 geändert. Auf dem Singlecore wird die Sache mit nur noch langsam dünn, denn nur noch 800MHz bleiben dem Hauptprogramm (und 400MHz der Grafik). Auf dem Dualcore aber sidn es 2GHz für den Haupt- und 1GHz für den Grafik-Thread. Mit insgesamt 1,8GHz ist Kern 2 fast ausgelastet.

Nun mal eine bessere KI her. Die neue will statt 500 jetzt 1000MHz. Was macht der Singlecore? 466MHz für das Hauptprogramm... Gut, das können wir knicken. Der Dualcore hat aber auch ein Problem: Das Hauptprogramm könnte zwar 2GHz nutzen, doch dann müsste die Grafik 1GHz haben. Auf Kern 2 sind aber nur noch 700MHz! Also gibt's nur 1,4GHz für den Haupt-Thread. Oder umsortieren: Hauptprogramm+viel System auf 1 (1800+200), KI+Grafik+bissl System auf 2(1000+900+100). Macht 1,8GHz für's Hauptprogramm. Was machen, um wieder auf 2GHz zu kommen? Nochn Kern! Kern 1: 2GHz Hauptprogramm, Kern 2: KI (1GHz), System (300MHz), Kern 3: Grafik (1GHz).

Doll, aber da langweilen sich doch jetzt die Kerne 2 und 3. Geht das auch anders? Was passiert denn, wenn wir doch nur 2 Kerne nehmen; die aber mit 2,5GHz? Gute Idee: Auf Kern 2 sind jetzt für die Grafik 1,2GHz. Hurra, das Hauptprogramm läuft sogar schneller! Viel schneller! 2,4GHz für dieses. Bereits mit 2x 2,3GHz wären wir wieder bei den 2GHz für's Hauptprogramm.

Kann man den Effekt jetzt auch umdrehen? Also ganz viele langsame? 4x 1,5GHz und man muss nicht mehr zwischen Grafik und KI/System rechnen. 1,5GHz Grafik also.... eh, ne... wasn das? 750MHz Grafik und 1,5GHz Hauptprogramm :( War nix - wir sind langsamer, als der Dualcore mit 2GHz. Mitm 1,8GHz-Quadcore passt's dann gegenüber dem 2GHz-Dual.

Und is dann auch der 1,5GHz-Dualcore auch langsamer als der 2GHz-Singlecore? Der Singlecore hätte 466MHz für das Hauptprogramm über. Aber der Dualcore? Der muss umsortieren. 500MHz Platz für die Grafik auf Kern 2, denn das System ist jetzt mit auf der 1, wo sich 1GHz für das Hauptprogramm ergeben. Tatsächlich wäre erst ein Dualcore mit 1GHz so langsam wie der 2GHz-Dualcore: Kern 1 mit der KI, Kern 2 mit Hauptprogramm, Grafik und System, welches hier im Summe zufällig ebenfalls genau 1GHz ergeben - das das so sauber aufgeht, ist allerdings Zufall!


Das ganze ist jetzt zugegeben etwas flappsig formuliert, zeigt aber das Problem auf: Es dauert ewig, bis mehr Neben- als Hauptaktivität erzeugt ist. Danach wird erstmal der Hauptthread minimal eingebremst: keinere Nebenthreads verschieben sich auf den Kern des Hauptthreads, wo sie nur Halb so viel "Schaden anrichten". Erst, wenn in diesem Falle der KI-Thread mehr als einen halben Kern braucht, wird's übel, da nun auch das Wegschieben von allem anderen der Grafik nicht mehr genug Raum lässt und dadurch in unsem Beispiel der Haupt-Thread gleich doppelt so stark gebremst wird. In der Praxis sind die Abhängigkeiten der Threads voneinander weitaus komplexer als in diesem Beispiel genannt. Umso schwächer die Dominanz des Haupt-Threads ist, umso stärker ist der Nutzen eines Prozessors mit mehr als zwei Kernen; in Rendering-Programmen ist beispielsweise meist der Haupt-Thread winzig, verteilt aber die Arbeit an eine vorzugsweise der Zahl der Prozessorkerne entsprechende Anzahl an identischen Threads.

Im Gegensatz dazu bringt ein Dualcore _immer_ zumindest einen kleinen Leistungszuwachs, da das aktive Programm einen Kern komplett - ohne das System - für sich selbst hat. Auch dieser Effekt ist naturgemäß umso größer, umso mehr der Singlecore durch das System selbst ausgelastet wird.

Nochmal abschließend die wichtigsten Zahlen aus dem Beispiel:
  • 1 GHz Dualcore: 266 MHz für den Haupt-Thread
  • 1,5 GHz Singlecore: 133 MHz dafür
  • 2 GHz Singlecore: 466 MHz dafür
  • 1,5 GHz Dualcore: 1 GHz dafür
  • 1,5 GHz Quadcore: 1,5 GHz dafür
  • 2 GHz Dualcore: 1,8 GHz dafür
  • 1,8 GHz Quadcore: 1,8 GHz dafür
  • 2,3GHz Dualcore: 2 GHz dafür
  • 2 GHz Quadcore: 2GHz dafür
  • 2,5 GHz Dualcore: 2,4 GHz dafür
Kleines Gimmik am Rande: Jetzt takten wir die Sache mal asymetrisch (!). Also Kern 1 2GHz; alle weiteren 1,5GHz...

Dualcore: System+KI+Grafik auf 1, Haupt auf 2. Damit 1,4GHz für den letzteren.
Quadcore: Haupt auf 1, System+KI auf 2, Grafik auf 3. Damit 2GHz für den Haupt-Thread.


...Sprich: beide CPUs sind _exakt_ so schnell, als wenn alle Kerne auf 2GHz wären. Genau diese Technik beherrscht übrigens der Core i7 von intel: Dort kann ein Kern automatisch auf Kosten eines anderen übertaktet werden. Zumindest einen Teil dieses Effekts bieten AMDs Phenom-CPUs: Hier wird ebenfalls automatisch die Taktfrequenz aller 4 Kerne unabhängig geregelt werden. Im Gegensatz zum i7 müsste man hier aber wirklich einen "2GHz-Phenom" kaufen, um den oben genannten Effekt zu bekommen - auf der Stromrechnung aber immer noch besser als 4x 2GHz...

Ganz am Ende noch ein ganz wichtiger Punkt: Zu der Verwaltung der Prozessorkerne gehört auf *jedem* Kern ein Thread pro "Nachbarkern"! Aus diesem Grunde ist ein unbenutzter Kern sogar kontraproduktiv.

Dienstag, 2. Juni 2009

Generation Internet

Diesen Spiegel-Artikel, der wohl vielen vielen im Netz "aus dem Herzen spricht", sollte man gelesen haben: http://www.spiegel.de/netzwelt/web/0,1518,628017,00.html - endlich hat einmal eine Zeitungsredaktion den Konflikt verstanden! Danke, liebe Spiegel-Redaktion!

Samstag, 9. Mai 2009

PC-Aufrüstung

In Zeiten, in denen das Geld knapp ist (also bei vielen immer ;) lohnt es sich, einen alten PC nicht einfach wegzuwerfen, sondern ihn eher in Teilen aufzurüsten. Dabei sollte man jedoch einiges beachten, um nicht einerseits Flaschenhälse zu züchten oder andererseits Updates vorzunehmen, die nichts bringen. Darum hier einmal ein paar Tipps:

CPU: Den Prozessor ohne Wechsel des Mainboards auszutauschen, lohnt sich fast nie, da der Leistungszuwachs viel zu gering ist. Allgemein sollte die neue CPU mindestens doppelt so schnell sein, damit man _überhaupt_ einen Unterschied bemerkt - zu Zeiten, als diese Weiterentwicklung alleine über den Prozessortakt erfolgte, war eine solche Einordnung noch halbwegs einfach machbar; heute wird es komplizierter. Eine grobe Richtlinie: ist die CPU (egal wie billig) noch im Handel, lohnt es nicht.

Mainboard: Das Mainboard wird grundsätzlich (!) nur getauscht, wenn es defekt ist oder die CPU ein neues solches erfordert.

RAM: Nahezu jeder nicht superneue PC wird durch mehr RAM schneller, dieses Update lohnt also eigentlich immer. Grenze sind hierbei 4GB, aber das dürfte bei älteren Systemen eh eher durch die verfügbaren Speichermodule begrenzt.

Festplatte: Hier neigen Aufrüster stets dazu, Flaschenhälse zu züchten. Festplatten werden nicht nur größer, sondern auch schneller - aus diesen grund (zudem auch aus Platz-, Lärm- und Stromverbrauchsgründen) ist es nicht sinnvoll, den PC mit dutzenden kleiner und uralter Festplatten zu füllen. Insofern rate ich dazu, nicht mehr als zwei Festplatten im Rechner zu haben - ist die zweite voll, wird die ältere Platte durch ein größeres Modell ersetzt.

Grafikkarte: Derzeit sind Grafikkarten die Komponenten mit den kürzesten Produktzyklen, hier verdoppelt sich die reale Leistung nahezu jährlich. Entsprechend rentiert sich hier auch eine Aufrüstung weitaus eher, als beim Prozessor - es kann jedoch (in beiden Richtungen) irgendwann zu einem Sättigungseffekt kommen, dass die eine Komponente mit der anderen nicht mehr mithalten kann. Wann dies der Fall ist, muss man im Einzelfall abschätzen.

Netzteil: Auch die Dinger entwickeln sich weiter! Offensichtlich sind Verbesserungen bei Geräuschpegel und Wirkungsgrad, allerdings ändert sich, wie ich bereits in einem früheren Beitrag schrieb, noch mehr. Der 12V-Anteil wird immer wichtiger und die Anschlüsse immer vielfältiger. Spätestens, wenn man irgendwelche Adapter braucht, sollte man sich daher auch einmal über ein neues Netzteil Gedanken machen - und bitte nicht glauben, dass man mehr Leistung braucht; das Gegenteil ist der Fall: Wo ein 500W-Netzteil von vor 5 Jahren an seiner Grenze läuft, hat ein modernes 300W-Netzteil oftmals keine Probleme.

Sonntag, 5. April 2009

Auslegung von PC-Netzteilen

Bei der Frage, was für ein Netzteil der eigene PC nun braucht, liegen die meisten Benutzer völlig daneben und greifen zu viel zu hohen Werten. Üblicher Weise würde ein (meist altes und schon damals eher billiges) Netzteil zuvor getestet und dieses erfüllte seinen Zweck nicht - als Ergebnis muss also irgendwas mit mindestens 100W mehr her. Darum ein paar Tipps zur Auslegung des Netzteils:

Zunächst sollte der Stromverbrauch des Rechners ohne Netzteilverlust unter Last ermittelt werden. Messen lässt sich dieser nur schwer; wohl aber abschätzen: Man nehme die TDP des Prozessors, die der Grafikkarte (beide Angaben finden sich zum Beispiel in den entsprechenden Wikipedia-Artikeln; steht bei der Grafikkarte nichts, sind für PCI- und AGP-Karten pauschal 25W anzusetzen). Hierzu addieren wir pauschal 50W für das Kleinzeug sowie 10W pro Festplatte. Hierbei ergibt sich ein Wert zwischen 100 und etwa 400W; höhere Zahlen kommen so gut wie nicht vor!

Extrem wichtig ist, welche Zahl beim Netzteil man ansetzt. Heutige PCs wandeln nahezu alle Spannungen aus einer Eingangsspannung von 12V; dies war bei wesentlich älteren PCs noch völlig anders. Dies führt dazu, dass noch bis 2005 ein typisches 350W-Netzteil nur 15A auf der 12V-Leitung hatte, was unwesentlich mehr als die Hälfte der Nennleistung war. Dagegen haben heutige Netzteile in dieser Leistungsklasse meist um die 25A 12V, was 300W sind. Aus diesem Grund sollte man ältere Netzteile als '12V-Leistung + 50W' berechnen, was unter Umständen wesentlich geringere Werte ergibt.

Ein "viel hilft viel" ist keine gute Idee! Grundsätzlich sollte der Rechner niemals weniger als 20% der Nennleistung des Netzteils ziehen, da hier der Wirkungsgrad massiv abfällt (mit diesem Wert wird halt nicht mehr geworben...). Bei Rechnern mit leistungsstarken dedizierten Grafikkarten (Merkmal: PCI-Express-Karte mit zusätzlicher Stromversorgung) ist dies erst bei Netzteilen über 400W ein Problem. Bei kleineren PCs kann man leider das Problem nicht ganz umgehen, da es bei einem Leerlauf-Verbrauch von 40-50W halt bereits bei einem (im Handel derzeit nur in völlig veralteter Form verfügbaren) Netzteil mit 200-250W auftreten würde. Hierfür muss man sich also leider auf Tests verlassen, die den Wirkungsgrad bei sehr geringer Auslastung angeben.

Derzeit weitgehend als "Universalnetzteil" gilt das Enermax Pro82+ mit 385W. Dieses Netzteil reicht nach oben für dieverse PCs aus und hat den Ruf, auch bis runter zu einer Auslastung von nur 10% noch einen sehr guten Wirkungsgrad zu liefern. Baugleiche Netzteile werden von Saphire als "FirePSU" angeboten; hier ist auch eine Variante mit nur 325W geplant, die voraussichtlich bei PCs unter etwa 75W einen noch besseren Wert liefern würde.

Sonntag, 15. März 2009

Sparsamer PC?

So langsam kann ich es nicht mehr hören... Jeden zweiten Tag kommt irgendwer, dessen PC-Kenntnisse bestenfalls als "gefährliches Halbwissen" einzuordnen sind und erzählt, das ja moderne PCs total scheiße wären, weil sie so unendlich viel Strom verbrauchen. Ermittelt wird diese Aussage aus der Existenz von netzteilen mit über 1 kW Nennleistung oder aus der "TDP" von Prozessoren. Darum hier einmal ein paar Fakten zu diesen Zahlen:

  • Die TDP eines Prozessors ermittelt sich aus einem Stufen-System (intel: 35, 65, 95, 125W; AMD: 45, 65, 95, 125, 140W) und dem Stromverbrauch, wenn alle Prozessorkerne (bis zu vier) komplett ausgelastet sind. Eine TDP von "95W" sagt also nichts anderes aus, als das der Prozessor im schlimmsten Fall über 65W verbrauchen kann.
  • Über den Stromverbrauch, solange der Rechner nicht ausgelastet wird, sagen diese Zahlen gar nichts aus; dieser liegt vielmehr bei sämtlichen neueren (genauer: bei AMD nach 2005 ["Athlon 64"], bei Intel nach Herbst 2006 ["Core"]) Prozessoren bei 3 bis 10 W.
  • Für einen kompletten Rechner ohne eine dedizierte Grafikkarte kommt man so weitgehend unabhängig von der Rechenleistung auf einen Verbrauch von 50W und weniger. Ein solcher Rechner wird im extrem Fall (größter verfügbarer Prozessor und Rechner wie auch Onboard-Grafik komplett ausgelastet) auf etwa 220W kommen.
  • Erst mit einer dedizierten Grafikkarte, wie sie praktisch ausschließlich für 3D-Spiele erforderlich ist, entsteht ein höherer Stromverbrauch, der jedoch weiterhin auch unter Last nicht über 400W steigen wird. Darüber hinaus kommen nur Systeme mit SLI oder Crossfire, die aber nach Stückzahlen völlig bedeutungslos sind.
  • Die Nennleistung des Netzteils hat erst einmal nichts mit dem Stromverbrauch des Rechners zu tun!
  • Selbst ein Verbrauch von rund 40W im nicht-3D-Betrieb stellt heute kein Problem mehr dar: AMD Athlon X2 5050e, Onboard-Grafik (z.B. AMD 780G-Chipsatz), 5400rpm-Festplatte (z.B. Samsung Eco oder WD Caviar Green) und ein effizientes Netzteil (z.B. Enermax Pro82+-Serie) - ein solches System lässt sich für unter 400€ zusammenstellen.
Ein paar Zahlen zum Vergleich:
  • Ein PC bis zu etwa 500MHz verbraucht weitgehend unabhängig von der Leistung und Ausstattung 50W - egal ob unter Last oder im Leerlauf. Damals haben sich die diversen Veränderungen gegenseitig mehr oder weniger egalisiert. Rechner dieser Zeit mit modernen Festplatten und/oder Netzteilen ausgestattet erreichen allerdings teilweise Traumwerte weit darunter.
  • Ein AMD Athlon mit 1 GHz und einer GeForce 2 GTS (damals eine sehr verbreitete Kombination) liegt bei etwa 120W. Ebenfalls immer. Moderne Netzteile und Festplatten können kaum unter 100W drücken.
  • Ein Pentium 4-System (oder gar "Pentium D") mit einer GeForce 6 kann durchaus weit über 300W kommen. Die Wirkung von etwaigen Stromspar-Funktionen kann hierbei vernachlässigt werden, da sie eher dazu implementiert wurden, den Prozessor vor dem Hitzetod zu bewahren. Hier ist bezüglich Optimierungen Hopfen und Malz verloren.

Sonntag, 8. März 2009

Hardware-Kaufberatung: Desktop-PC

Die CeBit ist so gut wie gelaufen; da ist es Zeit, ein Fazit zu ziehen. Ich ziehe meines in der Form, mal wieder ein paar Empfehlungen für einen neuen PC zu geben. Diese werde ich für die einzelnen Arten von PCs getrennt halten, insofern werden noch Versionen für Notebooks, Netbooks und vielleicht auch für Nettops folgen.

Um nicht unendlich zu schwafeln, will ich mich auf einige Eckdaten, die ein Rechner derzeit je nach Anwendungsfall haben sollte, beschränken.

Office- und Heim-PC
Für die meisten PCs spielt die Rechenleistung de facto gar keine Rolle mehr; interessant wird hier viel mehr der Stromverbrauch. Insofern setzen wir in die Kiste einen Dualcore-Prozessor (ob intel oder AMD ist unterm Strich ziemlich egal) und verwenden ein Mainboard im µATX-Format mit einer möglichst leistungsstarken Onboard-Grafik. Mehr Leistung kostet hier höchstens einen minimalen Mehrpreis bei der Anschaffung. Zu Empfehlen wäre der 780G oder 790GX für AMD-Systeme; für intel kommt eine brauchbare Leistung nicht aus eigenem Hause (die Dinger haben bisher nicht einmal eine funktionierende HD-Video-Beschleunigung), sondern von nVidia, genannt "GeForce 9300 mGPU" oder "9400 mGPU". Ansonsten sollte man noch darauf achten, dass dasd Board über vier Speichersockel verfügt, sonst wird irgendwann der Speicherausbau zur Sackgasse und erfahrungsgemäß kranken völlig veraltete Rechner am ehesten dort.

Irgendwelche Erweiterungskarten sparen wir uns, da alle erforderlichen Komponenten bereits auf dem Board selbst vorhanden sind. Als Arbeitsspeicher rate ich zu 2x 1 oder 2x 2 GB DDR2-800 mit CL4. Mehr bringt nichts, aber Speicher kostet derzeit fast nichts mehr, also nicht unnötig geizen. Als Festplatte ist die "Caviar Green"-Serie von WD zu empfehlen; hier insbesondere das Modell mit 640GB. Dieses hat eine extrem geringe Stromaufnahme von 2,5W, ist aber nur unwesentlich langsamer als normale Modelle mit 7-8W. Falls ein DVD-Brenner geplant ist, erscheinen demnächst (etwa April) Modelle, die eine DVD in zumindest theoretisch knapp unter drei Minuten beschreiben können. Beim Netzteil sollte man nur auf eine Nennleistung von um die 300W und einen Wirkungsgrad von etwa 80% achten; leider gibt es hier keine wirklich besseren Modelle bisher.

Auch mal was Spielen
Will man auf dem PC auch etwas neuere Titel spielen können (bis zu einer Auflösung von etwa 1680x1050 Pixeln und bei ganz neuen Titel gegebenenfalls mit leicht reduzierten Einstellungen), sind nur geringe Änderungen erforderlich. Das grundlegende System bleibt das gleiche, wobei hier über einen Quadcore nachgedacht werden könnte. Wesentlich wichtiger ist eine Grafikkarte der Mittelklasse, wo sich insbesondere ATI Radeon HD 4670 anbietet, da diese im "Leerlauf" sehr wenig Strom verbraucht. Das Netzteil kann in diesem Falle noch das gleiche bleiben.

Schnelle Daddelkiste
Sind die Wünsche an die Spieleleistung größer, muss sich natürlich auch der Rechner hieran anpassen. Für eine Auflösung von bis zu 1920x1200 Pixeln bei maximalen Einstellungen auch für in den nächsten Monaten erscheinende Titel, wenn möglich auch mit 4x oder sogar 8x Antialiasing ist dann doch etwas mehr Leistung erforderlich. Auch in diesem Falle bleibt jedoch ein Quadcore-Prozessor optional. Wesentlich wichtiger ist die Grafikkarte, wo sich GeFoece GTX 260 und 285 bei nVidia und die Radeon HD 4850/4870 bei ATI anbieten. Als Netzteil ist jetzt allerdings ein 400W-Modell zwingend erforderlich, welche es bereits mit einem Wirkungsgrad von 85% und in den nächsten Monaten wohl sogar mit 90% geben wird.

Leistung ohne Ende
Wenn einem auch diese Leistung nicht ausreicht, etwa weil man eine Auflösung von 2560x1600 Pixeln, wie sie an 30 und 32"-Bildschirmen Verwendung findet, befeuern will, muss zur "Holzhammer-Methode" gegriffen werden. In diesem Falle wird ein Quadcore zur Pflicht und als Grafikkarte sind entweder Dual-GPU-Modelle wie die nVidia GeForce 295 oder ATIs Radeon HD 4850 X2 und 4870 X2 oder eine - meist noch etwas schnellere - SLI- bzw. Crossfire-Konfiguration aus einer der im vorherigen Absatz genannten Karten zu empfehlen. Für den Stromverbrauch unterscheiden sich beide Konstruktionen ebenfalls nur minimal. Als Netzteil sollte man jetzt bei 600W auf der sicheren Seite sein. Derartige Modelle sind bereits mit 90% Wirkungsgrad im Handel erhältlich. Beim Mainboard sollte man bedenken, dass mal für SLI bzw. Crossfire zwei PCI-Express 16x-Slots benötigt.

Noch extremere Konstruktionen, bestehend aus drei normalen Grafikkarten bringen noch etwas mehr Leistung, jedoch auch einen nochmals deutlich erhöhten Stromverbrauch. Systeme, in denen zwei Dual-GPU-Karten verbaut werden, fallen hingegen vor allem durch extreme Zuverlässigkeitsprobleme auf und bringen kaum weitere Mehrleistung.