Dienstag, 31. August 2010

Der weiße Fleck, der woanders war

Die Deutsche Telekom hat nun in Kyritz im Nordwesten Brandenburgs den ersten Sendemast einer neuen Mobilfunktechnik, genannt "LTE" aufgebaut. Die Stadt mit knapp 10.000 Einwohnern war dem Rest der Republik wohl bisher entweder völlig unbekannt oder der Name ist im Kontext des Bombodroms einmal gefallen, dessen Gebiet als Kyritz-Ruppiner Heide unter anderem nach diesem Ort benannt ist. Entsprechend niedrig ist der Wissensstand über den Ort, was sich offenbar bis weit in die IT-Fachjournalisten zieht – man ließt nämlich den schönen Satz "ein weißer Fleck von der Breitband-Landkarte gestrichen" an diversen Stellen. Fragt man einmal die Ortsansässigen, die es wider jedes Erwartens im Internet gibt, staunt man: In der Innenstadt gibt es 6, in den Randbereichen 2MBit-DSL. Und irgendwo wird da auch gerade ein VDSL mit bisher allerdings nur 16MBit aufgebaut – ein weißer Fleck ist DAS nicht.

Ganz anders ließt sich die Meldung dann bei heise: Hier ist von der im Westen angrenzenden Gemeinde Gumtow mit 3700 Einwohnern die Rede. Hier erleben wir dann das klassische DSL-Problem, wo der eine Ort VDSL hat und der Vorort sich über Sumpf-DSL freuen kann. Offenbar ist es (nicht nur hier) für die Telekom rentabler, einen Ortskern von 6 auf 16 oder gar 52 MBit aufzurüsten als Vororte überhaupt zu versorgen… Bin ich der einzige, der das nicht wirklich glaubt und es vor allem ziemlich doof findet?

Ein paar weitere offene Fragen gibt es noch: Angeblich gibt es keine Geräte (in Schweden aber durchaus, inkompatible Standards?), Preise will die Telekom nicht nennen, sondern "in Abhängigkeit von den Gerätepreisen" (sic!) festlegen und für die Bandbreite ist nur von 2MBit die Rede. Das wäre weniger als UMTS, aber offenbar meint man die "Erwartete Bandbreite pro Kunde" – nur bei wie vielen Kunden, das steht da nicht; sicherlich nicht bei 3700… Da ist dann also noch ein weißer Fleck, nämlich der im Informationswert des Artikels.

Dienstag, 24. August 2010

Der Stein auf dem Weg zu kleineren PCs

Die IT definiert sich ja traditionell über den Weg zu immer stärker integrierten Bauteilen. Insofern müssten die PCs ja auch – zumal die Leistung stärker steigt als die Nachfrage nach ihr – immer kleiner werden. Für einige Spezialgeräte gilt dies sicherlich (man denke nur an die ersten Laptops im Vergleich zu einem heutigen Netbook oder gar Smartphone!), aber der "normale" PC wird kein Stück kleiner. Kleinere Mainboard-Formate gibt es durchaus, bleiben aber in der Praxis ohne großen Effekt auf die Gehäusemaße. Von den rund 1500 Gehäusen, die die Geizhals-Datenbank so kennt, hat gerade einmal 1/3 ein Volumen von weniger als 30L. Größer war der Ur-PC auch nicht. Bei weniger als 20L landen dann noch gerade einmal 86 Einträge (1/17 des Angebotes). Im Gegensatz dazu bewegen sich Nettops zwischen 1 und 5L.

Während nämlich ein Mainboard heute teilweise nur noch einen Bruchteil des früheren Platzes belegen (von 30*24cm bei ATX auf 17*17cm bei ITX) und Erweiterungskarten nur noch in Ausnahmefällen gebraucht werden, sind alle anderen Komponenten keinen Millimeter kleiner geworden, als bei der Erfindung des PCs Mitte der 1980er.

Angefangen mit dem unumgänglichsten Teil, dem Netzteil. Hier gibt es die allgegenwärtige ATX-Norm, mit der das Netzteil alleine ungefähr so groß ist wie ein durchgehend aus spezial-Komponenten bestehendes Nettop. Es gibt zwar etwas kleinere Normen (SFX und TFX), aber wirklich was bringen tun diese auch nicht, dafür schränken sie die Auswahl der möglichen Netzteile gleich mal gewaltig auf welche mit der Technik der einfachsten ATX-Modelle ein. Sieht man sich die Größe externer Netzteile für Notebooks oder Nettops an (die es durchaus bis 120W gibt), wird klar, dass es wesentlich kleiner ginge – da es hier aber keine Norm gibt, setzen die Hersteller von kleinen Gehäusen auf Eigenentwicklungen mit meist unbekannter Qualität oder gleich auf externe Lösungen samt einer Wandlerplatine im Gehäuse. Die letztere Lösung gibt es als "Pico-PSU" auch für Bastler, dies aber zu aberwitzigen Preisen.

Bei Festplatten und Optischen Laufwerken kann man mit dem Griff in die Notebook-Abteilung eine ganze Menge Platz sparen. Das optische Laufwerk bleibt aber als nach unten begrenzender Faktor der Gerätebreite (eine CD/DVD/BluRay ist nun einmal 12cm groß) erhalten, egal wie eng es sonst gebaut ist. Auch hier haben die kompakten Laufwerke zudem diverse Nachteile von langsamer über teurer bis schlechter verfügbar.

Erweiterungskarten braucht man heute, wie schon gesagt, nur noch für Spezialaufgaben wie TV-In oder wenn die Zahl der Anschlüsse nicht ausreicht. Sobald eine Grafikkarte zum Einsatz kommen soll, ist es mit "Kompakt" sowieso vorbei. 2 Slots belegen die nämlich gleich mal ganz selbstverständlich, nur eine winzige Minderheit begnügt sich da noch mit einem. Ist nun das Gehäuse auf nur einen Slot ausgelegt (wie bei der ITX-Norm üblich), ist eine Grafikkarte damit de facto ausgeschlossen. Inzwischen sind die kleinen Gehäuse dann auch mal für Mini-DTX gedacht, was einen Slot mehr bedeutet. Boards, die tatsächlich 2 Slots haben, sind wohl aus dem gleichen Grunde dann nicht im Handel anzutreffen.

Hier wird auch recht klar, wie die Mehrheit der PCs in 10 Jahren aussehen wird: Die Technik entstammt dem, was heute die Notebooks sind (schon jetzt sind dort die Stückzahlen größer!) und analog hierzu beschränkt sich die Hardware-Erweiterbarkeit auf externe Geräte, RAM und eine neue Festplatte. Nur die Freaks werden sich weiter mit Steckkarten und austauschbaren Netzteilen beschäftigen, deren Stückzahlen dann aber keine wirklich große Bedeutung mehr haben werden.

Freitag, 20. August 2010

Löschungen bei Wikipedia vermeiden

Ich möchte an dieser Stelle einmal erklären, wie man am wirksamsten die Löschung eines selbst erstellten Artikels bei Wikipedia vermeiden kann.

Hierfür muss man als erstes einmal die Löschprozedur verstehen. Einen Löschantrag kann und darf jeder stellen, auch ein unangemeldeter Benutzer. Letztere und auch Neulinge sollten sich dies aber nicht zur Haupt-Tätigkeit machen, denn "Berufslöscher" sind in WP inzwischen ungerne gesehen; die zwei alteingesessenen ("Weissbier" und "Eingangskontrolle") dienen hier wohl zum einen der Abschreckung, haben zum anderen aber einen gewissen Bestandsschutz. So eine Löschdiskussion kann nun auf vier Arten enden: Der Artikel wird behalten oder gelöscht; jeweils kurzfristig oder nach einer Woche. Insgesamt bewegt sich die Überlebenschance eines zur Löschung vorgeschlagenen Artikels schon seit Jahren um die 50%, wenn nicht inzwischen noch höher. Ist der Löschantrag offensichtlicher Unsinn (Extrembeispiel jemand will den Artikel zu Angela Merkel wegen Irrelevanz löschen), fliegt der Antrag schnell raus – nennt sich bei Wikipedia dann "LAE" (Löschantrag entfernt"). Ist der Artikel offensichtlicher Unsinn (Ein angeblicher "Internet-Promi" mit 0 Google-Treffern ist wohl ein Fake), wird umgehend gelöscht. Ebenso gibt es für viele Themen umfangreiche Datenbanken, in denen das Thema als "Existenznachweis" erwähnt sein sollte. Selbiges gilt auch, wenn keine Indizien zu erkennen sind, dass das Thema relevant sein könnte. Ein gerne mal vorkommender Fall wäre etwa ein Sportverein, über den da schön drin steht, dass er in irgendeine bedeutungslosen Liga Fußball spielt (solche Anlagen gibt es zu Hauf und wären nicht relevant), vergessen wurde aber, dass die Abteilung im Tischtennis deutscher Meister wurde. Sowas wird dann natürlich halt auch fix gelöscht, wenn es nicht vorher einer merkt – das ganze wird "SLA nach LA" genannt, also "Schnelllöschantrag nach Löschantrag" (oder besser: Nach eindeutiger Löschdiskussion). Hier merkt man schon, dass es auch noch den "SLA" ("Schnelllöschantrag") alleine gibt, das ist dann für den offensichtlichen Unfug ("Mein Tischnachbar stinkt"), aber auch für "Artikel", die nur aus einem Satzfragment bestehen oder wo der Antragsteller sich sicher ist, dass der Artikel nix wird! Einsprüche sollten dort schnell erfolgen, und zwar direkt unter dem Antrag und begründet. Für die Abarbeitung nach einer Woche bleiben die Artikel, bei denen die Sache nicht so eindeutig ist, und genau hier kann der Autor selbst was retten.

Die wichtigste Frage ist die Erfüllung der Relevanzkriterien durch den Artikel. Diese Kriterien sind nicht immer so ganz logisch, weshalb man da am besten einmal selbst reinguckt. Das diese Relevanz erfüllt ist, muss natürlich auch in dem Artikel stehen, denn niemand kann hellsehen und das ganze ist in der Regel sowieso die wichtigste Information. "Angela Merkel ist eine studierte Physikerin." interessiert eher wenige, "Angela Merkel ist deutsche Bundeskanzlerin." definiert dagegen klar die Relevanz und liefert auch gleich die wichtigste Aussage zur Person. Oftmals (ganz besonders bei Firmenartikeln!) ist es wichtig, dass diese Relevanzmerkmale auch durch eine entweder unabhängige oder gesetzlich zur Wahrheit verpflichtete Quelle belegt werden kann. Der berühmte Satz "weltweit führendes Unternehmen" von der eigenen Website führt als Werbung eher zur Schnelllöschung; schreibt sowas aber eine überregionale Tageszeitung über das Unternehmen, sieht die Sache ganz anders aus. Ansonsten ist es sehr förderlich, sich die Löschdiskussion einmal durchzulesen; insbesondere auch die Antragsbegründung und eventuell die Begründung weiterer "Löschen"-Kommentare. Hieraus ist recht schnell zu erkennen, was man am Artikel noch ändern muss und ob es womöglich auch schlicht nicht möglich ist, den Artikel zu retten, weil das Thema eben wirklich nicht relevant ist.

Die Auswertung der Löschanträge nach einer Woche erfolgt nach den gelieferten Argumenten, NICHT nach der Anzahl derer, die "Löschen" oder "Behalten" schreiben. Wenn der Antragstext lautet "Irrelevant" und 30 Leute da drunter schreiben "hübsches Foto, behalten", wird natürlich trotzdem gelöscht; andersrum wird der Artikel aber natürlich auch behalten, wenn alle 30 dem Antragsteller zustimmen, aber nach 3 Tagen einer kommt "ehy, der Typ war mal Minister in XY!" (mit Belege natürlich, Scherzkekse gibt es auch da). Irgendwo dazwischen ist dann der Bereich, in dem der auswertende Admin einen Würfel nimmt (aus Sicht des Admins empfielt es sich, so eine Entscheidung dann zu begründen; das Eingeständnis des Würfelns dürfte der eigenen Reputation abträglich sein). Wenn du meinst, dass der Admin da völligen Käse entschieden hat, sprich ihn an und erkläre ihm, welches Argument er denn da nun übersehen haben soll – das ganze funktioniert übrigens in beiden Richtungen. Hat man den Eindruck, hier gegen eine Wand zu reden, gibt es irgendwann auch noch die Löschprüfung als Revisionsinstanz. Hier wird NICHT neu entschieden, sondern nur die Entscheidung überprüft. Anders als vor Gericht darf man aber auch neue Argumente einbringen; im Extremfalle sogar auf eine veränderte Faktenlage hinweisen.

Ein paar Tabu-Argumente für Löschdiskussionen gibt es auch noch:
  • "Das hat doch einen Artikel in 10 anderen Sprachen!" (manche Werbespammer schaffen bis zu 20, einfach mal maschinell übersetzt.)
  • "Aber Amazon.de hat auch einen Artikel, wieso dann mein geplanter Webshop nicht?" (Selbsterklärend, oder?)
  • Richtig böse ist die Variante "Aber die völlig unbekannten Bands X und Y haben auch einen Artikel!" (da kann es dann passieren, dass diese beiden recht bald auch keinen Artikel mehr haben, weil sie bisher schlicht übersehen wurden)
  • Jegliche Argumente, in Richtung "Löschen ist doch sowieso doof" werden schlicht ignoriert. Die Löschseite ist nicht für Grundsatzdiskussionen da.

Am sichersten Ruhe vor dem ganzen Löschgekaspere hat man, wenn aus dem Artikel so klar hervor geht, warum dieser Artikel hier steht, dass dies auch die Leute verstehen müssen, die es eigentlich gar nicht verstehen wollen. Dazu gehört neben einer Nennung des Relevanzmerkmals am besten gleich im ersten Satz auch eine möglichst umfangreiche Nutzung von unterschiedlichen Einzelnachweisen vorzugsweise von Stellen, die sogar ein kompletter Offliner kennen müsste.

Donnerstag, 19. August 2010

E-Autos bald ohne große Akkukosten?

Bisher sind neben der Reichweite die Kosten für den Akku das größte Argument gegen Elektroautos. Wenn der Akku nicht fürchterlich klein sein soll, sind da schnell mal 10.000€ weg. Die Einsparungen gegenüber einem Auto mit Verbrennungsmotor sind dagegen vergleichsweise winzig, so dass der Wagen effektiv deutlich teurer wird.

Nun ist allerdings die Entwicklung eines Akkus angekündigt worden, der ohne irgendwelche gravierenden Nachteile zu haben, 85% dieser Kosten einsparen soll – sprich: Ein Akku in heute üblicher Größe kostet dann also nur noch 1500€. Oder man investiert mehr Geld und hat daher eine wesentlich Reichweite… Die Sache hat allerdings den Haken, dass der Hersteller bisher nicht ansatzweise verrät, wie dies funktionieren soll. Auch dass die Entwicklung nicht durch das effektiv dahinter stehende Unternehmen A123Systems, sondern über ein Spin-off namens "24M" geregelt wird, lässt den Verdacht aufkommen, dass man sich hier des Erfolges nicht so ganz sicher ist. Immerhin hat dieses Spin-off jetzt aber 16 Mio. US-$ zur Verfügung, hoffen wir also, dass sie das Wunder wirklich erfüllen können.

Street View – was sieht man denn?

Wenn man sich die Debatte um Google Street View einmal ansieht, bekommt man den Eindruck, dass sich nach der Wende das "Tal der Ahnungslosen" nicht etwa aufgelöst, sondern einfach auf das gesamte Bundesgebiet ausgedehnt hatte… Die Annahme, was Google hier veröffentlichen will, scheint sich irgendwo im Bereich von Echtzeitvideos von jedem beliebigen Standort dieser Welt, inklusive des eigenen Vorgartens mit einer Verknüpfung sämtlicher nur irgendwo jemand erfassten Daten inklusive mindestens der Angabe aller Wohnorte (natürlich durchsuchbar) und vermutlich auch noch deren Einkommens- oder Krankendaten, zu bewegen. Würde dies zutreffen, ich würde die ganzen Proteste sogar verstehen! Und zwar voll und ganz! Und ich würde sie unterstützen!

Die Sache hat nur einen Haken: Diese Vorstellung ist vollkommener Humbug!

Was Google uns hier zeigt, und wie man am Beispiel diverser Städte in diversen Ländern bereits sehen kann, ist etwas völlig anderes. Es handelt sich vielmehr schlicht um von dem Fahrzeugdach aufgenommene Rundumblicke, deren Aufnahmestandorte einen Abstand von in den meisten Bereichen etwa 10m, teilweise aber auch wesentlich mehr haben. Auf diesen Fotos lassen sich kaum die Verkehrszeichen lesen (nicht zuletzt, weil die automatische Verpixelung sowieso auf alle möglichen Strukturen reagiert). Konkret habe ich als Muster gerade eine Aufnahme an der Nordseite des Dom von Utrecht (wer es genau wissen will: Ecke Domstraat/Voetiusstraat). Das Foto hat eine nicht ganz bildschirmfüllende Auflösung (wenn es nicht sogar dafür schon gestreckt wird, denn es wird bei weiteren Vergrößerungen sehr schnell pixelig) und ähnlich wenig, wie es ein 2MPix-Handyfoto aus dieser Perspektive tun würde – wenn nicht weniger, insbesondere wird leider der obere Teil des Kirchturms nur sehr unscharf abgebildet. Die Verpixelung erwischt übrigens nicht nur Gesichter und Kennzeichen, sondern schlägt hier und da auch mal bei Verkehrszeichen, Autofelgen oder anderen ähnlichen Teilen zu.

Kurz: Wer Google Street View verbieten will, hat es entweder noch nicht gesehen oder hat offenbar die Absicht, Fotos im Freien generell zu untersagen. Oder er will einfach nur mit einer sinnlosen Panik irgendwelche Angst schüren…

Montag, 16. August 2010

Interessenprofile wirklich ein Datenschutzthema?

Ich möchte einmal in Frage stellen, ob es sich bei den gerne als Datenschutzthema genannten "Interessenprofilen" wirklich um ein Datenschutzthema handelt, oder ob hier nicht vielmehr rein prinzipielle Sorgen auf sehr praktische Vorteile stoßen.

Ein solches Profil dient rein wirtschaftlich schlicht dazu, den Kunden zielorientierte Werbung zukommen zu lassen; also einem Ökofundi besser Werbung für ein neues Fahrrad als für einen 15L verbrauchenden SUV anzuzeigen und dem sozial interessierten Geek lieber einen Werbebanner mit geekingen Shirts als einen von Kik… Von diesem Prinzip profitieren im Grunde beide Seiten: Der Werbende hat bessere Chancen, dass die Werbung ihr Ziel auch erreicht; der Kunde trifft eher auf ein Werbebanner, das etwas bewirbt, was ihn auch interessiert. Noch größer der Profit für den Nutzer, wenn ihm über dieses System auch ihn vermutlich interessierende sonstige Inhalte zu sehen bekommt.

Im Internet werden solche Profile seit eh und je massenhaft erstellt. Werbebanner-Anbieter wissen ja auch, in welche thematische Ecke welche Seite gehört, auf der ihr Banner eingeblendet wird. Schon ist schnell identifiziert, welche IP welche Seiten besucht. Jetzt noch ein Cookie, um als den täglich wechselnden IPs einen Benutzer zu machen und fertig. Den Dingern zu entkommen, geht nicht wirklich, denn es gibt genug andere Wege, um einen Rechner eindeutig zu erkennen. All diese Profile sind übrigens anonym; ja die Anbieter haben gar kein Interesse daran, sich mit großer Mühe irgendwelche Merkmale zur Identifikation zu suchen – denen ist ziemlich egal, ob sie nun 'Herrn Fritz Meier aus Hintertupfingen' oder 'dem Benutzer mit Cookie Nummer 374' dieses spezielle Werbebanner anzeigen. Eben so wenig wird ihn eine zu genaue Unterteilung interessieren, die dann nur die Zahl der Werbekunden für diese Nische unnötig eingrenzt.

Eine Postadresse, wie sie bei Kundenkarten mit dem Profil verknüpft ist, um die Werbung denn auch zustellen zu können, ist zunächst auch noch harmlos. Interessant wird es erst, wenn das exakte Verhalten (also die Einzelevents) in Verbindung mit einer Adresse gebracht werden und diese exakte Information bei einer Stelle landet, die der profilierten Person aus diesem Einzelevent irgendeinen Strick drehen will. Jetzt stelle ich mir allerdings die Frage, was wahrscheinlicher ist: Dass dein Chef dich aus dem Sexshop kommen sieht oder dass ihm irgendwelche Profildaten in die Finger gelangen, aus denen zu erkennen ist, dass du zu diesem Zeitpunkt in einem Sexshop etwas mit einer EC-Karte (nehmen die überhaupt Kartenzahlung?) gekauft hast?

Montag, 9. August 2010

GVU als Löschtroll

Bei Wikipedia nennt man jemanden, der ohne oder mit fragwürdigen Argumenten und dem starken Verdacht einer persönlichen Aversion etwas löschen will, einen Löschtroll. Und genau dieses Verhalten zeigt jetzt offenbar auch die Gesellschaft zur Verfolgung von Urheberrechtsverletzungen. Hinter diesem sperrigen Namen verbirgt sich nicht etwa irgendeine staatliche Einrichtung, wie man sicherlich gerne den Anschein vermittelt, sondern eine Lobby-Organisation, die mit teilweise gnadenlos übertriebenen Mitteln gegen Urheberrechtsverletzungen vorgeht und einer der Haupt-Wortführer hinter Aktionen wie Raubkopierer sind Verbrecher ist.

Nun, und genau diese Organisation ließ nun bei dem Videoportal vimeo mindestens fünf Videos löschen, die unter einer freien Lizenz standen und sich zum Teil kritisch mit dem derzeitigen Urheberrecht auseinandersetzen oder zumindest von Kritikern dieses stammen. Konkret erwischte es vier Folgen der ausgezeichneten Podcasts "Elektrischer Reporter" von Mario Sixtus und das berühmte "du bist Terrorist"-Video; selbiges aber nur in einer Version.

Eine Begründung gibt es bisher nicht, Mario Sixtus hat – bisher erfolglos, da alle ihm bekannten Mail-Adressen tot sind – versucht, eine solche zu bekommen. Eine Vermutung gibt es aber schon, und diese ist sehr sehr übel. Unser Urheberrecht beinhaltet in Bezug auf Musik nämlich eine bisher von der Öffentlichkeit kaum beachtete Schuldvermutung: Einfach gesagt, wenn du Musik veröffentlichst, kann man dich dafür anzeigen, wenn du nicht beweisen kannst, dass du sie selbst gemacht hast. Dieser Stuss trägt den Namen "GEMA-Vermutung". Das ganze geht offenbar auf ein BGH-Urteil des Jahres 1986 zurück, ist also noch aus der reinen Offline-Zeit, als freie Musik, die dennoch in größerem Umfange auf Tonträgern verbreitet wurde, etwas weitgehend undenkbares war. Die Alternative zu dieser Erklärung wäre dann wohl mal wieder das berühmte Versehen, das man dann als "man kann ja mal versuchen, ob unsere Kritiker es schlucken, auf diese Art abgewürgt zu werden".

Ganz egal, wie die Begründung ist; selbst wenn der Inhalt eine *echte* Urheberrechtsverletzung darstellen würde (was ich für ausgeschlossen halte), zeigt dieses Vorgehen, wie das Urheberrecht als Mittel zur Zensur missbraucht werden kann – denn einem Kritiker das Leben schwerer zu machen, hat man ohne jeden Zweifel erreicht.

Quelle: Netzpolitik.org

Sonntag, 8. August 2010

Umweltpolitische Erfolge

Umweltpolitisch aktive Personen, gemeinhin auch einfach "Ökos" genannt, haben ja den Ruf, überall nur dagegen zu sein. Dies ist sicherlich insofern richtig, dass die meisten öffentlichen Großprojekte die Probleme, die sie vermeintlich lösen, eigentlich nur verlagern und in ihrer Gesamtheit verstärken. Aber darum will es mir hier gar nicht gehen, sondern darum, was die Umweltpolitik in den vergangenen rund 30 Jahren in Deutschland bereits erreicht hat. Zu diesen Erfolgen möchte ich einmal einen groben Überblick liefern und verdeutlichen, wie es uns ohne diese erginge.

An erster Stelle hätten wir da die Abgase und den Verbrauch der Autos. Das meistverkaufte Auto 1080 war einmal nicht der Golf, sondern ein Mercedes; genauer der W123. Ein Auto, dass zwar partout nicht kaputt zu kriegen ist, allerdings auch ein recht gutes Beispiel dafür, wie es damals an der Verbrauchs-Front aussah. Der Verbrauch lag irgendwo bei 12L/100km, auch wenn später Versionen mit 10L nachgeschoben wurden. Schadstofffilterung ist völlig unbekannt, ein Katalysator war erst ganz zum Ende der Produktionszeit wohl eher experimentell erhältlich. Heute heißt das meistverkaufte Auto wieder Golf und verbraucht in den meisten Versionen um 6L. Die Geschichte der Abgasnormen beginnt überhaupt erst 1992 und seitdem ist der erlaubte Kohlenstoffmonoxid-Ausstoß auf rund 1/3 und der von Kohlenwasserstoffen und Stickoxiden auf zusammen ein Siebtel der damaligen Grenzwerte gesunken. Im Ergebnis führt dies vor allem dazu, dass der Gesamtverbrauch in Deutschland zugelassener Autos trotz ihrer leider weiter steigenden Zahl seit Mitte der 1990er Jahre sinkt. Bis man wieder auf dem niedrigen Niveau von 1960 ist, müsste er sich allerdings noch einmal halbieren… Autoabgase bleiben natürlich nach wie vor ein Thema, allerdings weitaus weniger dramatisch als etwa in Ostasien, wie das anschauliche Foto aus Peking einmal ohne und einmal mit der dortigen Smog-Glocke zeigt. Selbige wird bei einem Regenschauer "ausgewaschen" (so dass sie dann überall am Boden landen…), so dass nur dann einmal klare Sicht existiert. Auf dem Foto rechts "scheint die Sonne".

Das nächste große Erfolgsthema ist der Müll. In Deutschland sind Mülldeponien inzwischen verboten; eine Müllverwertung (Teilweise Recycling, teilweise leider noch Müllverbrennung) ist inzwischen vorgeschrieben. Im Ergebnis gibt es also keine Müllberge, wie auf dem anschaulichen Foto aus dem Umland von Santo Domingo, der Hauptstadt der Dominikanischen Republik (rechts). So sah es in Europa mancherorts vor 30 Jahren auch noch aus, auch wenn diese Gebiete wenigstens abgegrenzt waren.
Was ohne eine Abgrenzung passiert, veranschaulicht dagegen das Foto hier auf der linken Seite: Der Müll landet irgendwann in einem Gewässer und von davor der Küste anderer Länder.
Daneben gelangen in Deutschland auch keine Schadstoffe mehr als neuen Deponien in den Boden und von dort ins Grundwasser. Leider gibt es noch genug Altdeponien, die nur sehr schwer abgebaut werden können, da dieser Müll erst einmal aufwändig sortiert werden müsste – und das kann man in so einem halb verrotteten Zustand vergessen.

Mit Bildern wie diesen erscheint mir die manchmal etwas nervige Mülltrennerei in Deutschland jedenfalls recht klar als das kleinere Übel!

Gleich weiter geht es mit wenigstens einer Komponente des Energieverbrauchs, welcher dann doch mal gesunken ist: Die Heizenergie. Eine erste Vorschrift, die irgendwie vorgab, wie ein Haus gedämmt sein müsse, trat 1977 in Kraft. Die damaligen Werte sind lasch ohne Ende, aber immerhin es gab einmal welche. Inzwischen ist diese Vorschrift recht streng und bis 2019 wird wohl EU-Weit vorgeschrieben sein, dass ein Haus alleine über die Abwärme seiner Bewohner geheizt wird. Dies führt natürlich auch dazu, dass Klimaanlagen in Deutschland unüblich sind. Die Situation in den USA demonstriert dagegen wenn auch etwas überspitzt das Foto hier rechts: Keinerlei Dämmung, aber eine Klimaanlage…

Neben diesen Regelungen gibt es noch eine unendliche Liste von kleinen und nicht ganz so kleinen Regelungen zu Industrieabgasen und diversen Schadstoffen (von Asbest über Blei bis Cadmium und Quecksilber), die ich hier und jetzt zunächst nicht näher erörtern will. Auf jeden Fall kann man erkennen, dass unsere "Ökos" durchaus vieles erreicht haben, was man schnell als selbstverständlich annimmt, so man es nicht mit der Situation in Ländern ohne solche Regelungen vergleicht. (Alle Fotos aus Wikimedia Commons, unter CC-BY-SA)

Samstag, 7. August 2010

Klimawandel zum Mitmachen, Teil zwei

Im März hatte ich hier über eine nVidia-Grafikkarte mit völlig aberwitzigem Stromverbrauch abgelästert. Wer wie ich glaubte, dass dank der 300W, die die Stromstecker liefern können, ja jetzt ein Ende gefunden wäre, der sieht sich inzwischen eines besseren belehrt: Bei nVidia hat man sich nämlich gesagt statt 75W aus dem Mainboard, 75W aus einem 6-Pin-Stecker und 150W aus einem 8-Pin-Stecker kann man ja auch zwei 8-Pin-Stecker einsetzen – also entstand das hier. Theoretisch möglicher Stromverbrauch wären 375W. Für die Grafikkarte alleine wohlgemerkt. Damit kann man übrigens bei der derzeit schnellsten Karte der Konkurrenz fast den ganzen Rechner betreiben – das sind dann auch nur 17W mehr. Für den kompletten Rechner würden rein rechnerisch 535W herauskommen (ein '80 PLUS Gold'-Netzteil vorausgesetzt, mit einfachem 80 PLUS wären's nochmal 65W mehr…

Scheiß Schifffahrt!

Eine Fahrrad-Odyssee.

Heute morgen hatte ich die Idee, doch einmal den Mittelalter-Markt im etwa 25km entfernten Bleckede zu besuchen. Das ist schon eine etwas weitere Strecke, aber versuchen kann man es ja mal. Das diverse Radwege nur 30cm breit, überwachsen und manchmal auch abrupt ganz verschwunden sind, ist man ja ebenso gewohnt wie das völlige Fehlen irgendeiner Ausschilderung. Also einfach mal da lang, wo man ja mit dem Auto auch lang fährt… nein, das war eine Scheißidee. Denn ein kleines Stückchen (geschätzt keine 2km) des Weges haben nicht nur keinen Radweg, eine sowieso viel zu enge, langgezogene Rechtskurve voller LKW ist sicherlich keine Option. Die Verkehrsführung des Radweges da hin sagte auch recht unmissverständlich, dass das so nicht gedacht ist. Nur: Wie ist es dann gedacht? Um die Stelle herum fahren ist nämlich etwas schwer: Es ist eine Brücke über den Elbe-Seiten-Kanal! Google Maps vermittelt dann den trügerischen Eindruck, das da noch eine Brücke daneben sei. Gesehen habe ich diese allerdings nicht. Wo ich jetzt nachträglich auf die Karte gucke, kann ich mich wenigstens an die Kreuzung erinnern, wo der dazugehörige Weg angeblich abzweigen soll. Nur: DA IST KEIN WEG! Die einzige Lösung über den Kanal zu kommen ist also offenbar die B216 etwa 3km südlich. Da kommt man auch recht schnell hin – jedenfalls, wenn man weiß, dass eine der ca. 30 Sackgassen dort gar keine ist, sondern zumindest für Radfahrer durchlässig ist. Ausschildern? Achwas, wozu denn?

Donnerstag, 5. August 2010

Nochn Netzteil: NZXT Hale90

Und jetzt mal wieder eine neue 80 PLUS Gold-Serie. Die Firma NZXT, bisher eher für gewöhnungsbedürftige PC-Gehäuse bekannt hat jetzt eine solche als NZXT Hale90 vorgestellt. Versionen gibt es mit 550, 650, 750, 850 und 1000W. Optisch erinnern die Dinger arg an die Super Flower Golden Green-Serie, die aber andere Nennleistungen (glatte 100er dort) aufweist.

Bei der Ausstattung hat man sich offenbar gesagt, nicht kleckern sondern klotzen. Alle Netzteile erreichen die Nennleistung alleine über die 12V-Leitung, so dass man hier auch nicht lange rumrechnen muss. Die größeren Versionen haben zudem ein Kabel-Management (mit festem ATX-Kabel); bei der 550W-Version wird hierauf hingegen verzichtet. Für frische Luft im Innern sorgt ein 14cm-Lüfter. Für alle Casemodder sind die Netzteile auch optisch mal was neues, sie sind nämlich weiß lackiert mit einigen schwarzen Akzenten.

Die Herstellerseite wirft einen übrigens regelrecht mit Informationen zu. Wo man bei anderen Herstellern schon froh ist, die Zahl der Stecker zu finden, wird diese (übrigens bereits bei der 550W-Version sehr üppige) hier auch gleich mit den Kabellängen angegeben und als besonderes Highlight gibt es Diagramme mit dem Wirkungsgrad des Netzteils bei 115V DC und 230V AC und ziemlich eindeutig deutlich mehr Messpunkten als der 80-PLUS-Test erfordert.

Die Preise sind dann auch nicht ganz ohne, man fängt bei 120 US-$ für die kleinste Version an und jede weitere kostet 20 US-$ mehr bis zu 180 US-$ für 850W. Da der letzte Schritt größer ist, ist er es auch beim Preis – 210 US-$ für das Kilowatt. Mit Umrechnung und dem üblichen Unterschied zwischen Listen- und Straßenpreis könnte das ganze durchaus günstiger als Enermax Pro87+ bzw. Modu87+-Serie werden, die als "kleines Goldenes" bisher noch alleine am Markt ist.

Dubioses Markennetzteil

Der eigentlich für durchaus hochwertige Mainbaords bekannte Hersteller Gigabyte bietet jetzt eine neue Serie von PC-Netzteilen an, die hier und da als "besonders günstig" bezeichnet werden. Dabei handelt es sich um Modelle mit 300, 350, 400 und 500W, genannt wird die ganze Serie "PoweRock". Und soviel wie ein Rock, also Stein taugen diese Netzteile nach den vom Hersteller auf seiner britischen Seite verkündeten technischen Daten auch. Effektiv handelt es sich bei den Netzteilen um zwei unterschiedliche Serien, die als eine beworben werden. Preise gibt es bisher nicht, nach Blick auf die Daten wird die Sache aber sicherlich vor allem eines: Billig – allerdings eher im Sinne von "wer billig kauft, kauft zweimal".
  • Noch das beste der vier Modelle ist das 400W. Als einziges sind die 400W hier nicht schöngerechnet, sondern tatsächlich über die bei heutigen PCs fast alleine relevante 12V-Leitung erfüllbar. Der Wirkungsgrad wird mit '80 PLUS' angegeben, wobei bisher kein Prüfbericht vorliegt. In diesem Leistungsbereich sind inzwischen Netzteile mit 80 PLUS Silber (das sind dann je nach Auslastung 5-8 Prozentpunkte mehr Wirkungsgrad) verfügbar, eines mit Gold (7-10 Prozentpunkte mehr) ist angekündigt. Zu empfehlen ist dieses also weniger.
  • Wie gesagt, das war noch das beste. Das "500W"-Netzteil unterscheidet sich im Ergebnis nur marginal, auch wenn es aus irgendeinem Grund wesentlich schwerer ist. Die 12V-Leistung hat hier dann auch nicht 500 oder wenigstens annähernd 500W, sondern ganze 432. Andere Hersteller würden sowas als '450W' verkaufen. Der Wirkungsgrad bleibt beim einfachen '80 PLUS', so dass ein Netzteil mit 7-10 Prozentpunkten besserem Wirkungsgrad dann sogar erhältlich ist. Insofern auch hier sicherlich keine Empfehlung.
  • Richtig lustig wird es dann beim 300W-Modell. Die Leistung ist diesmal halbwegs richtig, der Rest allerdings entspricht einem dieser 10€-Klumpen, denen ich hier vor einigen Tagen einen Beitrag gewidmet hatte: Keinerlei Prüfzertifikat, welches auch nur die Hoffnung auf 80% Wirkungsgrad macht. Die wirkliche Krönung ist aber, dass dem Netzteil laut den technischen Daten die gesetzlich vorgeschriebene (!) PFC fehlt, da steht nämlich frech "Non-PFC". Das Ding darf also, so diese Angabe denn stimmt, nicht in der EU verkauft werden. Das sehr geringe Gewicht des Netzteils spricht allerdings nicht gerade dafür, dass es sich hier im einen Fehler handelt. Ein CE-Label wird unter den "Features" trotzdem aufgelistet – was davon wohl die Gewerbeaufsicht hält…
  • Wem das noch nicht dubios genug war, für den gibt es noch das "350W"-Modell. Dieses verzichtet ebenfalls auf irgendeinen zählbaren Wirkungsgrad und auf eine PFC. Hier kommt dann noch eine sehr schöne Auslegung der 12V-Leitung hinzu – mehr als beeindruckende 192W. Das Ding ist danach also kleiner; wesentlich kleiner als das "300W"-Modell. Anders als bei den anderen Modellen wird hier dann auch in der Übersicht nur von "ATX 2.0" geschrieben, was immer man uns damit sagen will (den erst mit ATX 2.2 eingeführten 24-poligen Stecker hat es nach der Tabelle…)
Offenbar wird hier ein eigentlich eher für hochwertige Mainboard bekannter Markenname für völligen Schrott missbraucht, um diesen dann vermutlich zu fast dem Preis eines wesentlich höherwertigen Modells verkaufen zu können. Traurig ist indes, dass die "Fachpresse" bei den Netzteilen teilweise völlig falsch von "effizient" redet.

Achja, falls hier ein abmahnwütiger Anwalt des Herstellers vorbeikommt: Ich hätte da einen Screenshot der Technischen Daten so wie sie von Gigabyte behauptet werden. Wenn selbige also falsche Angaben machen, wäre dies nicht mein Problem.

Mittwoch, 4. August 2010

Nation der Kleinwagenfahrer

Vor inzwischen einigen Jahren tobte der damalige bayrische Ministerpräsident Erwin Huber, in dessen Bundesland vornehmlich für europäische Verhältnisse eher große Autos und insbesondere keine Kleinwagen gebaut werden, dass Deutschland bzw. Europa durch die Begrenzung des CO2-Ausstoßes zu einer "Nation der Kleinwagenfahrer" werden würde. Nicht nur, dass vielen, die einen Sinn für Umweltschutz haben oder denen die europäische Definition von "Kleinwagen" eigentlich schon viel zu groß geworden ist, das Problem dieser Feststellung bis heute ein Rätsel geblieben ist, nein das ganze ist auch einfach eine Frage der Sichtweise.

Als ich heute die neuesten Errungenschaften meiner Modellautosammlung betrachtete, kam mir nämlich der Gedanke, ob wir nicht bei der entsprechenden Definition schon lange eine solche Nation sind. Also schnell einmal einen VW Golf V zwischen die drei gestellt. Da sieht doch Deutschlands meistverkauftes Auto wirklich wie ein Kleinwagen aus. Die Drei als Vergleich dienenden sind übriges keineswegs Luxusautos, im Gegenteil. Alle drei entstammen der jeweils billigsten Marke des jeweiligen Konzerns, sind aber sogenannte "Full-size cars". Die etwas kleinere Kategorie der "mid-size cars" war in den USA um 1960 entstanden, noch kleinere Modelle gab es hingegen nicht. Verkauft wurden mit weit überragender Stückzahl die full-size Modelle.
  • Das Fahrzeug ganz links ist ein 1970er Ford Custom. Das Fahrzeug stellte Fords Einstiegsversion in die full-size cars dar, in höherer Ausstattung aber mit weitgehend identischer Karosserie war der Wagen als als Ford Galaxie und Ford LTD erhältlich.
  • Das weiße Fahrzeug relativ weit hinten ist ein 1968er Plymouth Fury I. Die höheren Modelle hießen wenig einfallsreich Fury II, Fury III und VIP.
  • Das schwarze Fahrzeug ist selbst, wie man unschwer erkennen kann ein PKW-Basierender Pickup. Die Basis des 1959er Chevrolet El Camino sind die full-size cars von Chrevrolet aus jenem Jahr, mit denen er sich dann auch die Abmessungen und die gesamte Formensprache teilt – selbst die damals üblichen Heckflossen sind hinten angedeutet. Diese großen hießen dann in aufsteigender Ausstattung Biscayne, Bel Air und Impala. Daneben gab es eine ganze Reihe Kombis als Brookwood, Parkwood, Kingswood und Nomad. Damit war – abgesehen von der Corvette – dann die PKW-Modellpalette von Chevrolet in jenem Jahr auch erschöpft.
Alle drei Fahrzeuge haben eine Länge von etwa 5,4 bis 5,5m (selbiges gilt für die Full-size cars von Chevrolet der Jahre 68-70, von denen es leider auch nur den El Camino als Modell gibt). Damit überragen diese Modelle einen aktuellen (!) BMW 7er lang um 20-30cm. Der damalige BMW 2800 (auch wieder die Langversion) war gerade einmal 4,8m kurz. Ein aktueller VW Golf (Golf V und VI sind bis auf wenige Millimeter gleich lang) kommt auf dagegen winzige 4,2m. Ein VW Käfer war auch nur 5-10cm kürzer…

So gesehen: Sind wir wohl schon lange eine Nation der Kleinwagenfahrer. Und es stört niemanden.

Dienstag, 3. August 2010

Riesiger Fortschritt der Solartechnik

Bisher krankt die Solartechnik, die ja zumeist in Photovoltaik und Solarthermie geteilt wird an ihrer schlechten Wirtschaftlichkeit, die durch das Verhältnis aus eher mäßigen Wirkungsgraden und den eher hohen Herstellungskosten verursacht wird. Dies könnte sich nun dank einer Entwicklung der Stanford University massiv ändern. Diesen ist es gelungen, die beiden Funktionen miteinander zu kombinieren, so dass der Wirkungsgrad von den derzeitigen gerade einmal 20% auf über 50% steigt. "Nebenbei" sind sowohl Herstellung wie auch Rohstoffe für dieses System preiswerter als für eine herkömmliche Photovoltaik. Mit einer bisher nur theoretischen Weiterentwicklung wäre wohl sogar ein Wirkungsgrad von fast 60% möglich.

Die Lösung ist wie so oft relativ trivial: Eine Photovoltaik verliert sehr stark an Wirkungsgrad, wenn sie sich zu stark erhitzt. Diese Lösung umgeht das ganze durch eine dünne Schicht Caesium, deren genaue funktion ich noch nicht so perfekt verstanden habe. Hierdurch kann die Wärme zusätzlich verwertet werden und das ganze erreicht den idealen Wirkungsgrad erst bei über 200°C. Caesium ist übrigens _nicht_ radioaktiv, dies gilt nur für einige künstliche Isotope; allerdings reagiert das Zeug mit so ziemlich allem und mit Luft und Wasser jeweils recht heftig…

Mit diesen 50% Wirkungsgrad und dem Wissen über bisher 20% kann man ja mal eine kleine Kostenrechung anstellen. Derzeit wird allgemein gesagt, dass in Deutschland so eine Photovoltaik-Anlage nach 10 Jahren über den garantierten Strompreis von 45ct pro kWh für die Dinger refinanziert ist; wobei die Anlagen selbst in der Regel doppelt so lange halten. Damit wären wir bei Kosten im Bereich von 22ct. Dies nun bei gleichen Kosten (die es ja nicht einmal sind!) auf einen Wirkungsgrad von 50% hochgerechnet wären wir bei Kosten von 9ct pro kWh. Das ist zwar immer noch das doppelte gegenüber Kohle, aber aufgrund der wesentlich einfacheren Rahmenbedingungen und der natürlich wesentlich besseren Umweltbilanz (die eigentlich schon lange überholte Diskussion über die Produktionsenergie ist hier überhaupt kein Thema mehr) dürfte diese Technik die Chance bieten, mit der man Solarenergie in einer ganz großen Basis und womöglich als primäre Energiequelle einsetzen kann.

Gold, Passiv, Modular, 400W

gestern erst das erste 400W-Netzteil mit '80 PLUS Silver' gefeiert, gibt es inzwischen erste Details zur Seasonic Fanless X-Series. Dabei handelt es sich um Netzteil mit 400 und 460W, 80 PLUS Gold (!), mit abnehmbaren Kabeln und ohne einen Netzteillüfter. Auch auf einen großen Kühlkörper wird bei dem Netzteil verzichtet. Der Preis ist nach einigen ersten Nennungen wohl irgendwo zwischen 130 und 150€ zu erwarten – viel, aber bei einem Netzteil dass den Stand der Technik voll ausreizt, zu verstehen. Leider hat der Hersteller ein NDA auf weitere Details gesetzt, so dass es bisher bei diesen Informationen bleibt. Ein gutes hat so ein NDA aber: Man kann sich sicher sein, dass die Sache nicht im letzten Moment im Sande verläuft. Spannend bleibt zudem bei den doch recht hohen Preis, ob auch eine einfache Version, die alleine auf Effizienz ausgelegt ist, erscheinen wird.

Montag, 2. August 2010

400W in Silber

Gerade habe ich entdeckt, dass seit rund einer Woche das Cougar SE 400W endlich im Handel ist. Bei diesem Netzteil handelt es sich um das erste 400W-Netzteil mit '80 PLUS Silber' und das erste Netzteil unter 500W, dass ein besseres Label als 'Bronze' hat. Konkret reden wir hier von jeweils gut 86% bei 20 und 100% der Nennleistung sowie gut 89% bei 50% der Nennleistung. Das Netzteil verfügt zudem über 6 SATA-Anschlüsse und zwei 6-polige PCI-Express-Stecker. Diese Auslegung erscheint sinnvoll, nachdem es für Systeme mit einer Radeon HD 5970 oder GeForce GTX 480 wohl auch nicht ganz ausreicht. Der Straßenpreis liegt derzeit bei knapp 70€. Zum Vergleich: 80 PLUS Bronze gibt es mit 400W ab 40€; das von mir bisher empfohlene Enermax-Netzteil mit 385W liegt allerdings auch bei fast 60€. Insofern gibt es hier dann auch eine neue Empfehlung!

Noch eine kleine Nebenmeldung: Alle Beiträge zum Thema "Netzteile" sind hier jetzt mit dem entsprechenden Label versehen.

Mac mini-(nicht-)Konkurrenz

Manchmal ist es erstaunlich, wie sehr sich die klassischen PC-Hersteller von dem Mac-Hersteller Apple auf der Nase herumtanzen lassen. Vor inzwischen 5 1/2 Jahren (genauer am 11. Januar 2005) stellte Apple den "Mac mini" vor – einen Desktop-Rechner, der auf Notebook-Technik basiert und auf Erweiterungsslots völlig verzichtet; dafür ist das Gerät mit einem Gehäusevolumen von 1,4L extrem kompakt und hat durch die Notebook-Technik auch einen extrem geringen Stromverbrauch. Beim aktuellen Gerät ist gar von weniger als 10W im Idle die Rede (es gibt Netzteile, die "aus" mehr wollen!); bei dem davor waren es noch 13W. Die ersten Generationen bewegen sich dagegen zwischen 25 und 40W. Mit "klein" und "sparsam" erfüllt das Ding also genau die beiden Kriterien, wegen denen sich Nettops und Netbooks in Massen verkaufen und es kommt noch der Aspekt einer gegen über diesen wesentlich höheren Leistung hinzu.

Doch auch nach all dieser Zeit hat es kein Hersteller geschafft, dieses Konzept zu kopieren. Bereits relativ zeitnah hatte Acer ein relativ hässliches Gerät vorgestellt, dass grundsätzlich eine ähnliche Idee verfolgte, allerdings völlig überteuert war. Es war recht schnell wieder vom Markt. Etwas besser ergeht es dem Fujitsu Esprimo Q1500. Nachdem auch dieses Gerät anfangs auf einen extrem langsamen Celeron-Prozessor setzte, wird inzwischen ein Pentium Dual-Core T4300 eingesetzt. Inzwischen hat das Gerät unter dem Namen Q9000 einen Nachfolger mit Core i3- oder i5-Prozessoren, für welchen Fujitsu einen Idle-Verbrauch von 16W angibt. Optional ist für beide Fujitsu-Geräte im Gegensatz zum Mac Mini auch ein BluRay-Laufwerk verfügbar, einen leistungsstarken Grafikchip gibt es dagegen nicht.

Ein weiteres Modell dieser Art ist der Dell Zino HD. Dabei handelt es sich um ein System mit AMDs Spar-CPUs 3250e und 6850e. Beide Prozessoren entstammen ebenso wie der verwendete Chipsatz der Desktop-Technik, weshalb die Stromaufnahme nicht ganz so sensationelle 30-35W (je nach Testbericht, Dell selbst macht hier keine Angaben) beträgt. Das Gerät soll jetzt einen auf der aktuellen AMD-Notebook-Plattform basierenden Nachfolger bekommen. Auch hier gibt es optional BluRay. Die Grafik ist wahlweise ein Radeon HD 4250 (also die Grafikeinheit des verwendeten Chipsatzes) oder ein Mobility Radeon HD 5450. Daten zu Stromaufnahme und Preis sind leider noch nicht bekannt, ein Handbuch gibt es aber schon. Sollte nach 5 1/2 Jahren dann endlich ein wirklich interessanter Mac mini-Konkurrent erscheinen?

Sonntag, 1. August 2010

Der Grundfehler der Esoterik

Wo immer man sich die Begründungen von Esoterikern ansieht, findet man den immer wieder gleichen Fehler. Zunächst einmal ist eine Grundannahme dieser Lehre, dass es keinen Zufall gibt. Diese Aussage ist zunächst gar nicht SO falsch, denn tatsächlich beruht jeder Vorgang in der Natur auf einem Prinzip von Ursache und Wirkung. Allerdings machen die Esoteriker dabei einen entscheidenden Fehler. Viele natürliche Vorgänge sind so komplex, dass eine Vorhersage ob der großen Zahl an Variablen vollkommen unmöglich ist. Legendär ist wohl das Beispiel des Schmetterlings, der einen Sturm auslösen kann. Bei Unfällen redet man in diesem Falle von einer "Verkettung unglücklicher Umstände". Ein fiktives Beispiel eines Verkehrsunfalls, bei dem ein Auto ins schleudern gerät und jemanden überfährt:


Da war dann am Auto eine wichtige Schraube aufgrund eines wegen einer Party übermüdeten Mechanikers locker. Weil die Kollegin in der Endkontrolle gerade Stress zu Hause hat, wird der Fehler hier auch übersehen. Die Kiste, wegen er er abrupt ausweichen muss, wurde von einem überladenen Paketboten verloren und das da nun auf dem Gehweg gegenüber jemand geht ist alleine auch kein seltener Fall.

Alles für sich sind gefühlt nicht einmal besonders seltene Fälle, die alle ihre individuelle Ursache haben. Nur die Wahrscheinlichkeit, dass all dies genau so zusammen kommt, ist im Vergleich dazu verschwindend gering (Mathematisch das Produkt der Einzelwahrscheinlichkeiten). Tatsächlich sind bereits die vorgenannten Einzelaspekte in ihrer Wahrscheinlichkeit das Produkt vieler Einzelwahrscheinlichkeiten, was dann eine fast unendliche Kette erzeugt, die sich unter Umständen sogar gegenseitig beeinflussen können – vielleicht hatten die beiden Hersteller-Mitarbeiter ein gerade beendetes Verhältnis miteinander, was dann zu dem Stress bei der einen und dem Frustsaufen beim anderen führt? Hier glauben Esoteriker nun, dass das Endereignis irgendeine eigene Ursache hätte. Selbige Aussage ist wissenschaftlich falsch; denn *nichts* hat eine einzige Ursache alleine. Dies gilt übrigens auch nicht für Vorgänge, die scheinbar zwingend eintreten, wie etwa dass einer Ausweicht, wenn da eine Kiste steht – denn die Kiste muss da ja erstmal stehen und jemand da auch lang kommen. Ähnlich kann es auch passieren, dass ein Kettenraucher nie Lungenkrebs bekommt; eine andere Person aber schon nachdem sie ein einziges Mal von einem Raucher angehaucht wurde. Denn es muss nur ein einziges Teer-Teilchen an der falschen Stelle landen. Dies ist natürlich bei dem Raucher wesentlich wahrscheinlicher, weil wesentlich mehr da sind, aber eine Garantie gibt es nicht.

Dass diese einzelnen Ursachen für irgendein Ereignis nun aus wissenschaftlicher Sicht auch noch vollkommen absurd sind, da es an jeglicher Wirkkette zwischen den Ereignissen und der vermeintlichen Ursache fehlt, ist hier nur noch ein meist eher unterhaltsamer Nebenaspekt. An dieser Stelle unterscheiden sich übrigens Esoteriker nicht großartig von religiösen Menschen, die glauben, dass alles gottes Wille sei.

Nicht mehr unterhaltsam sondern gefährlich wird Esoterik jedoch, wenn die Leute in dem Glauben an irgendwelche einfachen Ursachen Verhaltensweisen an den Tag legen, die die Eintrittswahrscheinlichkeit für Probleme drastisch erhöht.