Das PC-Netzteil

Vorwort

Zahlreiche Netzteilanbieter bevölkern den Markt und machen es durch den andauernden Wechsel ihres Produzenten nicht einfacher, die Lage zu überblicken. Heute wollen wir daher aufzeigen, wie man den OEM eines Netzteils durch äußere wie innere Merkmale erkennen kann. Hinzu kommt ein kurzer Blick auf die aktuelle Marktsituation und einige PR-Tricks der Hersteller. Außerdem möchten wir die Materie der Elektronik in einfachen Worten darlegen und kurz erklären, wie ein ATX-Netzteil funktioniert.

Aktuelle Themen, wie die Gleichstromkonvertierung der kleinen Schienen, der Leistungsfaktor und dessen Zusammenhang mit dem Wirkungsgrad oder der LLC-Resonanzwandler werden angesprochen. Hinzu kommt eine Beurteilung, in wie weit japanische Kondensatoren wirklich notwendig sind und worauf sich der Ruf begründet. Wer für die kommenden Berichte hier oder auf anderen Seiten also hin und wieder sein Wissen auffrischen möchte, ohne gleich das hundertseitige Fachbuch samt Formeln aufzuschlagen, kann auf diesen Artikel zurückgreifen.

Nicht zu vergessen ist das wichtige Thema der Leistungsverteilung, insbesondere das Verhältnis von Dauer- und Peakleistung und die Dominanz der immer stärker werdenden +12 V-Schiene. Wir wünschen allen Lesern viel Spaß beim Studieren des Textes.

Das ATX-Netzteil I

Netzteilaufbau

Das PC- oder ATX-Netzteil soll die aus dem Netz kommende Wechselspannung in eine für das System verträgliche Gleichspannung geringeren Niveaus umzuwandeln. Der korrekte Fachbegriff für dieses Gerät lautet primär getaktetes Schaltnetzteil. Es handelt sich also um ein Gerät, dessen Schalter – in Form von Leistungstransistoren – mittels eines Controllers gesteuert werden. Diese Schalter sitzen im Primärschaltkreis, der vom Sekundärschaltkreis galvanisch getrennt ist. Aus 230 VAC (Voltage Alternating Current = Wechselspannung) werden die elektrischen Gleichspannungen +12 V (von dessen negativen Wicklungen abgeleitet: -12 V), +5 V (davon meist abgeleitet +3,3 V) und eine Standbyspannung generiert. Für zuletzt genannte steht ein eigener Transformator samt Schalter und Filterung bereit. Wenn man so will besteht das Gerät aus zwei Netzteilen, dem für die Hauptversorgung und einem weiteren für den Standbybetrieb. Bei den Stufen davor handelt es sich lediglich um Vorregler bzw. die EMI-Filterung, die mit der Generierungen an sich nichts zu tun haben, sondern Spannungsbilder korrigieren um unerwünschte Effekte aus dem Netz fern zu halten .

Nun kann man sich den Vorgang der elektr. Energieversorgung so vorstellen, dass der PC im ausgeschalteten Zustand über die Standbyspannung +5 VSB beliefert wird. Intern werden dabei die Schalter für die entsprechende Generierung geöffnet. Grundlegende Teile des Mainboards wie die Steuerlogik oder die Echtzeituhr sind dadurch nun versorgt. Aus Sicherheitsgründen wird geprüft, ob die Spannung aufrecht gehalten werden kann und sich auf einem guten Niveau liegt. Wenn das abgeschlossen ist, wird ein Signal ausgegeben, das als Power Good bekannt ist. Diese Kommunikation mit dem Mainboard ist sozusagen das Startzeichen, in der sich die Komponenten synchronisieren.

In diesem Fall wird die Information von einem IC verarbeitet. Beim Start werden die Schalter der Standbyschiene geschlossen. Dafür öffnet sich nun das Ventil zum Haupttransformator, der die Hauptspannungen erzeugt, welche für den normalen Betrieb relevant sind. Wegen dieser Übergänge wird die Energie vor den Schaltern immer zwischengespeichert und steht abgriffbereit. Der PC wird jetzt auf allen Ebenen mit Strom versorgt und kann seinen Aufgabenbereichen nachgehen.

Das ATX-Netzteil II

Netzfilter

Wir haben bereits erfasst, was die Hauptaufgabe des PC-Netzteils ist und wie der Startvorgang funktioniert bzw. zwischen Standby und Hauptbetrieb umgeschaltet wird. Nun beschäftigen wir und mit der näheren Struktur und Elektronik. Zunächst dem Netzfilter.

Wie viele bereits wissen, ist das Netzteil über das Kaltgerätekabel mit dem Stromnetz verbunden. Dieser beherbergt unter anderem Phase- und Neutralleiter für einen geschlossenen Stromkreis. Auch ein separater Schutzleiter ist dabei. Durch den längeren Anschluss im Steckerkopf wird dieser immer als erster angebracht bzw. automatisch als letztes herausgezogen. Das ist auch wichtig, da dieser der Sicherheit dient und für den Menschen schädliche Spannungen über Erde ableitet. Ein Kontakt muss also immer hergestellt sein. Mittels des Phasenleiters fließt die Energie über das Netzteil in den PC, Neutral- bzw. Rückleiter führen den Rückstrom hingegen zur eigentlichen Quelle (der Generator des Stromversorgers) zurück.

Nun ergibt sich folgendes Problem. Man kann davon ausgehen, dass über eine Leitung nicht nur Nutzenergie zugeführt wird, sondern auch elektrische Störungen in das Netzteil eindringen können und Funktionsstörungen auslösen. Ebenso verzerrt das Gerät das Spannungsbild in entgegen gesetzter Richtung durch die nichtlineare Aufnahme mancher Bauteile und erzeugt seinerseits Emission. Um der Problematik von unerwünschten Überlagerungen entgegen wirken zu können, wird dem eigentlichen Netzteil immer ein Netzfilter vorgeschaltet. Varistoren, die in vielen Steckerleisten vorkommen, in PC-Netzteilen aber gerne eingespart werden, sind hingegen ein wichtiges Mittel gegen Transienten. Das sind Spannungsspitzen, etwa durch einen Blitzschlag ausgelöst, die ein Netzteil abfedern muss.

Generell kann eine Quelle elektromagnetische Störungen aussenden, ähnlich wie manche Elektromotoren energiereiche Bursts und Blitzeinschläge Surges hervorrufen, die über einen Kopplungsweg zum Leidtragenden, er sogenannten Störsenke gelangen. Durch den Einsatz von Entstörkondensatoren mit ergänzenden Drosseln werden beidseitig Dämpfungen vorgenommen. Je nach Umfang kann man dort bereits zwischen guten und mäßig ausgebauten Filterungen differenzieren. Auch internen Störquellen muss entgegengewirkt werden und eine entsprechende Abschirmung wie auch Erdung verhindert EMV-Komplikationen, die gerade mit der Steilheit effizienter Schaltvorgänge auftreten.

Zur Entstörung kommen Y-Kondensatoren, die zwischen Leiter und Masse geschaltet werden, um Gleichtaktstörungen abzuführen. Da die Ableitströme aus Sicherheitsgründen nicht zu hoch auf Masse sein dürfen, werden diese meist mit Gleichtaktdrosseln kombiniert, welche aufgrund der Flussrichtung der Gleichtaktströme einen hohen induktiver Widersand bildet. Zur Kompensation von Gegentaktstörungen werden hingegen Längsdrosseln eingesetzt, die zudem von X-Kondensatoren (zwischen die Leiter geschaltet) kurzgeschlossen werden. Abgesehen von den Y-Kondensatoren gilt hier also mehr ist besser, weshalb es auch für Laien relativ einfach ist, den Umfang einer solchen Filterstufe zu erkennen. Die beste Methode wäre natürlich, dass zumindest das Netzteil strahlungsarm arbeitet, was in der Praxis aber nicht ohne weiteres möglich ist.

Das ATX-Netzteil III

Phasenverschiebung; Quelle:Wikipedia

Phasenverschiebung (Quelle: Wikipedia)

Bisher haben wir über den Netzfilter referiert, der sich noch im Wechselspannungsbereich befindet und gegen elektromagnetische Interferenzen wirkt. Darauf folgt nun der Leistungsfaktor-Vorregler, der bereits mit Gleichspannung betrieben wird. Dazu wandeln je nach Leistung unterschiedliche Gleichrichterbrücken oder einzelne Dioden die elektrische Spannung um. Durch eine nichtlineare Aufnahme der Komponenten und der Schaltvorgänge gibt es  wie erwähnt Verzerrungen, sogenannte Oberwellen. Hinzu kommt, dass während der Aufnahme von Kondensatoren und Spulen eine Größe vorauseilt, wodurch die Spannung und der Strom nicht mehr genau übereinander verlaufen. Man spricht von einer Phasenverschiebung, die laut Gesetz ab 75W Nennleistung begrenzt werden muss. Zum einen, weil diese Komplikationen beim Stromversorger auslösen. Zum anderen entsteht durch die Verschiebung zwischen den beiden Größen die sogenannte Blindleistung. Innerhalb der Scheinleistung unterscheidet man zwischen Wirk- und Blindleistung. An für sich kann man letztere Energie nicht nutzen und ist schwer zu erfassen. Dennoch ist sie prinzipiell vorhanden und stellt eine Belastung für die Komponenten dar.

Daher kommt der eben erwähnte Leistungsfaktor-Vorregler zum Einsatz. Mit passivem oder aktivem PFC (Power Factor Correction = Leistungsfaktorkorrektur) wird die Phasenverschiebung korrigiert, wobei ein Wert von 1,0 keine Verlaufsunterschiede widerspiegelt und ein Wert von 0,0 die maximale Phasenverschiebung von 90° bedeutet und damit den höchst möglichen Blindleistungsanteil. Dass  verschiedene Bauformen innerhalb der aktiven Korrektur existieren, ist zunächst irrelevant. Für uns interessant ist, dass der aktive Vorgang von einem IC (Integrated Circuit) gesteuert wird und damit komplizierter, letzten Endes aber auch effektiver ausfällt. Ein Leistungsfaktor von bis zu 0,99 wird erreicht. Die passive Version besteht aus einer einfachen stromkompensierten Drossel und ist dementsprechend günstiger zu realisieren, aber weniger effektiv und aus Platzgründen oftmals unpraktisch. Auch wenn der Leistungsfaktor an sich nichts mit dem Wirkungsgrad zu tun hat, entsteht durch die Aufwärtswandlung bei active PFC eine zusätzliche Stromentlastung, was sich positiv auf die Abwärme auswirkt.

Nach der Siebung durch einen Kondensator, der die Energie in einem elektrischen Feld speichert, wird der Strom durch die bereits erwähnten Schalter dem jeweiligen Transformator zugeführt. Dieser generiert über einzelne Wicklungen die benötigten Größen. Im Prinzip besteht das Bauteil aus der Primär- und Sekundärwicklung, die sich gegenüberstehen und durch einen gemeinsamen Eisenkern gekoppelt sind. Das Paradoxe ist nun, dass dafür wieder von der Gleichspannung des Vorreglers umgeschaltet wird. Nämlich auf eine Rechteckspannung höherer Frequenz, wofür die Transistoren verantwortlich sind. Ein Beweis dafür, welcher Komplexität ein voll ausgebautes Netzteil mit mehreren Stufen unterliegt.

Nach der Übertragung durch den Transformator wird die Spannung nun über Halbleiterdioden final gleichgerichtet. Was für den Netzfilter gilt, lässt sich nun auch ausgangsseitig übertragen. Das Spannungsbild ist nämlich noch nicht optimal, wird daher geglättet und damit möglichst alle Frequenzanteile aus der Übertragung entfernt werden, wirkt eine zusätzliche Filterung. Das ist notwendig, da durch die Vorgänge im Netzteil weitere Probleme im Rechner auftreten können, ähnlich wie Netzstörungen das Netzteil beschädigen können.

Dabei dürften einige Leser bereits von Ripple & Noise gehört haben, zu Deutsch Restwelligkeit. Diese beschreibt eine nicht vollständig geglättete Gleichspannung mit Wechselspannungsanteilen. Dem wirken gepolte Kondensatoren entgegen, die durch den Ladevorgang solche Schwankungen überbrücken. Den Kondensator werden wir gleich noch näher behandeln.

Japanische Kondensatoren

Elektrolytkondensatoren aus Taiwan

Elektrolytkondensatoren aus Taiwan

Kein Buchstabe hat die Marketingkultur bei Netzteilen so beeinflusst, wie das C im Schaltplan. Die Rede ist vom (Elektrolyt-)Kondensator, der Energie speichert und wie erwähnt die Ausgangsspannung glätten kann. Er besteht aus einer aufgerauten Aluminiumfolie als Anode und dem Elektrolyt als Kathode, welche von einem nichtleitenden Dielektrikum getrennt werden. Genauer gesagt wird beim Anlegen einer Spannung die eine Seite positiv und die andere negativ geladen, in dessen Zwischenraum sich ein elektrisches Feld aufbaut. Eine direkte Verbindung besteht wegen des Isolators also nicht. Hier eilt die Spannung voraus, während bei einer Spule der Strom zuerst kommt und diese Energie in einem elektromagnetischen Feld speichert.

Nun werben viele Hersteller damit, dass sie auf japanische 105 °C Modelle setzen. Eine Temperaturfestigkeit bis 105 °C soll also gewährleistet sein und jeder Käufer kann erkennen, dass konventionelle 85 °C geringer spezifiziert und damit schlechter sind.

Allerdings wird der Leser dadurch aufs Glatteis geführt, denn zur Temperaturangabe muss immer die Zeitangabe berücksichtigt werden. Es ist also prinzipiell nicht falsch, dass ein 105 °C Kondensator besser ist, aber nur sofern eine Dauer die Vergleichbarkeit erlaubt. Selbst nach Ablauf der Angabe von z.B. 2000 h geht das Bauteil mitnichten kaputt. Viel mehr beschränkt sich die Angabe darauf, dass die Kapazität dann um 20 % abnimmt. Zudem sollte man bedenken, dass im Vorregler durch die verhältnismäßig geringen Ströme (Aufwärtswandlung der Spannung) kaum Verluste auftreten und einen thermisch einwandfreien Arbeitsplatz für den Kondensator bedeuten. Zumindest im Falle des aktiven PFC wird das Siebglied entlastet und man kann ihn einfacher, kleiner und günstiger wählen. 105 °C werden dort in der Regel nie erreicht. Derartige Angaben gelten auch für Platinen oder Halbleiter, welche erst unter hohen Bedingungen Leiterbahnschäden bzw. Funktionsstörungen aufzeigen.

Japanische Modelle haben ihre PR-Popularität daher, dass sie eine gute Elektrolytformel (Elektrolyt = Kathode des Elektrolytkondensators) verwenden und gut abgedichtet sind, wodurch das flüssige Material um die Folien nicht so schnell austreten kann und der Kondensator generell unempfindlicher ist. Dabei wird unterschlagen, dass ein teures taiwanesisches Modell mit einem günstigen japanischen Fabrikat durchaus mithalten kann. Nur weil ein Bauteil aus Japan kommt, muss man die „Güteklasse“ also auch an verschiedenen Qualitätsklassen festmachen, nicht nur anhand der Herkunft.

Wie Vitamin C gegen Erkältung hilft ein wertiger Kondensator für gute Verkaufszahlen des Herstellers. Vitamine sind gesund, das ist allgemein bekannt, man kann es aber auch übertreiben. Bis ein Kondensator unter vernünftigen Bedingungen kaputt geht, sind günstige Lüfter durch die mechanische Bewegung bereits mehrfach verschlissen. Zudem wird oft argumentiert, dass ein japanisches Modell die Spannungsqualität beeinflusst. Bei der Restwelligkeit beispielsweise spielen in der Formel aber Kenngrößen eine Rolle, die prinzipiell erstmal nichts damit zu tun haben. Viel mehr ist die Kapazität je nach Strombelastung und Frequenz entscheidend, um ein sauberes Bild zu erhalten. Manche Hersteller nutzen den positiven Effekt und löten ein Modell sichtbar an einen Leitungsstrang. Natürlich wird das Spannungsbild durch die zusätzliche Kapazitätspräsenz verbessert, es spielt aber keine Rolle, ob man ihn intern anbringt oder außen, wo man ihn für PR-Zwecke nutzt.

Im eng bestückten Sekundärschaltkreis macht das Bauteil dennoch Sinn. Ob ein japanisches Modell also nun ein Wunder ist oder als zwecklos bezeichnet werden kann, muss jeder selbst für sich entscheiden. Wir jedenfalls meinen, die Wahrheit liegt irgendwo dazwischen. Es sind gute Bauteile, die unter schlechten Bedingungen länger leben, aber nicht immer zwangsweise notwendig sind.

Topologien zur Effizienzsteigerung

Da Umweltaspekte und die Energieeffizienz, also das Verhältnis von aufgenommener zu abgegebener Leistung eine Rolle spielen, beschäftigen wir uns mit aktuellen Topologien zur Steigerung dieser.

Gleichstromkonvertierung

DC-DC Converter

Üblicherweise werden die +5 V und +12 V Spannungen aus einem Quelltransformator generiert. +3,3 V wird in aller Regel von +5 V über eine separate Spule abgeleitet und steht in dessen Abhängigkeit. Bei der DC-DC Technik gibt der Transformator jedoch nur die 12V Spannung aus. Mit der Tatsache, dass der Druck der nun starken +12 V Spannung das Überwinden von Widerständen erleichtert und diese ohnehin immer wichtiger wirkt, sind erhebliche Vorteile in der Effizienz möglich, sofern die Umsetzung gelingt. Die +3,3 V und +5 V Spannungen werden per Spannungswandler von der +12 V Schiene abgeleitet. Dies geschieht aus Platzgründen oftmals auf einer Zusatzplatine, die hauptsächlich Feststoffkondensatoren, Spulen und Gleichrichterdioden beinhaltet. Der Ausgang wird durch die beiden zuletzt genannten Bauteile durchgehend mit einem hohen Strom versorgt. Ein Controller sorgt für die notwendige Dynamik bei verschiedenen Lastzuständen.

Ein weiterer Vorteil der DC-DC Technik ist die (bei guter Umsetzung) verbesserte Stabilität. Wird bei herkömmlichen Netzteilen zur Korrektur eine Spannung im Transformator erhöht oder gesenkt, sind die anderen Spannungen direkt betroffen und werden fälschlicherweise ebenso verändert. Da die Leitungen bei DC-DC Netzteilen unabhängig gefiltert und geregelt werden, kann dieses Problem durch eine getrennte Regelung vermieden werden. Schlussendlich wird bei der neuen Technik mehr Wert auf die 12V Leitung gelegt, weshalb den stromhungrigen PC-Komponenten ein höheres Leistungsvolumen auf dieser so wichtigen Leitung zur Verfügung steht. Da die kleineren Schienen bei heutiger Hardware kaum mehr benötigt werden, ist dies also eindeutig ein richtiger Schritt in die Zukunft und umgeht den ATX Standard geschickt, ohne die kleineren Schienen zu sehr zu vernachlässigen. Wobei die Spannungsregulation durch die schwache Dimensionierung der Converter meist verbesserungswürdig ist.

Mit dieser Topologie lässt sich der Wirkungsgrad auf der DC Seite gegenüber traditionellen Methoden verbessern, sofern man die kleinen Leitungen aufgrund ihrer niedrigen Auslegung nicht allzu sehr belastet. Damit lässt sich in der Regel 80Plus Silver Niveau erreichen.

Resonanzwandler

LLC-Resonanzwandler

Im Grundlagenteil haben wir die hochfrequenten Rechteckspannungen und die Schalter erwähnt, welche von einem PWM-Chip gesteuert werden. Während man mit dem Gleichstromwandler den Wirkungsgrad im DC-Bereich verbessert, treten im Primärschaltkreis aber immer noch Schaltverluste auf. Bedingt durch Größen wie der Einschaltdauer, Frequenzen und Strömen variiert die Höhe des Verlustes. Mit der Resonanz, einer Schaltung, die durch ihre Eigenfrequenz zum periodischen Schwingen angeregt wird, lässt sich der Wirkungsgrad nochmals steigern. Hintergrund ist der, dass während des Schaltvorgangs der Strom in die Rückrichtung gezwungen wird und mittels einer Diode auf ein niedriges Spannungsniveau gebracht wird. Der Strom eilt der Spannung hinterher, wobei dieser Vorgang durch den erwähnten Schwingkreis erzeugt wird. Da man meist mit zwei Transistoren schaltet, erzeugt der erste Halbleiter eine Halbschwingung, der zweite eine weitere in umgekehrter Richtung, wodurch ein fast sinusförmiger Verlauf entsteht. Wenn die Spannung ihren Nullpunkt durchschreitet, wodurch der nacheilende Strom noch im Minusbereich arbeitet, wird geschaltet. Da die Größe von Strom und Spannung in der Formel der Leistungsverluste beim Transistor eine Rolle spielen, wird die Abwärme durch Minimierung dieser reduziert. Man kann also nahezu verlustfrei schalten. Weiterer Vorteil ist die geringe Steilheit der Schwingung, die ansonsten zu EMV-Problemen führte. Einziger Nachteil eines nun oft verwendeten Schaltkreises, dem LLC-Resonanzwandler, ist die schwierig zu realisierende Effizienz unter geringer Last. Die Hersteller schalten daher bei Bedarf auf eine klassische PWM-Steuerung um bzw. sorgen mit einer Frequenzmodulation für höchste Wirkungsgrade bei verschiedenen Lasten. Enermax nennt diesen Vorgang bei der Übertragung DHT, Dynamic Hybrid Transformer. Wobei dynamisch nicht das Wort unserer Wahl wäre, da man im Grunde genommen immer noch mit einer begrenzten Anzahl an Festfrequenzen arbeitet. Nur dass diese Frequenz je nach Laststufe eben unterschiedlich festgelegt wird. Ein stufenloses Konzept würde eine volle Dynamik entfalten. Wenn man alle Komplikationen berücksichtigt, wird im Einklang mit einem DC-DC Wandler oftmals 80Plus Silver-Gold erreicht. Einige Hersteller haben dahingehend schon Lösungen präsentiert.

Als kleinen Zusatz möchten wir noch eine Frage beantworten, die oft von Lesern gestellt wird. Nämlich ob das PC-Netzteil bei 500 Watt Leistung auch 500 Watt aus dem Netz zieht, selbst wenn der PC nur 250 Watt benötigt. Dem ist nicht so, da der Regelkreis bestrebt ist, die Halbleiter durch sein Taktsignal so zu steuern, dass nur die gewünschte Menge inklusive der auftretenden Verlustleistung geschaltet wird und bedarfsorientiert am Ausgang gemessen wird. Abgesehen vom Wirkungsgrad wird also genauso viel aufgenommen, wie abgegeben wird. Eine intelligente Lösung, die bei Verzicht sonst zu thermischen Problemen führen würde.

Leistungsverteilung

Netzteil mit Single-12V-Rail

Netzteil mit einer großen 12 V Schiene

Die +12 V Schiene wird zweifelsfrei am meisten beansprucht, ca. 90% der Energie eines aktuellen PCs muss sie bereitstellen. Die +3,3 V und +5 V Schienen spielen also eine zunehmend kleinere Rolle, da im Raid-System beispielsweise nie alle Festplatten gleichzeitig voll belastet, dafür aber CPU und GPU nicht selten parallel beansprucht werden und zudem auch einzeln viel verbrauchen. Heutige Hersteller von High-End Netzteilen werben allerdings oft damit, Geräte im Angebot zu haben, die mit drei oder sogar mehr 12V Schienen ausgestattet sind. Doch der Vorteil trügt. Ein Netzteil kann immer nur eine bestimmte Leistung der Quelle, die Combined-Leistung, bereitstellen. Nehmen wir als Beispiel, dass es maximal 30A sind. Nun steht auf der Verpackung, dass Schiene 12V1 20 A und Schiene 12 V2 auch 20 A hat. Das sind doch 40 A? Die Angabe zeigt jedoch nur, wie viel Ampere von der Gesamtleistung (30 A) maximal auf eine Schiene geleitet werden können. Bei hoher Belastung von 12 V1 können dort beispielsweise alle 20 A verfügbar gemacht werden, und folgerichtig sind auf 12 V2 nur noch 10 A möglich. Genauso könnten es 15A + 15A, 18A + 12A und so weiter sein. Die einzelnen Schienen sind als begrenztes Transportmedium also bis maximal 20 A (oftmals mit 10 % Puffer) abgesichert, bevor sie aus Sicherheitsgründen ausgeschaltet werden. Dies wird vor allem dann zum Problem, wenn mehrere Komponenten an einer +12 V-Schiene sitzen und mehr als 20 A verbrauchen. In so einem Fall ist das Netzteil dann überlastet. Eine einzelne +12 V Schiene hat also den Vorteil, dass sie selten zu sehr belastet wird, da sie immer die volle Gesamtleistung des Netzteils zur Verfügung stellt. Gemäß der alten ATX-Richtlinie 2.0 besteht also eine Beschränkung im Beispiel mit den beiden +12V-Leitungen. Die Schienen werden oft auch als „Virtual Rails“ bezeichnet, da sie über einen gemeinsamen Transformator laufen, nicht wirklich eigenständig sind und logischerweise nur eine Aufteilung einer starken +12 V-Versorgung darstellen. Sie werden in dem Fall lokal über OCP abgesichert. So haben mehrere Schienen auch einen Sicherheitsvorteil. Eine einzelne wird oft mit Shunt-Widerständen versehen, da im Kurzschlussfall gefährliche Höhen erreicht werden. Je nachdem, wie lange der Kurzschluss dann wirkt, können Beschädigungen auftreten. „Mehr Schienen sind besser“ ist jedoch völlig aus der Luft gegriffen, da beide Methoden ihre Vor- und Nachteile haben.

Netzteilkühlung

Sowohl passive Kühlkörper als auch die Ventilation durch einen Lüfter sind eine bewährte Methodik, um das PC Netzteil zu kühlen. Wobei letztere Maßnahme direkt mit einem effektiven Luftstrom zusammenhängt. Gerade im PC-Bereich spielt die Stromversorgung eine große Rolle. Sie muss nicht nur das System mit der benötigten Menge an Energie versorgen, sondern ist im Falle der ATX-Spezifikation auch Teil des Kühlkonzepts im Gehäuse. In der Entwicklung wird man sich also zwangsweise nicht nur mit der elektronischen, sondern auch mit der physikalischen Anordnung im Gehäuse und Inneren beschäftigen müssen. Auch wenn Netzteile mittlerweile oft unten platziert und daher entkoppelt werden, tragen sie zumindest oben Teile der entstehenden Wärme von CPU und Hauptplatine ab. Daher widmen wir diesem wichtigen Thema nun etwas mehr Aufmerksamkeit, indem wir gängige Kühlkonzepte bei Netzteilen aufzeigen.

Beim rein passiven Konzept fallen die Kühlkörper voluminös aus, da sie die Abtragung der Abwärme durch die Luftbewegung fast vollständig kompensieren müssen. Trotzdem liegen die Temperaturen sehr oft höher als bei aktiv gekühlten Modellen und der Markt ist so klein, dass bislang vor allem kleinere Modelle bis 450 Watt vertreten sind. Alles andere ist physikalisch noch schwieriger zu realisieren. Neben den ausladenden Heatsinks dürfte vor allem den Bauteilen eine hohe Bedeutung zu kommen. Diese sind oftmals bis 50 °C spezifiziert, operieren also problemlos mit diesen Umgebungstemperaturen und werden stärker überdimensioniert.

Horizontales Lüfterkonzept

Beim aktiven Konzept kann ein Lüfter entweder von oben herab die gesamte Platinenfläche abdecken, oder wird horizontal zur Platine platziert. Im zuletzt genannten Fall muss man aufgrund der geringen Bauhöhe in aller Regel auf 80 mm Lüfter zurückgreifen. Nicht alle Komponenten werden also vom Luftstrom erfasst und der Lüfter dreht nicht selten sehr laut mit hohen Umdrehungszahlen. Bildet man jedoch eine adäquate Kühltopologie in Tunnelform, so nehmen die Kühlkörper wieder einen Großteil der Kühlung ab und die Abwärme wird dem Tunnel zugeführt. In dieser Kombination kann das 80 mm-Konzept seine beste Performance erreichen und andere Ideen kühltechnisch übertreffen.

Luftstrom bei vertikaler Kühlung

Wegen der breitflächigen 120-140 mm Lüfter ist die vertikale Kühlung oftmals leiser geregelt, nur dass die Kühlkörper hier nicht zu sperrig sein dürfen, da die unteren Regionen auf der Platine von oben herab noch erreicht werden müssen. Ggf. können Kleinstbauteile also im Windschatten von größeren Komponenten stehen. Oftmals werden die Ventilatoren last- wie auch temperaturgeregelt. Um hohen Temperaturen vorzubeugen, dreht der Lüfter je nach Last stufenweise auf, nimmt die Hitzeentwicklung aber dennoch stark zu, sorgt die Temperaturregelung für einen schnelleren Anstieg der Drehzahlen. Beim semi-passiven Modell mischt man sich bis in kritische Bereiche gar nicht ein, bevor der Lüfter die ansteigende Temperatur kompensiert. Das wirkt sich besonders positiv auf die Geräuschentwicklung, weniger gut aber auf die Lebensdauer der Komponenten aus. Im Falle von verlustarmen Schaltkreisen sollte dies mittlerweile allerdings kaum noch Probleme machen.

Marktsituation

Nicht jedes gute Netzteil muss man mit Gold aufwiegen

Nicht jedes gute Netzteil muss man mit Gold aufwiegen

Wie im Intro erwähnt gibt es eine Vielzahl an Marken, wobei zahlreiche Anbieter mitunter denselben Auftragsfertiger haben. D.h. wirkliche Hersteller gibt es am deutschen Markt weniger, als es brands und Serien gibt. Mitunter greift ein Unternehmen auch auf mehrere Markennamen zurück. Man sollte sich aber nicht täuschen lassen, denn derselbe Hersteller bedeutet nicht, dass die Modelle der Anbieter auch immer identisch sind. Jeder Produzent hat mehrere Netzteildesigns, die sich beliebig konfigurieren und abändern lassen.

Dennoch ist es interessant zu beobachten, welcher Produzent für wen fertigt. Hierzu kann man ohne das Netzteil zu öffnen, einige Indikatoren verwenden. Auf dem seitlichen Label mit den Herstellerangaben befindet sich eine UL-Zertifizierungsnummer wie z.B. E161451. Gibt man diesen auf der Serie database.ul.com ein, kann man unter „UL File Number“ den tatsächlichen Hersteller identifizieren.

Mitunter  sollte man mit dem Ergebnis aber vorsichtig umgehen, da manche Anbieter trotz Fremdfertigung eigene Nummern zugeteilt bekommen haben wie etwa Zalman oder Antec. Zu den bekanntesten Produzenten zählen Seasonic, Enermax, FSP, Channel Well Technology und Enhance. Diese lassen sich auch von außen anhand der Eingangsfilterung identifizieren, die oftmals ähnlich aufgebaut ist. Sofern man das Netzteil aufschraubt, sind die Form der Kühlkörper, Markierungen oder Trafobeschriftungen ausschlaggebend für die Identifikation.

Der Kunde hat bei dieser Situation einen Vorteil, den er nutzen sollte. Durch die große Auswahl bei der Mittelklasse kann er schnell Alternativen finden und ist in der Beziehung zum Verkäufer dominant. Man spricht bei dieser Extreme vom Käufermarkt. Der andere Vorteil pendelt sich automatisch ein, denn durch starke Konkurrenz sinken die Preise und neue Serien senken die Kosten der alten. Preislich muss sich der Kunde also zu nichts gezwungen fühlen, es sei denn, er lässt sich von 80Plus Zertifikaten leiten, da man in niedrigen Preisklassen natürlich nicht immer den gewollten Wirkungsgrad oder andere Features wie Kabelmanagement erhält. Ein interessanter Effekt ist auch, dass viele Hersteller bei der Garantie nachlegen, wenn ein anderer vorausgeht. An dieser Stelle möchten wir aber darauf hinweisen, dass eine nackte Jahreszahl keine Aussage über die Qualität und Kulanz der Supportleistungen aussagt. Als Leser sollte man seinen Einfluss ebenfalls nicht unterschätzen und diese Gegebenheit situationsbedingt ausspielen.

Was nützt einem nun die Einschätzung, welcher Hersteller dahinter steckt? Sofern man darüber hinaus noch das verwendete Layout kennt, ist es durchaus möglich, die Qualität grob einzuschätzen. Hat sich das Herstellerdesign bei anderen Anbietern bewährt und wird in großen Mengen auch an andere verkauft, kann man von einer gewissen Zuverlässigkeit ausgehen. Wenn sich zwei konkurrierende Netzteile dieselbe Plattform und ähnliche Merkmale teilen, aber unterschiedlich viel kosten, kann man besser einschätzen, wo man mehr für sein Geld bekommt. Auch ist es einfacher, eventuellen PR-Sprüchen wie „designed in Germany“ zu entgehen. Denn wenn der eigentliche Hersteller aus Taiwan kommt, wird zumindest die Technik auch dort in der R&D Abteilung entwickelt. Oft kommen die Kompetenzen also aus Fernost.