Was bedeutet GHz in Computern?

Geschichte

Der Begriff Gigahertz leitet sich von der Einheit "Hertz" ab, die ihren Namen Heinreich Hertz verdankt, der sich mit elektromagnetischer Strahlung befasst hat. Hertz-Studien zu elektrischen Zyklen führten zur Vorstellung von Hertz, die das Maß für diese Zyklen pro Sekunde ist.

Mach die Konten

Die Hertz-Eigenschaft basiert auf Umdrehungen pro Sekunde. Eine Umdrehung in einer Sekunde entspricht einem Hertz. Tausend Umdrehungen pro Sekunde sind ein Kilohertz. Eine Million Umdrehungen pro Sekunde machen einen Megahertz aus. Schließlich entspricht eine Milliarde Zyklen pro Sekunde einem Gigahertz.

Praktische Anwendung

Vor 10 Jahren waren Prozessoren mit Kapazitäten in Megahertz keine Seltenheit. Sie könnten beispielsweise Anzeigen für einen 500-MHz-Pentium 3 sehen. Computer werden derzeit in Gigahertz gemessen. Es ist heutzutage sehr verbreitet, Geräte mit zwei Gigahertz zu sehen, was bedeutet, dass der Prozessor 2.000 Millionen Umdrehungen pro Sekunde ausführt.

Je schneller, desto besser

Je höher die Taktrate einer Central Processing Unit (CPU) ist, desto schneller ist der Computer. Eine CPU mit 2.000 Millionen Umdrehungen pro Sekunde (2 GHz) ist schneller als eine mit 500 Millionen Umdrehungen pro Sekunde (500 MHz). Wenn Sie einen Computer kaufen, ist die Maschine umso schneller, je mehr Hertz Sie haben.

Theorien / Spekulationen

Terahertz-Prozessoren werden derzeit entwickelt. Diese Computer versprechen nicht nur eine schnellere Rechenleistung, sondern auch einen effizienteren Energieverbrauch.

Interessante Artikel