WinFuture-Forum.de: Geschwindigkeit erhöhen - WinFuture-Forum.de

Zum Inhalt wechseln

Alle Informationen zum Thema Windows 7 in unserem Special. Windows 7 Download, FAQ und neue Funktionen im Überblick.
Seite 1 von 1

Geschwindigkeit erhöhen Verarbeitungsgeschwindigkeiten von Programmen erhöhen.


#1 Mitglied ist offline   Holger_N 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.111
  • Beigetreten: 11. September 10
  • Reputation: 458
  • Geschlecht:Männlich

geschrieben 24. Juli 2011 - 07:38

Mal angenommen mein Videobearbeitungsprogramm rendert einen bearbeiteten Film in 30 Minuten. Dabei wird das System zu knapp 100% ausgelastet. Wenn ich nun die Kapazitäten des Systems so erhöhe, dass das Ganze nur die Hälfte der Zeit dauern würde, dann dauert es aber trotzdem 30 Minuten, nur dass das System dabei nur zu 50 % ausgelastet ist. Mathematisch ist das ja soweit richtig aber nicht der Sinn der Sache. Gibt es noch andere Möglichkeiten, den Programmen zu sagen, dass genug zu Essen da ist und sie sich nur zu nehmen brauchen, außer im Taskmanager den entsprechenden Prozessen höchste Priorität zu geben, bei der Zugehörigkeit alle Kerne festzlegen und in den Programmen selbst, wenn möglich den maximal nutzbaren Arbeitsspeicher zuzuweisen? Diese 3 Sachen hab ich schon probiert.
Bauernregel: Regnets mächtig im April, passiert irgendwas, was sich auf April reimt.
0

Anzeige



#2 _d4rkn3ss4ev3r_

  • Gruppe: Gäste

geschrieben 24. Juli 2011 - 10:58

Das müsste dann im Programm ansich angepasst werden. Bringt einem zB nix wenn man 4 Cpu Kerne hat, aber das Programm nur 2 nutzt.

Mehr als deine beiden Sachen kannst du da nicht machen. Nur halt schnelleren Ram und 'ne SSD.
0

#3 Mitglied ist offline   Mr. Floppy 

  • Gruppe: VIP Mitglieder
  • Beiträge: 4.115
  • Beigetreten: 01. Juli 08
  • Reputation: 271
  • Geschlecht:Männlich

geschrieben 24. Juli 2011 - 11:25

Ist das nur ein Gedankenspiel? Ansonsten würde ich sagen, daß die CPU nicht der limitierende Faktor ist. Es ist ja nicht so, daß ein Programm sagt, ich hätte jetzt gern x% CPU Auslastung. Das Programm läuft einfach und beansprucht die CPU dann eben zu x%. Wenn dabei keine 100% erreicht werden, sind die Aufgaben schneller abgearbeitet als neue nachkommen. Das Programm wird nicht freiwillig die CPU abgeben. Beim High Performance Computing (HPC) sagt man z.B. wer auf die Festplatte zugreifen muß, hat schon verloren.

Die Erhöhung der Prozeßpriorität hat nur bedingt einen Einfluß auf die Geschwindigkeit und kann sogar hinderlich sein. Damit plant der Scheduler den Prozeß nur öfter ein. Wenn er dann merkt, daß er eigentlich noch auf I/O wartet, geht diese (vergleichsweise kurze) Zeit für andere Prozesse verloren.

Dieser Beitrag wurde von Mr. Floppy bearbeitet: 24. Juli 2011 - 11:27

0

#4 Mitglied ist offline   LoD14 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.931
  • Beigetreten: 04. Mai 03
  • Reputation: 45
  • Wohnort:Hennef bei Köln

geschrieben 24. Juli 2011 - 11:46

Es gibt viele Faktoren, die die Bearbeitungsgeschwindigkeit beeinflussen.

Natürlich ist der CPU ein Kernfaktor. Allerdings gibt es noch viel mehr Flaschenhälse.

Ein paar Beispiele.

Dein neuer CPU bietet doppelt so viel Leistung. Aber der Datenbus kann nicht genügen Daten an den CPU übertragen. Dann kann der CPU nur so schnell rechnen wie er Daten zum rechnen bekommt.

Die Festplatte kann nicht so schnell Daten auslesen und an den Controller leiten, wie dein Datenbus zum CPU weiterleiten könnte. Dann wäre die Geschwindigkeit der Festplatte der limitierende Faktor.

Beispiel du willst eine DVD rippen. Es gibt einige DVD Laufwerke, die eine künstliche Sperre in der Firmware haben, das Video DVDs nur mit 2x ausgelesen werden dürfen. Dann kannst du noch so einen schnellen CPU haben, die Daten fließen nur mit 2x vom Laufwerk und werden entsprechend langsam verarbeitet.

Deine Software mit der du arbeitest kann für Multithreading nicht programmiert sein. Dann nützt beispielsweise ein CPU mit Hyperthreading oder Multicore nicht viel.

Dein Betriebssystem kann mit dem Ram nicht umgehen. Beispielsweise erlauben manche Betriebssysteme nur eine größe von x Gigabyte für einen Task im Arbeitsspeicher. Dann ist das limitierende Faktor.

Daher ist es extrem schwierig, ein System zu erstellen, was genau 2x die Leistung des vorherigen Systems darstellt.
0

#5 Mitglied ist offline   Holger_N 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.111
  • Beigetreten: 11. September 10
  • Reputation: 458
  • Geschlecht:Männlich

geschrieben 24. Juli 2011 - 12:43

Ja die Werte sind ein Gedankenspiel aber den Effekt hab ich so ähnlich, weil ich mir dacht, wenn ich schon einen 4-Kerner hab auf ein 64-Bit-System mit einer 64-bit-Software arbeite mit 12-GB-RAM sollte das nur so durchpfeifen. Nun hat es aber ne Stunde gedauert aber immerhin wurden in der Zeit 130 GB Daten berechnet und auf Platte geschrieben.
Bauernregel: Regnets mächtig im April, passiert irgendwas, was sich auf April reimt.
0

#6 Mitglied ist offline   Ecce Homo 

  • Gruppe: aktive Mitglieder
  • Beiträge: 333
  • Beigetreten: 24. August 10
  • Reputation: 21
  • Geschlecht:Männlich
  • Wohnort: 
  • Interessen: 

geschrieben 24. Juli 2011 - 13:41

Beitrag anzeigenZitat (Holger_N: 24. Juli 2011 - 12:43)

Ja die Werte sind ein Gedankenspiel aber den Effekt hab ich so ähnlich, weil ich mir dacht, wenn ich schon einen 4-Kerner hab auf ein 64-Bit-System mit einer 64-bit-Software arbeite mit 12-GB-RAM sollte das nur so durchpfeifen. Nun hat es aber ne Stunde gedauert aber immerhin wurden in der Zeit 130 GB Daten berechnet und auf Platte geschrieben.


Dann liegt bei dir der Engpass entweder bei der Festplatte, oder bei der Programmierung der Software. Bei letzterem kann man nicht viel tun, außer auf neue, optimierte Versionen warten, aber ersteren Flaschenhals könntest du durch eine SSD beseitigen (sofern du noch keine hast), mehr dazu auch in folgendem Thread:

Klick!
On his birthday, Chuck Norris randomly selects one lucky child to be thrown into the sun.
0

#7 Mitglied ist offline   Holger_N 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.111
  • Beigetreten: 11. September 10
  • Reputation: 458
  • Geschlecht:Männlich

geschrieben 24. Juli 2011 - 14:58

Beitrag anzeigenZitat (Ecce Homo: 24. Juli 2011 - 13:41)

Dann liegt bei dir der Engpass entweder bei der Festplatte, oder bei der Programmierung der Software. Bei letzterem kann man nicht viel tun, außer auf neue, optimierte Versionen warten, aber ersteren Flaschenhals könntest du durch eine SSD beseitigen (sofern du noch keine hast), mehr dazu auch in folgendem Thread:



Die SSD-Platten sind mir noch zu winzig bzw. wenn es anfängt interessant zu werden, zu teuer. Ich hab (alle zur Verfügung stehenden Platten zusammengerechnet) in meinem "Videobearbeitungsworkflow" 8 Terabyte. Da wird man bei SSD sehr arm.
Bauernregel: Regnets mächtig im April, passiert irgendwas, was sich auf April reimt.
0

#8 Mitglied ist offline   Ecce Homo 

  • Gruppe: aktive Mitglieder
  • Beiträge: 333
  • Beigetreten: 24. August 10
  • Reputation: 21
  • Geschlecht:Männlich
  • Wohnort: 
  • Interessen: 

geschrieben 24. Juli 2011 - 17:42

Beitrag anzeigenZitat (Holger_N: 24. Juli 2011 - 14:58)

Die SSD-Platten sind mir noch zu winzig bzw. wenn es anfängt interessant zu werden, zu teuer. Ich hab (alle zur Verfügung stehenden Platten zusammengerechnet) in meinem "Videobearbeitungsworkflow" 8 Terabyte. Da wird man bei SSD sehr arm.


Das ist allerdings wahr ;) Wie wäre es mit einem RAID-Verbund? RAID0 wäre noch immer günstiger als SSDs, aber auch schon um einiges schneller als einzelne Festplatten, natürlich hättest du dann auch ein etwas höheres Risiko von Datenverlust, was man mit RAID5 mehr als ausgleichen könnte, aber das käme natürlich wieder deutlich teurer.
On his birthday, Chuck Norris randomly selects one lucky child to be thrown into the sun.
0

#9 Mitglied ist offline   Holger_N 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.111
  • Beigetreten: 11. September 10
  • Reputation: 458
  • Geschlecht:Männlich

geschrieben 24. Juli 2011 - 18:33

Ich glaub, damit abfinden, dass es eben einen Moment länger dauert ist noch billiger. Grundsätzlich ist meine "Anlage" ja schnell genug, also was das Bearbeiten angeht. Da hakelt nix oder so, ich hätte nur gedacht, das Rendern geht noch schneller. Das dauert ja nun auch schon bloß noch noch 45 Minuten, wo der Rechner vor 6 Jahren noch 8 Stunden dran gerödelt hat.
Ich war nur irritiert, dass die Programme so undankbar auf die Verdreifachung des RAMs reagierten.
Wahrscheinlich ist das wie bei einem Handwerker, wo man denkt der freut sich, wenn man ihm eine größere Werkbank schenkt aber der denkt "Ach du Scheiße, da muß ich ja noch mehr arbeiten."
Bauernregel: Regnets mächtig im April, passiert irgendwas, was sich auf April reimt.
0

#10 Mitglied ist offline   LoD14 

  • Gruppe: aktive Mitglieder
  • Beiträge: 5.931
  • Beigetreten: 04. Mai 03
  • Reputation: 45
  • Wohnort:Hennef bei Köln

geschrieben 24. Juli 2011 - 18:44

Wobei das auch von der Software abhängt. Es muss eine Software sein, die für x64 gecodet wurde, um überhaupt mehr als 4GB auf einem x64 System nutzen zu können. Wenn es noch eine "alte" Win32 Anwendung oder generell eine 32 Bit Anwendung auf irgend einem System ist, kann sie selbst bei 64 Bit CPU und 64 Bit OS ja nur 2^32 Bit Speicher nutzen, also maximal 4GB.
0

Thema verteilen:


Seite 1 von 1

1 Besucher lesen dieses Thema
Mitglieder: 0, Gäste: 1, unsichtbare Mitglieder: 0