GPU-Nutzung unter Milkyway@home...

Astronomie (Einstein, Universe@Home, Milkyway@home, ...)
Nachricht
Autor
Benutzeravatar
Michael H.W. Weber
Vereinsvorstand
Vereinsvorstand
Beiträge: 20903
Registriert: 07.01.2002 01:00
Wohnort: Marpurk
Kontaktdaten:

Re: GPU-Nutzung unter Milkyway@home...

#25 Ungelesener Beitrag von Michael H.W. Weber » 20.04.2016 09:55

OK. Kannst Du bitte nochmal bei Dir schauen, ob es unvalidierte WUs (angezeigt auf deren Webseite in Deinem Account unter dem betreffenden Rechner; der Client meldet keine Probleme) gibt?

Michael.
Fördern, kooperieren und konstruieren statt fordern, konkurrieren und konsumieren.

http://signature.statseb.fr I: Kaputte Seite A
http://signature.statseb.fr II: Kaputte Seite B

Bild Bild Bild

Benutzeravatar
ClaudiusD
Vereinsmitglied
Vereinsmitglied
Beiträge: 1293
Registriert: 29.01.2013 16:52
Wohnort: Wien

Re: GPU-Nutzung unter Milkyway@home...

#26 Ungelesener Beitrag von ClaudiusD » 20.04.2016 20:54

Hi

ich hab 7 "Fertig, Bestätigung nicht möglich" von Gültig (12522)

klingt nach n guten Schnitt ;)
Bild

Benutzeravatar
Michael H.W. Weber
Vereinsvorstand
Vereinsvorstand
Beiträge: 20903
Registriert: 07.01.2002 01:00
Wohnort: Marpurk
Kontaktdaten:

Re: GPU-Nutzung unter Milkyway@home...

#27 Ungelesener Beitrag von Michael H.W. Weber » 21.04.2016 04:53

Also ich habe Deine Steuerdatei getestet.
Zunächst mal fehlt in der letzten Zeile der "slash", sodass ich mich wundere, dass sie bei Dir überhaupt funktioniert.

Dann mußte ich feststellen, dass obwohl meine Karte anfangs anständig Ergebnisse zu produzieren schien, die Rate der unvalidierbaren Ergebnisse nun über Nacht auf >30% angestiegen ist. :o
Mich wundert, dass ich auch schon bei anderen Projekten (POEM, Einstein) gelegentlich Fehler bekomme, wenn ich mehr als eine WU auf der Karte rechnen lasse.

Ich frage mich, ob die Karte irgendwo im Speicherbereich einen Hardwardefekt hat, sodass bei mehreren WUs Probleme auftreten?
Gibt es da ein Testprogramm, um die GPU hardwareseitig zu prüfen? Ich glaube noch habe ich Garantie...

Michael.

P.S.: Nehme ich Prmegrid WR WUs (einzeln!), so ist die Karte extrem schnell und arbeitet fehlerfrei - was aus meiner Sicht zeigt, dass die Karte technisch OK ist, da PrimeGrid extrem anspruchsvoll ist. Ein Speicherproblem in einem selten addressierten bereich allerdings ist damit nicht ausgeschlossen.
Fördern, kooperieren und konstruieren statt fordern, konkurrieren und konsumieren.

http://signature.statseb.fr I: Kaputte Seite A
http://signature.statseb.fr II: Kaputte Seite B

Bild Bild Bild

Tim
Vereinsmitglied
Vereinsmitglied
Beiträge: 901
Registriert: 05.04.2013 16:22
Wohnort: Hamburg

Re: GPU-Nutzung unter Milkyway@home...

#28 Ungelesener Beitrag von Tim » 21.04.2016 06:18

X1900AIW hat geschrieben:
KaDioNe hat geschrieben:Also den Chip identifizieren in China nachordern und per Heißluftlötstation austauschen, ...
Hast du das schon mal gemacht, das Equipment zur Verfügung?

Fehler im RAM feststellen geht mit dem Tool MemtestG80 bzw. MemtestCL:
https://folding.stanford.edu/home/download-utilities/
Probier das mal. Zeigt bei meinen R9 290x auch Speicherfehler an. Die laufen trotzdem bei Collatz Conjuncture ohne Probleme. Bei Poem dagegen habe ich viele Fehler.

Benutzeravatar
Michael H.W. Weber
Vereinsvorstand
Vereinsvorstand
Beiträge: 20903
Registriert: 07.01.2002 01:00
Wohnort: Marpurk
Kontaktdaten:

Re: GPU-Nutzung unter Milkyway@home...

#29 Ungelesener Beitrag von Michael H.W. Weber » 21.04.2016 08:09

Tim hat geschrieben:Probier das mal. Zeigt bei meinen R9 290x auch Speicherfehler an. Die laufen trotzdem bei Collatz Conjuncture ohne Probleme. Bei Poem dagegen habe ich viele Fehler.
Danke, werde ich testen.
Wenn Du Fehler gefunden hast, wieso reklamierst Du die Karte nicht?

Michael.
Fördern, kooperieren und konstruieren statt fordern, konkurrieren und konsumieren.

http://signature.statseb.fr I: Kaputte Seite A
http://signature.statseb.fr II: Kaputte Seite B

Bild Bild Bild

Tim
Vereinsmitglied
Vereinsmitglied
Beiträge: 901
Registriert: 05.04.2013 16:22
Wohnort: Hamburg

Re: GPU-Nutzung unter Milkyway@home...

#30 Ungelesener Beitrag von Tim » 21.04.2016 08:13

Weil ich sie selbst auf einem Flüssigkeitskühler umgebaut habe und die Gewährleistung eh schon abgelaufen ist.

Benutzeravatar
Michael H.W. Weber
Vereinsvorstand
Vereinsvorstand
Beiträge: 20903
Registriert: 07.01.2002 01:00
Wohnort: Marpurk
Kontaktdaten:

Re: GPU-Nutzung unter Milkyway@home...

#31 Ungelesener Beitrag von Michael H.W. Weber » 21.04.2016 10:30

Tim hat geschrieben:
X1900AIW hat geschrieben:
KaDioNe hat geschrieben:Also den Chip identifizieren in China nachordern und per Heißluftlötstation austauschen, ...
Hast du das schon mal gemacht, das Equipment zur Verfügung?

Fehler im RAM feststellen geht mit dem Tool MemtestG80 bzw. MemtestCL:
https://folding.stanford.edu/home/download-utilities/
Probier das mal. Zeigt bei meinen R9 290x auch Speicherfehler an. Die laufen trotzdem bei Collatz Conjuncture ohne Probleme. Bei Poem dagegen habe ich viele Fehler.
So, ich habe das inzwischen ausgiebig getestet:

Meine MSI R9 290X Lightning ist ab Werk auf 1080 MHz Core Clock und 1250 MHz Memory Clock eingestellt. Die AMD-Specs sehen 1000/1250 MHz vor. Also ist meine Karte ab Werk leicht übertaktet.
Der GPU-Test vom FAH-Team liefert bei mir Fehler und zwar stets einen Typ: Random Blocks. Alles andere läuft fehlerfrei.
Ich habe zudem festgestellt, dass eine Erhöhung der Kühlrate (meine Quirls drehen regulär bei 43% (unter Vollast 66-69°C) - ich habe sie mal auf 80% hochjaulen lassen (59-62°C)) zu keiner Verminderung der Fehlerrate führt.
Das Zurücksetzen der Core Clock auf die von AMD spzifizierten 1000 MHz führt zu einer minimalen Reduktion der Fehler - ich vermute allerdings, dass diese statistisch nicht relevant ist (ich habe nur 10 Durchläufe jeweils getestet: Wenn da schon Fehler kommen, ist klar, dass etwas im Argen ist - da brauche ich also nicht mehr Zeit investieren).
Wenn man den zu testenden Speicherbereich vergößert (bis max. 1 GB habe ich getestet, darüber steigt der Test aus, was normal ist) wird die Fehlerrate signifikant höher. Denke aber auch hier, dass dies zwar meine Befürchtung (sieh oben: Teilbereiche des Speichers defekt?) etwas untermauert, aber dann sollten auch andere Tests Probleme liefern. Zumal stellt sich die Frage, wo dann der Unterschied zwischen 40x 256 MB und 10x 1 GB Tests liegen soll.

Kurz:
Was muss mir nun der reproduzierbare Random Blocks Fehler sagen? Ist der relevant?
Wie gesagt: Milkyway macht Stress, alles andere läuft fehlerfrei: PrimeGrid, Folding@home, Collatz Conjecture, Einstein@home (solange ich nie mehr als 1 WU parallel rechne), POEM@home (solange ich nie mehr als 1 WU parallel rechne).
Mag es etwas mit speziellen Anforderungen an DP zu tun haben? Dagegen spricht, dass beim Parallelbetrieb von Nicht-DP-Projekten ebenfalls Fehler auftreten.
Ich tappe also etwas im Dunkeln.
Die Karte hat 3 Jahre Garantie, innerhalb der ersten beiden (und die sind noch nicht ganz um) bietet MSI einen Vor-Ort-Umtausch.Das Ding hat gekostet und ich will es fehlerfrei einsetzen können.

Die im anderen Forenbereich vorgeschlagenen Teste habe ich teilweise (OpenGL, DirectX) durch: Keine Fehler (das hätte mich sonst auch bei diesen Tests gewundert, da die wohl wenig mit OpenCL zu tun haben). Die Karte arbeitet ansonsten im regulären Office-Betrieb absolut fehlerfrei. Spiele habe ich bislang nicht getestet.

Michael.
Fördern, kooperieren und konstruieren statt fordern, konkurrieren und konsumieren.

http://signature.statseb.fr I: Kaputte Seite A
http://signature.statseb.fr II: Kaputte Seite B

Bild Bild Bild

Benutzeravatar
Michael H.W. Weber
Vereinsvorstand
Vereinsvorstand
Beiträge: 20903
Registriert: 07.01.2002 01:00
Wohnort: Marpurk
Kontaktdaten:

Re: GPU-Nutzung unter Milkyway@home...

#32 Ungelesener Beitrag von Michael H.W. Weber » 21.04.2016 14:07

Der MSI-Kundendienst meint, solche Effekte könnten auch vom Netzteil verursacht werden.
Nun werkelt da ein 750er Seasonic X-Series Gold...

Michael.
Fördern, kooperieren und konstruieren statt fordern, konkurrieren und konsumieren.

http://signature.statseb.fr I: Kaputte Seite A
http://signature.statseb.fr II: Kaputte Seite B

Bild Bild Bild

Benutzeravatar
Michael H.W. Weber
Vereinsvorstand
Vereinsvorstand
Beiträge: 20903
Registriert: 07.01.2002 01:00
Wohnort: Marpurk
Kontaktdaten:

Re: GPU-Nutzung unter Milkyway@home...

#33 Ungelesener Beitrag von Michael H.W. Weber » 21.04.2016 21:46

So, offenbar ist den Angaben auf der Milkyway-Webseite auch nicht zu glauben: Plötzlich fehlen vormals als eindeutig fehlerhaft abgebrochene Jobs in der Übersicht und angeblich sind 25 weitere nicht validierbar, diese tauchen dann in der Detauilansicht aber nirgends auf.
Keinen Bock mehr drauf.

Nacht.
Michael.
Fördern, kooperieren und konstruieren statt fordern, konkurrieren und konsumieren.

http://signature.statseb.fr I: Kaputte Seite A
http://signature.statseb.fr II: Kaputte Seite B

Bild Bild Bild

Benutzeravatar
Michael H.W. Weber
Vereinsvorstand
Vereinsvorstand
Beiträge: 20903
Registriert: 07.01.2002 01:00
Wohnort: Marpurk
Kontaktdaten:

Re: GPU-Nutzung unter Milkyway@home...

#34 Ungelesener Beitrag von Michael H.W. Weber » 22.06.2016 22:21

Nachdem ich heute mal wieder Milkyway probiert habe, sind erneut >50% der WUs fehlerhaft. Projekt kommt auf der R9 endgültig in den Eimer. Kackscheisse.
Kapieren tue ich das wirklich nicht: Primegrid Genefer WR WUs - so ziemlich das Härteste, was man seiner GPU antun kann - laufen eisern und ohne jeglichen Fehler über drei Tage bei den derzeitigen Außentemperaturen durch.

Michael.
Fördern, kooperieren und konstruieren statt fordern, konkurrieren und konsumieren.

http://signature.statseb.fr I: Kaputte Seite A
http://signature.statseb.fr II: Kaputte Seite B

Bild Bild Bild

Benutzeravatar
gemini8
Vereinsmitglied
Vereinsmitglied
Beiträge: 3931
Registriert: 31.05.2011 10:30
Wohnort: Hannover

Re: GPU-Nutzung unter Milkyway@home...

#35 Ungelesener Beitrag von gemini8 » 22.06.2016 22:32

PrimeGrid läuft auf der GeForce 570 unter Linux auch hervorragend, aber dafür kratzt mir Moo nach sieben Sekunden ab.
Mit anderer Sekundenzahl kann ich dasselbe für die olle 320m unter OS X sagen.

Irgendwo muß es noch eklatante Unterschiede in den Programmen geben.
Gruß, Jens
- - - - - -
Lowend-User und Teilzeitcruncher

Bild Bild Bild
Bild

Antworten

Zurück zu „Astronomie“