Moin.
Michael H.W. Weber hat geschrieben: ↑29.09.2022 07:13
Sehr kurios. Ich kann mir ehrlich gesagt nicht vorstellen, dass dieses unmögliche, zum Schrotten von WUs führende Verhalten in 12 Jahren BOINC-Entwicklung nicht behoben ist.
Ich kann mir das schon vorstellen. Boinc ist an vielen Stellen durchaus verbesserungsfähig. Da gab's doch diesen Thread zu zeitgemäßen Verbesserungen und so.
Michael H.W. Weber hat geschrieben: ↑29.09.2022 07:13
Außerdem sind >100 WUs der nach Deiner Interpretation dann ja wieder länger laufenden Sorte schon durchgekaut worden (und im Müll gelandet).
Ich weiß nicht, welche Hardware du da nutzt. Kann sein, dass dein Rechner einfach durchgängig einen Tick zu langsam ist. Eine Sekunde zu lang wäre ja schon genug, um im Abbruch zu enden.
Michael H.W. Weber hat geschrieben: ↑29.09.2022 07:13
Wie lange wird man warten müssen, bis das autokorrigiert ist?
Das weiß ich nicht.
Frag Christian - der kennt sich da aus.
Ich nehme an, dass es an der aktuellen Zusammensetzung von Berechnungslängen liegt. Es ist natürlich möglich, dass TRM genauso wie GPUGrid realitätsferne Werte eingebaut hat, die serverseitig nicht korrigiert werden.
Michael H.W. Weber hat geschrieben: ↑29.09.2022 07:13
Was für Werte müßte man manuell in die client_state.xml eintragen?
Etwas kleineres. Nimm vorne ein, zwei Stellen weg.
Zieh dir einen nicht ganz kleinen Cache, während etwas anderes läuft (z.B. eine PrimeGrid PPS mit Multi-Threading über alle Threads, so dass die TRMs nicht loslaufen), pausiere einen Großteil der TRMs, dann kappe die Internetverbindung, beende den Boinc-Client, passe den Wert an, starte den Client wieder, und schau, was passiert. Wenn die Dinger laufen, lasse auch die pausierten TRMs los. Und wenn das so läuft, stelle die Internetverbindung wieder her, um die fertigen Teile hochladen zu lassen.
Und ich bin gespannt, ob der Server den Wert dann wieder zurücksetzt.
Sollte das der Fall sein, setz eine VM auf, sperre die Dinger ein, und lasse sie jeweils nach dem vorstehenden Verfahren laufen - es sei denn, dass dieser 'neue' Rechner keine Probleme hat.
Oder nimm statt einer VM einen zweiten Client, um auszuprobieren, ob der weniger Probleme hat.
Michael H.W. Weber hat geschrieben: ↑29.09.2022 07:13
Ich finde es auch super dreist, dass die Projektleiter seit Tagen keinen Mucks zu den Reports im Discord liefern.

Bei GPUGrid abgeschaut.
Erwähnte ich schon einmal, dass ich PrimeGrid mag?
IMMER Admins im Discord, die zeitnah reagieren, wenn man sie pingt. Und das Forum funktioniert auch gut.
Warte: Das gesamte Projekt funktioniert gut.
