Thema: Turnier: Der King im Blitzschach
Einzelnen Beitrag anzeigen
  #7  
Alt 24.01.2020, 11:42
Benutzerbild von LocutusOfPenguin
LocutusOfPenguin LocutusOfPenguin ist offline
Chess Machine
 
Registriert seit: 03.08.2017
Ort: Karlsruhe
Land:
Beiträge: 349
Abgegebene Danke: 110
Erhielt 306 Danke für 163 Beiträge
Aktivitäten Langlebigkeit
1/20 7/20
Heute Beiträge
0/3 ssssss349
AW: Der King im Blitzschach

 Zitat von StPohl Beitrag anzeigen
Ein fairer. Man muss verstehen, dass die Betrachtung der Bedenkzeit eigentlich der völlig falsche Ansatz ist. Es geht immer um die Kombination von Bedenkzeit und Rechengeschwindigkeit. Also letzlich um die Menge der Knoten, die pro gespieltem Brettzug berechnet werden. Das Betrachten der Bedenkzeit alleine, ohne Berücksichtigung der Hardwaregeschwindigkeit, ist also eine fälschliche Vereinfachung.
Sonst könnte man ja Stockfish auf einem alten 486 Prozessor gegen irgendeine Uraltengine wie Hiarcs oder so auf einem modernen PC mit gleicher Bedenkzeit spielen lassen und dann überrascht feststellen, dass Hiarcs ja besser ist als Stockfish. Was offensichtlich absurd ist.
Fair kann man Schachprogramme nur testen, wenn man die Kombination aus Bedenkzeit und Hardwaregeschwindigkeit betrachtet und aneinander anpasst. Alles andere führt logischerweise zu absurden Ergebnissen. Wie das eben genannte Beispiel illustrieren sollte.

Ganz präzise formuliert geht es also um IPPM (selbst ausgedachte Abkürzung) = Instructions per played move. Also wieviele Befehle der Prozessor pro gespieltem Zug der Engine ausführen kann. Da muss die Balance stimmen (und diese hängt eben von Bedenkzeit und Hardwareleistungsfähigkeit ab). Dann und nur dann, hat man einen fairen Vergleich der Engines selbst.

Es ist UNFAIR, Engines zu beschneiden. Wer bestimmt denn diese Regeln?
Lass Sie doch mit der max. möglichen HW laufen bzw. auf dem was der Hersteller so höchst selbst (!) festgelegt hat.

Uralt Schachcomputer konnten es sich halt nicht erlauben, die Pos. mit allen Mitteln zu bewerten, weil Sie dann eben nicht tief genug kamen. Der Entwickler hat damals wie heute eine Abwägung getroffen, was in der Stellungsbewertung rein kommt im Vergleich zur Geschwindigkeit der aktuellen HW. Doof waren die früher auch nicht, aber es ging vieles halt einfach nicht (nicht genug RAM, mHz, ...).

Nun, wird alles irgendwie heruntergefahren (Ja warum denn??) ... Der verliert halt ein Lyon 68000 gegen ein Hiracs. Warum soll man das auf 1% heruntersetzen? Warum dann nicht 0,1% ...dann verliert Hiracs noch gegen mehr Gegner.

Anderes Beispiel:
Andere Algos profitieren von mehreren Cores, anderer schaffen das nicht so gut. Und wenn ich jetzt alles auf 1Core FESTLEGE, tue ich dem Entwickler, der sein Code für mehrere Cores optimiert habe, Unrecht.

Kurzum: nix ist fair. und nps schonmal garnicht und auch dein IPPM nicht.
Der einzige Vergleich ist das Ergebnis auf dem Schachbrett, egal wie das erreicht wurde
(und da kann ich natürlich schummeln wie bei deinem 486 Vergleich - aber so ist es halt).
Mit Zitat antworten