Einzelnen Beitrag anzeigen
  #368  
Alt 27.02.2026, 16:26
Benutzerbild von spacious_mind
spacious_mind spacious_mind ist offline
Lebende Foren Legende
 
Registriert seit: 29.06.2006
Ort: Alabama, USA
Land:
Beiträge: 2.702
Abgegebene Danke: 1.316
Erhielt 2.120 Danke für 848 Beiträge
Aktivitäten Langlebigkeit
18/20 18/20
Heute Beiträge
0/3 sssss2702
Re: SenseRobot AI Test Spiele und Tests

Hier ist ein Vergleich der beiden Turniere. Das Bild ist zwar klein und etwas unscharf, aber größer ging es leider nicht, ohne dass man auf der Seite scrollen muss.



SenseRobot AI Level 25 (2500 ELO) gewann ein Spiel mehr als Level Apex Duel, aber Stockfish 18 gewann im ersten Turnier drei Spiele mehr als im zweiten.

Da ich immer noch der Meinung bin, dass es praktisch keinen Unterschied zwischen Level 25 und Apex Duel gibt, habe ich mich auch dazu entschlossen, die Spiele in einer einzigen PGN-Datei zusammenzuführen und die SenseRobot-Spiele in SenseRobot AI umzubenennen, nur um zu sehen, wie es über die insgesamt gespielten 4 Runden (760 Spiele) aussehen würde.

Level 25 hatte im Einzelvergleich eine Wertung von 3790 und Apex Duel eine Wertung von 3780. Hier die kombinierten Ergebnisse aller Teilnehmer über 4 Runden:

Code:
    Program                          Elo    +   -   Games   Score   Av.Op.  Draws

  1 SenseRobot AI                  : 3785   38  28    76    59.9 %   3715   80.3 %
  2 Stockfish 18                   : 3776   36  26    76    58.6 %   3716   82.9 %
  3 Reckless 0.8.0                 : 3776   37  30    76    58.6 %   3716   80.3 %
  4 Stockfish 17.1                 : 3771   36  29    76    57.9 %   3716   81.6 %
  5 PlentyChess-7.0.0              : 3767   35  27    76    57.2 %   3716   82.9 %
  6 Alexandria-8.1.12              : 3749   34  30    76    54.6 %   3717   82.9 %
  7 Obsidian160                    : 3749   31  23    76    54.6 %   3717   88.2 %
  8 Clover.9.1                     : 3745   37  34    76    53.9 %   3717   78.9 %
  9 Integral 7.0.0                 : 3736   26  18    76    52.6 %   3718   92.1 %
 10 Pawnocchio-1.9.2               : 3732   31  29    76    52.0 %   3718   85.5 %
 11 Caissa-1.24                    : 3727   29  27    76    51.3 %   3718   86.8 %
 12 Dragon 3.3                     : 3723   33  32    76    50.7 %   3719   82.9 %
 13 Berserk-13                     : 3719   31  31    76    50.0 %   3719   84.2 %
 14 Viridithas-19.0.1              : 3714   32  33    76    49.3 %   3719   82.9 %
 15 Quanticade Cronus 3.0          : 3701   32  35    76    47.4 %   3720   81.6 %
 16 lc0-v0.32.1                    : 3693   39  41    76    46.1 %   3720   73.7 %
 17 Chess-System-Tal-2.00          : 3662   36  40    76    41.4 %   3722   75.0 %
 18 Rebel-16.3                     : 3657   31  38    76    40.8 %   3722   78.9 %
 19 Rebel-EAS-3.0                  : 3639   40  45    76    38.2 %   3723   68.4 %
 20 Wasp 7.14                      : 3537   49  57    76    25.0 %   3728   50.0 %
Games : 760 (finished)

White Wins : 117 (15.4 %)
Black Wins : 35 ( 4.6 %)
Draws : 608 (80.0 %)
Unfinished : 0

White Perf. : 55.4 %
Black Perf. : 44.6 %

ECO A = 70 Games ( 9.2 %)
ECO B = 264 Games (34.7 %)
ECO C = 93 Games (12.2 %)
ECO D = 175 Games (23.0 %)
ECO E = 158 Games (20.8 %)

Falls es jemanden interessiert, hier ist das PGN der 760 Spiele, die in SenseRobot AI umbenannt wurden:

https://www.schachcomputer.info/foru...1&d=1772205902

Gruss

Nick
Angehängte Grafiken
Dateityp: jpg Compare3.jpg (83,4 KB, 68x aufgerufen)
Angehängte Dateien
Dateityp: pgn The Three Second Blitz Merged.pgn (13,24 MB, 4x aufgerufen)
Mit Zitat antworten
Folgende 3 Benutzer sagen Danke zu spacious_mind für den nützlichen Beitrag:
DirkS (27.02.2026), kamoj (27.02.2026), Major Chaos (27.02.2026)