|
||||
|
AW: SenseRobot AI Test Spiele und Tests
Angetrieben von der Motivation, eine Engine zu haben, die dem SenseRobot-Stil ähnelt, habe ich nun ein neues Projekt veröffentlicht:
https://github.com/parlue/maia2-uci Das Projekt basiert auf dem Maia2-Projekt. Ich habe eine Windows-Version erstellt, die z.B. mit BearChess genutzt werden kann. Beim ersten Start kann es etwas dauern, bis der erste Zug erscheint, da die Netzwerke geprüft und gegebenenfalls heruntergeladen werden. Ich hatte bereits viel Spaß mit dem Projekt, da sich die Spielstärke der Engine sehr flexibel skalieren lässt. Ziel ist es immer, einen möglichst menschlichen Zug zu finden. Neu ist, dass man sowohl die Stärke der Engine als auch die angenommene Spielstärke des Gegners einstellen kann. Dadurch werden innerhalb der Trainingsdaten gezielt Partien mit möglichst vergleichbaren Konstellationen berücksichtigt. Die Lichess-Ratings reichen bis etwa 3000, daher sind Einstellungen bis ungefähr 2700 noch sinnvoll nutzbar, da hierfür ausreichend Trainingspartien vorhanden sind. Im GitHub-Repository ist alles ausführlich beschrieben (aktuell auf Englisch). Die UCI-Engine bietet viele neue Parameter zur Anpassung des Spielstils. Als Helper-Engine habe ich Stockfish18 mit einem Analysezeitfenster von 600 ms verwendet. Ein Downloadlink für ein Binary ist unten im Readme. Falls es hierzu Bedarf an Austausch gibt einen neuen Fred hier eröffnen. Ich schreibe das nun hier , da ich von dem Fred und Nicks Arbeit motiviert wurde genau das zu machen. Das ist keine Analyseengine! Es ist eine Engine zum spielen mit dem einen Ziel etwas neues zu kreieren um ein menschliches Spiel zu kreieren. Die Forschung aus maia2 bietet eine tolle Basis. Ich habe diese nur mit ein paar Ideen zum Leben erweckt. LG Dirk Geändert von DirkS (Heute um 11:27 Uhr) |
| Folgende 2 Benutzer sagen Danke zu DirkS für den nützlichen Beitrag: | ||
spacious_mind (Heute), Tibono (Heute) | ||
| Folgender Benutzer sagt Danke zu spacious_mind für den nützlichen Beitrag: | ||
DirkS (Heute) | ||
|
||||
|
AW: SenseRobot AI Test Spiele und Tests
Du kannst die Binär Datei aus dem Download verwenden wie jede andere Engine.
Der Code ist dem geschuldet das jeder es verbessern kann. LG Dirk |
|
||||||||||||
|
Re: SenseRobot AI Test Spiele und Tests
Hallo Dirk
PS. Ich habe den Beitrag bewusst „SenseRobot AI Test Spiele und Tests“ genannt, damit alle Interessierten hier an einem Ort posten können. So kann jeder, der Spiele mit der SenseRobot-KI gespielt hat, seine Spiele, Tests, Erfahrungen und Ideen teilen. Ich bin momentan etwas dominant in diesem Thread, weil ich an Turnieren teilnehme. Daher habe ich absolut nichts gegen eure Beiträge und die aller anderen. Ich fand es damals sinnvoll, alles an einem Ort zu sammeln, insbesondere da SenseRobot als etwas umstritten gilt. ![]() Ähnlich wie damals, als Mess herauskam. Mittlerweile ist Mess allgemein akzeptiert. ![]() Gruss Nick |
| Folgender Benutzer sagt Danke zu spacious_mind für den nützlichen Beitrag: | ||
DirkS (Heute) | ||
|
||||
|
AW: SenseRobot AI Test Spiele und Tests
BTW als ich Wasp geschlagen habe, habe ich die Blunderprevention auf 40 / 0.4 pwan gestellt. Dadurch habe ich eigentlich versucht Remis zu halten. SF als Gegner konnte sich langsam immer weiter verbessern, da war klar wie stark SF18 ist. Man kann da eine Menge schärfen und aufweichen. Mit 200 kann ich auf meinem Level gut Chancen suchen.
Das will man als Mensch, nicht im engine vs engine. Es beeinflusst die Qualität..Es ist so rasend schnell wie der Bot. LG Dirk |
|
||||||||||||
|
Re: SenseRobot AI Test Spiele und Tests
Das zweite 3-Sekunden-Turnier ist nun beendet. Hier ist die Endtabelle:
SenseRobot Ape X gewann das Turnier dank überlegener Siege gegen stärkere Gegner, erreichte aber dieselbe Punktzahl wie Reckless 0.8.0. LCO verbesserte sich deutlich und erzielte seine drei besten Siege problemlos gegen die stärksten Turniergegner. Es verlor lediglich zwei Partien. Im Vergleich zum vorherigen Turnierergebnis mit 3 Sekunden pro Zug ist dies jedoch eine deutliche Verbesserung. Hier sind einige Turnierstatistiken: Code:
Program Elo + - Games Score Av.Op. Draws 1 SenseRobot AI-LV Apex Duel : 3780 57 36 38 59.2 % 3716 81.6 % 2 Reckless 0.8.0 : 3780 57 36 38 59.2 % 3716 81.6 % 3 Stockfish 17.1 : 3771 54 33 38 57.9 % 3716 84.2 % 4 Stockfish 18 : 3754 49 26 38 55.3 % 3717 89.5 % 5 Dragon 3.3 : 3754 50 38 38 55.3 % 3717 84.2 % 6 Pawnocchio-1.9.2 : 3754 49 26 38 55.3 % 3717 89.5 % 7 Obsidian160 : 3754 49 26 38 55.3 % 3717 89.5 % 8 PlentyChess-7.0.0 : 3745 46 35 38 53.9 % 3717 86.8 % 9 Quanticade Cronus 3.0 : 3736 53 49 38 52.6 % 3718 78.9 % 10 Integral 7.0.0 : 3736 41 31 38 52.6 % 3718 89.5 % 11 lc0-v0.32.1 : 3736 47 41 38 52.6 % 3718 84.2 % 12 Alexandria-8.1.12 : 3727 42 38 38 51.3 % 3718 86.8 % 13 Berserk-13 : 3719 36 36 38 50.0 % 3719 89.5 % 14 Caissa-1.24 : 3719 36 36 38 50.0 % 3719 89.5 % 15 Clover.9.1 : 3710 38 42 38 48.7 % 3719 86.8 % 16 Viridithas-19.0.1 : 3701 49 53 38 47.4 % 3720 78.9 % 17 Rebel-16.3 : 3657 46 59 38 40.8 % 3722 76.3 % 18 Chess-System-Tal-2.00 : 3648 49 61 38 39.5 % 3722 73.7 % 19 Rebel-EAS-3.0 : 3630 45 63 38 36.8 % 3723 73.7 % 20 Wasp 7.14 : 3549 65 81 38 26.3 % 3728 52.6 % White Wins : 53 (13.9 %) Black Wins : 14 ( 3.7 %) Draws : 313 (82.4 %) Unfinished : 0 White Perf. : 55.1 % Black Perf. : 44.9 % ECO A = 26 Games ( 6.8 %) ECO B = 122 Games (32.1 %) ECO C = 46 Games (12.1 %) ECO D = 57 Games (15.0 %) ECO E = 129 Games (33.9 %) Hier im Anhang sind alle 380 Spiele: https://www.schachcomputer.info/foru...1&d=1772203792 Gruss Nick |
| Folgende 3 Benutzer sagen Danke zu spacious_mind für den nützlichen Beitrag: | ||
|
||||||||||||
|
Re: SenseRobot AI Test Spiele und Tests
Hi Nick,
Thank you for the tournament. What GPU are you using for LC0? Regards Clive |
|
||||||||||||
|
Re: SenseRobot AI Test Spiele und Tests
Hier ist ein Vergleich der beiden Turniere. Das Bild ist zwar klein und etwas unscharf, aber größer ging es leider nicht, ohne dass man auf der Seite scrollen muss.
SenseRobot AI Level 25 (2500 ELO) gewann ein Spiel mehr als Level Apex Duel, aber Stockfish 18 gewann im ersten Turnier drei Spiele mehr als im zweiten. Da ich immer noch der Meinung bin, dass es praktisch keinen Unterschied zwischen Level 25 und Apex Duel gibt, habe ich mich auch dazu entschlossen, die Spiele in einer einzigen PGN-Datei zusammenzuführen und die SenseRobot-Spiele in SenseRobot AI umzubenennen, nur um zu sehen, wie es über die insgesamt gespielten 4 Runden (760 Spiele) aussehen würde. Level 25 hatte im Einzelvergleich eine Wertung von 3790 und Apex Duel eine Wertung von 3780. Hier die kombinierten Ergebnisse aller Teilnehmer über 4 Runden: Code:
Program Elo + - Games Score Av.Op. Draws 1 SenseRobot AI : 3785 38 28 76 59.9 % 3715 80.3 % 2 Stockfish 18 : 3776 36 26 76 58.6 % 3716 82.9 % 3 Reckless 0.8.0 : 3776 37 30 76 58.6 % 3716 80.3 % 4 Stockfish 17.1 : 3771 36 29 76 57.9 % 3716 81.6 % 5 PlentyChess-7.0.0 : 3767 35 27 76 57.2 % 3716 82.9 % 6 Alexandria-8.1.12 : 3749 34 30 76 54.6 % 3717 82.9 % 7 Obsidian160 : 3749 31 23 76 54.6 % 3717 88.2 % 8 Clover.9.1 : 3745 37 34 76 53.9 % 3717 78.9 % 9 Integral 7.0.0 : 3736 26 18 76 52.6 % 3718 92.1 % 10 Pawnocchio-1.9.2 : 3732 31 29 76 52.0 % 3718 85.5 % 11 Caissa-1.24 : 3727 29 27 76 51.3 % 3718 86.8 % 12 Dragon 3.3 : 3723 33 32 76 50.7 % 3719 82.9 % 13 Berserk-13 : 3719 31 31 76 50.0 % 3719 84.2 % 14 Viridithas-19.0.1 : 3714 32 33 76 49.3 % 3719 82.9 % 15 Quanticade Cronus 3.0 : 3701 32 35 76 47.4 % 3720 81.6 % 16 lc0-v0.32.1 : 3693 39 41 76 46.1 % 3720 73.7 % 17 Chess-System-Tal-2.00 : 3662 36 40 76 41.4 % 3722 75.0 % 18 Rebel-16.3 : 3657 31 38 76 40.8 % 3722 78.9 % 19 Rebel-EAS-3.0 : 3639 40 45 76 38.2 % 3723 68.4 % 20 Wasp 7.14 : 3537 49 57 76 25.0 % 3728 50.0 % White Wins : 117 (15.4 %) Black Wins : 35 ( 4.6 %) Draws : 608 (80.0 %) Unfinished : 0 White Perf. : 55.4 % Black Perf. : 44.6 % ECO A = 70 Games ( 9.2 %) ECO B = 264 Games (34.7 %) ECO C = 93 Games (12.2 %) ECO D = 175 Games (23.0 %) ECO E = 158 Games (20.8 %) Falls es jemanden interessiert, hier ist das PGN der 760 Spiele, die in SenseRobot AI umbenannt wurden: https://www.schachcomputer.info/foru...1&d=1772205902 Gruss Nick |
| Folgende 2 Benutzer sagen Danke zu spacious_mind für den nützlichen Beitrag: | ||
DirkS (Heute), Major Chaos (Heute) | ||
|
||||||||||||
|
Re: SenseRobot AI Test Spiele und Tests
I am using: NVIDIA GeForce GTX1060 6GB Regards Nick |
| Folgender Benutzer sagt Danke zu spacious_mind für den nützlichen Beitrag: | ||
Major Chaos (Heute) | ||
![]() |
|
|
Ähnliche Themen
|
||||
| Thema | Erstellt von | Forum | Antworten | Letzter Beitrag |
| Studie: Tests und mehr Tests | spacious_mind | Teststellungen und Elo Listen / Test positions and Elo lists | 17 | 19.01.2025 00:11 |
| Studie: Test Spiele mit den Kings | spacious_mind | Partien und Turniere / Games and Tournaments | 1 | 27.01.2019 23:08 |
| Test: Test Spiele zwischen Millennium und Sargon 3 | spacious_mind | Partien und Turniere / Games and Tournaments | 5 | 20.01.2019 23:57 |
| Studie: Nelson - Horvath Test Spiele | spacious_mind | Partien und Turniere / Games and Tournaments | 4 | 06.01.2013 16:35 |
| Partie: Test Spiele | spacious_mind | Partien und Turniere / Games and Tournaments | 41 | 28.02.2012 04:01 |