Schachcomputer.info Community

Schachcomputer.info Community (https://www.schachcomputer.info/forum/index.php)
-   Die ganze Welt der Schachcomputer / World of chess computers (https://www.schachcomputer.info/forum/forumdisplay.php?f=2)
-   -   Tipp: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau (Der LC0 Thread) (https://www.schachcomputer.info/forum/showthread.php?t=5030)

Hartmut 14.02.2019 05:26

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Zitieren:

Zitat von rollinghills (Beitrag 78592)
Hallo Hartmut,
ja gerne: Ich habe fürs Schach ein Lenovo Ideapad Notebook 110 mit 4 Kernen. Also was ganz einfaches. Leela läuft auch nicht über die Grafikkarte. Wenn ich Fritz 16 an der Grundstellung mit 4 CPU rechnen lasse, dann werden mir so ca. 1400 - 1800 KN/s angezeigt.

Danke im voraus!

VG Matthias

Hm, schwer. Das Ideapad 110 gibt es mit verschiedenen Prozessoren. Sowohl mit Celeron, als auch mit AMD oder nem i3 bis rauf zum i7 der 7. Generation. Das sind natürlich komplett verschiedene Leistungsklassen. Ich würde aber mal schätzen, dass Leela hier mit einem Elowert zwischen 2400 und 2700 aufwarten kann (je nach Prozessor). Wobei die Notebook Prozessoren meist nicht die Leistung bringen wie ein Tischgerät. Daher würde ich hier eher etwas weniger als die genannte Obergrenze von 2700 ansetzen.

Ich habe allerdings die neueste Version noch nicht auf meinem AMD X4 getestet. (Die Net-Version 11289 kam da auf ca. 2600). Die neuesten Versionen dürften dann eher in die Richtung 2650-2700 gehen. Mehr darf man aber bei einer reinen Prozessornutzung mit Sicherheit nicht erwarten, zumal die neueren Netze ja größer und damit langsamer sind. Daher ist es sehr schwer abzuschätzen, wie sie sich auf einem Laptop schlagen.

rollinghills 14.02.2019 07:46

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Danke für Deine Antwort!!!

Ich habe noch eine Frage in die Runde: Ich ärgere mich sehr, dass ich mir im letzten Frühjahr und Sommer nicht viel mehr Network Dateien runtergeladen habe. Im Grunde ist das ja nun eine Rarität. Ich würde gerne, (so ähnlich wie früher mit Sammelkarten) welche tauschen Ich hoffe, dass das o.k. so ist?!!? Und nicht gegen die Forenregeln verstößt.

Ich suche besonders Versionen unter 200 (weil ich die zum Training benutze, also selbst gegen die spiele, und hier die Spielstärke recht gut stimmt) am liebsten zwischen 60 und 150, und habe selbst die folgenden zu bieten:

1, 2, 10, 33, 45, 55, 57, 67, 100, 145, 160, 167, 173, 183, 190, 194, 200., 208, 228, 229, 230, 231, 235, 251, 303, 304, 307, 310, 314.

Vielen Dank im Voraus!
Matthias

Tibono 14.02.2019 13:07

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Hallo Matthias,

hier
Grüss
Tibono

rollinghills 14.02.2019 15:19

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Der Tipp der Woche!!!

Danke!!!

rollinghills 14.02.2019 16:51

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Hallo Tibono,

es handelt sich hierbei leider nicht um die ursprünglichen 3-stelligen Network Dateien, deren Elo Werte man immer noch hier findet. Die alte 100 hat irgendwo zwischen 2.200 und 2.300 Elo. Die, unter dem Link, den Du gepostet hast, eher so um die Elo 400.
Schade, aber trotzdem danke!

Tibono 14.02.2019 19:24

Re: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
zu schade.... hier sind die frühen NN, unter 200, ich benutze mich selbst.

109Mb, beinhaltet: 26, 34, 76, 122, 162
Grüß

Hartmut 22.02.2019 08:05

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Hallo zusammen.. Ich hatte ja schonmal geschrieben, dass ich in der Fernschachpost einen mehrteiligen Artikel zu Leela geschrieben habe. Der erste Teil ist in der aktuellen Ausgabe der Fernschachpost nun erschienen. Eine Leseprobe des Heftes (in der auch der komplette 1. Teil des Artikels enthalten ist) kann für eine begrenzte Zeit hier heruntergeladen werden:

http://bdf-fernschachpost.de/?page_id=84

Wahrscheinlich ist der Artikel noch so für 4 Wochen online, zumindest bis zum Redaktionsschluss der nächsten Ausgabe. Wer sich also dafür interessiert darf gerne mal reinsehen.

Zitieren:

Zitat von Hartmut (Beitrag 77946)
Falls es jemanden interessiert. In der Fernschachpost (Die Schachzeitung des Deutschen Fernschachbundes) erscheint in der aktuellen Ausgabe 1/2019 der erste Teil einer Artikelserie, die ich geschrieben habe. Die Serie befasst sich - natürlich - mit Leela, der Entwicklungsgeschichte und natürlich wie der Name des Artikels sagt, auch mit dem Nutzen von Leela im Fernschach (aber nicht nur...).

By the way: Die Artikel werden alle ehrenamtlich geschrieben. Ich verdiene also nix dran. Daher erlaube ich mir den Link zur Meldung auf den BdF-Seiten zu setzen.

https://bdf-fernschachbund.de/news_/...s=1&nwsid=4690

Ist das erste mal, dass die Fernschachpost einen mehrteiligen Artikel über Computerschach veröffentlicht. Kann also so schlecht nicht sein, ;)


applechess 22.02.2019 10:56

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Zitieren:

Zitat von Hartmut (Beitrag 78792)
Hallo zusammen.. Ich hatte ja schonmal geschrieben, dass ich in der Fernschachpost einen mehrteiligen Artikel zu Leela geschrieben habe. Der erste Teil ist in der aktuellen Ausgabe der Fernschachpost nun erschienen. Eine Leseprobe des Heftes (in der auch der komplette 1. Teil des Artikels enthalten ist) kann für eine begrenzte Zeit hier heruntergeladen werden:

Hallo Hartmut
Kann die FerschachPost empfohlen werden. Als kritischer Geist
kann ich von Dir sicher eine objektive Antwort erwarten. Und
ferner: wird das Heft auch in die Schweiz geliefert?
Gruss
Kurt

Hartmut 22.02.2019 15:46

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Hallo Kurt

Das kommt natürlich immer drauf an, was man erwartet. Die Partien sind auf jeden Fall interessant und geben guten Einblick, wie die Spitzenspieler analysieren. Mir macht es jedenfalls immer Spaß die Partien nachzuspielen und zu analysieren und einiges konnte ich für meine eigenen Partien ganz gut gebrauchen.

Die Vereinsinternas sind natürlich für den Nichtfernschachspieler weniger interessant. Die Buchrezensionen dafür umso mehr. Lad Dir halt mal das Probeexemplar runter und versuche selbst mal einen Eindruck zu gewinnen. Den Link hab ich ja oben gepostet. Das ist die komplette Februar-Ausgabe. Du kriegst also schon einen guten Eindruck inwieweit es Dir persönlich was bringt oder nicht. Der Preis ist jetzt mit 20 Eur für 6 Ausgaben (Jahresabo + Versand) meiner Meinung auch nicht zu teuer, wenngleich ich nicht weiss, ob sich der Preis ins Ausland vielleicht geringfügig erhöht wegen höherer Versandkosten. Da am besten mal Michael oder Uwe von der Redaktion anschreiben (Kontaktseite). Die wissen das besser. Ich schreibe ja nur ab und an mal für die Zeitschrift. Mit dem Vertrieb hab ich nix zu tun. Aber eigentlich sollte es gehen.

StPohl 26.02.2019 18:02

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Ich habe eine kurze Anleitung fürs CSS-Forum geschrieben, um LeelaFish in Betrieb zu nehmen (Lc0 mit einer separat mitlaufenden UCI-Engine, die ihre Meinung direkt in die Suche von Lc0 (Policy-Value) reinschreibt - also ein echter Hybride!). Das könnte ja auch hier von Interesse sein, also kopiere ich das Ganze man hier rein (Lc0 funktioniert übrigens in LeelaFish vollumfänglich, auch die destilled Networks können verwendet werden!).


https://github.com/killerducky/lc0/wiki/LeelaFish

Zunächst mal vorab: LeelaFish ist noch sehr unausgereift. Ich beziehe mich im Folgenden auf CUDA-Version von LeelaFish v0.3 (v0.4 ist völlig verbuggt und v0.5 kann ich noch nicht einschätzen. v0.3 läuft halbwegs stabil, zumindest mit einigen Engines) und die Nutzung in Fritz16 (LittleBlitzerGUI geht auch, soweit ich das bisher überblicke, aber in der LBG läuft ja eigentlich alles).

Als AuxEngine funktionieren - soweit momentan bekannt - Stockfish und Houdini 6. Komodo geht nur ohne pondern (FritzGUI). Ethereal geht bei mir unter Fritz16 nicht im Dauerbetrieb. Andere Engines hab ich noch nicht probiert. Ich persönlich finde auch Houdini am interessantesten. Aber wer Erfahrungswerte mit anderen Engines hat, bitte gerne hier posten.

Man braucht nun zunächst mal einen Ordner, in den man das LeelaFish v0.3 .exe - File (heißt lc0.exe) (entzipt, versteht sich) hineinpackt, sowie die AuxEngine, die man nutzen will und die CUDA-Dateien, die man im Download von LeelaFish NICHT findet, dazu muß man sich die aktuelle Version von lc0 v0.21.0 CUDA herunterladen und die CUDA-Files von dort nehmen. Auch gibt es mittlerweile wieder ein Update für die Grafiktreiber von NVIDIA (CUDA 10.1), also sollte man seinen Grafiktreiber aktualisieren und den PC dann frisch booten.

Dann erzeugt man LeelaFish als UCI-Engine in Fritz (Priority below normal). Wenn das passiert ist, geht man in die erweiterten Engineeinstellungen. Dort findet man die Aux-Parameter:

AuxEnginePath : hier gibt man nur den Namen des .exe-files der AuxEngine ein (das reicht, da sich die Auxengine ja im gleichen Ordner befindet wie LeelaFish (s.o.))
AuxEngineOptions: hier kann man UCI-Parameter an die AuxEngine übergeben. Das ist etwas tricky: Man darf nämlich keine Leerzeichen zwischen den Parametern haben, nur ein Semikolon. Und auch keine Anführungsstriche, was wohl manche gemacht haben, weil dort STRING als Format steht. Also was z.B. bei Houdini 6 als Parameter korrekt wäre, wenn man auch den Tactical Mode nutzen will:
AuxEngineOptions:Hash=1024;Threads=1;Tactical Mode=1
AuxEngineThreshold: Legt fest, wann die AuxEngine konsultiert wird. Default ist 100, also, wenn Lc0 eine Stellung 100x in der MCTS-Suche "besucht", dann wird die AuxEngine hinzugezogen. Hier müßte man noch viel experimentieren. Bei schnellen RTX-Karten und in meinem long thinking-time Turnier scheint der Wert 100 ganz gut zu funktionieren. Bei kurzen Bedenkzeiten und/oder langsamen GPUs, sollte man den Wert sicher heruntersetzen. Ich nutze jetzt mal 20 in meinem 3'+1'' Testrun, der gerade läuft. Das läßt sich auch ganz gut an bisher.
AuxEngineDepth: Legt die Suchtiefe der AuxEngine fest. Hier muß man Bedenkzeit und CPU-Geschwindigkeit berücksichtigen. Und auch, daß z.B. Stockfish höhere Suchtiefen anzeigt, als z.B. Houdini. Hier würde ich im Daueranalysemodus der FritzGUI mal rumprobieren, bis LeelaFish praktisch verzögerungsfrei Hauptvarianten auswirft, wenn man einen Zug auf dem Brett ausführt. Für Houdini im singlecore-Modus ist je nach Bedenkzeit 14 oder 16 angebracht. Bei Stockfish könnten es wohl auch 16-18 sein. Auch hier gilt: Es muß noch viel herumprobiert werden! Ich hoffe aber, daß der Autor hier noch umstellt von fixer Suchtiefe (was ich für Schwachsinn halte, weil im Endspiel diese Tiefe ja viel schneller erreicht wird als im Mittelspiel) auf fixe Suchzeit (go movestime).
AuxEngineBoost: Legt fest, wie stark die "Meinung" der AuxEngine in die "Bewertung" von lc0 einfließt. Auch hier kann ich noch überhaupt nicht sagen, welcher Wert wirklich gut ist. Ganz schlecht scheint die default-Einstellung von 50 aber nicht zu sein. Ein zu hoher Wert würde die Spielweise von lc0 zunichte machen, ein zu niedriger Wert würde die Wirkung der AuxEngine zunichte machen...
AuxEngineFollowPVDepth: Legt fest wieviele Halbzüge der Hauptvariante der AuxEngine berücksichtigt werden. Default ist 3 (in neueren Versionen wohl 4). Auch hier gilt: Schwer zu sagen, was gut ist. Zuviel macht die Qualität wackelig. Zuwenig bringt dann nix... Auch hier ist 3 auf jeden Fall kein ganz schlechter Wert. Aber auch hier müßte noch viel probiert werden.

Hat man alles nach Wunsch eingestellt, startet man LeelaFish mal probeweise im Daueranalysemodus. Nun nicht erschrecken: Es poppt ein schwarzes, leeres Fenster auf, das ist die Aux-Engine, bzw. ihr Windows-Task. Dieses Fenster auf gar keinen Fall wegklicken. Sondern Fritz16 einfach wieder in den Vordergrund klicken. Sonst schließt man die AuxEngine! Das Fenster muß immer da bleiben!

Das sollte es eigentlich gewesen sein...

Hartmut 26.02.2019 20:26

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Gibts schon Erkenntnisse wie die Spielstärke in Relation zur "echten" Leela abschneidet?

Grundsätzlich eine gute Idee, die zumindest die manchmal immer noch vorhandene taktische Blindheit (ich denke da an eine Königsgambit-Partie im letzten TCEC-Turnier) eventuell ausschalten würde. Ob es allerdings darüber hinaus wirklich Sinn macht und nicht den Spielstil des Leela-Teils zu stark beeinträchtigt lässt sich an dieser Stelle vermutlich noch nicht sagen...

StPohl 27.02.2019 17:32

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Zitieren:

Zitat von Hartmut (Beitrag 78912)
Gibts schon Erkenntnisse wie die Spielstärke in Relation zur "echten" Leela abschneidet?

Naja, einen frühen Zwischenstand in meinem long-thinking time Turnier gibt es:

https://www.sp-cc.de/long-thinkingtime.htm

da sind es gute +80 Elo für LeelaFish mit Houdini 6 als AuxEngine. Das ist aber noch sehr wackelig. Aber ich teste die Konfiguration LeelaFish plus Houdini 6 jetzt auch in meinen 3'+1'' Testruns. Auch dort ist der Stand noch recht früh, aber auch dort sieht es so nach ca. +80 Elo aus.

Wäre schon sehr cool, wenn das so bliebe, denn man muß ja sehen, daß sowohl lc0 mit den 32xxx-Nets als auch Houdini 6 für sich jeweils ca. 60-80 Elo schwächer als Stockfish 10 sind. Und gemeinsam scheinen sie Stockfish 10 knapp schlagen zu können. Zumindest mit der langen Bedenkzeit.

Es ist aber noch nicht klar, welche Parametersettings optimal sind. Auch wird die AuxEngine-Steuerung bald von fixer Suchtiefe auf feste Suchzeit umgestellt (zum Glück hat der Autor auf meine Empfehlung diesbzgl. gehört!), wovon ich mir nochmal einen Spielstärkezugewinn erhoffe, da das viel höhere Suchtiefen im Endspiel für die AuxEngine ermöglicht und das Endspiel ist ja der große Schwachpunkt von lc0 im solo-Betrieb...

Hartmut 27.02.2019 21:27

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Zitieren:

Zitat von StPohl (Beitrag 78944)
Naja, einen frühen Zwischenstand in meinem long-thinking time Turnier gibt es:

https://www.sp-cc.de/long-thinkingtime.htm

Wäre schon sehr cool, wenn das so bliebe, denn man muß ja sehen, daß sowohl lc0 mit den 32xxx-Nets als auch Houdini 6 für sich jeweils ca. 60-80 Elo schwächer als Stockfish 10 sind. Und gemeinsam scheinen sie Stockfish 10 knapp schlagen zu können. Zumindest mit der langen Bedenkzeit.

Naja 60-80 Elo schwächer als Stockfish sehe ich nicht. Im TCEC Superfinale war es ja das knappest mögliche Endergebnis zugunsten von Stockfish, wobei LC0 sogar mal eine zeitlang geführt hat. Ich würde da eher von einem Kampf auf Augenhöhe sprechen. Kommt halt jetzt darauf an unter welchen Konfigurationen man die beiden jeweils vergleicht.

udo 28.02.2019 23:09

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Zitieren:

Zitat von Hartmut (Beitrag 78792)
Hallo zusammen.. Ich hatte ja schonmal geschrieben, dass ich in der Fernschachpost einen mehrteiligen Artikel zu Leela geschrieben habe. Der erste Teil ist in der aktuellen Ausgabe der Fernschachpost nun erschienen. Eine Leseprobe des Heftes (in der auch der komplette 1. Teil des Artikels enthalten ist) kann für eine begrenzte Zeit hier heruntergeladen werden:

http://bdf-fernschachpost.de/?page_id=84

Wahrscheinlich ist der Artikel noch so für 4 Wochen online, zumindest bis zum Redaktionsschluss der nächsten Ausgabe. Wer sich also dafür interessiert darf gerne mal reinsehen.

In dem von dir gezeigten Link steht ja ein Hinweis von Mädler. Bei ihm hatte ich in Düsseldorf meinen ersten Mephisto 1 Brikett gekauft.

https://bdf-fernschachbund.de/news_/...s=1&nwsid=4690

Wenn es mal so eine KI für Schach auf CD oder DVD gibt, kaufe ich mir es. So ist mir das zu kompliziert und unverständlich mit der Installation.

Hartmut 01.03.2019 13:28

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Zitieren:

Zitat von udo (Beitrag 78970)
In dem von dir gezeigten Link steht ja ein Hinweis von Mädler. Bei ihm hatte ich in Düsseldorf meinen ersten Mephisto 1 Brikett gekauft.

https://bdf-fernschachbund.de/news_/...s=1&nwsid=4690

Wenn es mal so eine KI für Schach auf CD oder DVD gibt, kaufe ich mir es. So ist mir das zu kompliziert und unverständlich mit der Installation.

Wieso umständlich? Das Einbinden in z.B. Arena ist zwischenzeitlich auch nicht schwerer als bei anderen Engines. Ich seh da irgendwie das Problem nicht.

BHGP 31.03.2019 08:47

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Hallo, Frage mal an die Profis:

Habe ein AMD-Board mit Ryzen 1700x und Nvidia Grafikkarte (CUDA-fähig).
Kann ich die CUDA-Version in Chessbase 15 / Fritz 15 benutzen oder nicht?
Mein ersten Versuche haben bisher nur eine Engine "produziert", die überhaupt nicht rechnet (aber keine Fehlermeldung).

BHGP 31.03.2019 14:05

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Zitieren:

Zitat von BHGP (Beitrag 79703)
Hallo, Frage mal an die Profis:

Habe ein AMD-Board mit Ryzen 1700x und Nvidia Grafikkarte (CUDA-fähig).
Kann ich die CUDA-Version in Chessbase 15 / Fritz 15 benutzen oder nicht?
Mein ersten Versuche haben bisher nur eine Engine "produziert", die überhaupt nicht rechnet (aber keine Fehlermeldung).


Hat sich erledigt, irgendwas war mit weights.txt nicht in Ordnung.

BHGP 08.04.2019 13:19

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
So,

jetzt bin ich es doch noch mal mit einem Update. Habe mich am Wochenende dazu hinreißen lassen, eine Nvidia RTX 2060 zu kaufen. Meine ersten Versuche verliefen auch erfolgreich. Nun würde ich gerne die Einstellungen "optimieren".
Kann mir da jemand Starthilfe geben (cudnn-fp16 habe ich schon mal eingestellt) ?

Hartmut 08.04.2019 19:50

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Mit den neuen RTX-Karten hab ich leider noch keine Erfahrung (ist im Moment finanziell nicht drin, da derzeit andere Anschaffungen im Vordergrund stehen). Ich würde mal im englischen Google-Forum von Leela posten

https://groups.google.com/forum/m/#!forum/lczero

oder im Discord-Forum von LC0. Da sind die ganzen Leela-Cracks auf einem Haufen.

BHGP 08.04.2019 19:55

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Zitieren:

Zitat von Hartmut (Beitrag 79859)
Mit den neuen RTX-Karten hab ich leider noch keine Erfahrung (ist im Moment finanziell nicht drin, da derzeit andere Anschaffungen im Vordergrund stehen). Ich würde mal im englischen Google-Forum von Leela posten

https://groups.google.com/forum/m/#!forum/lczero

oder im Discord-Forum von LC0. Da sind die ganzen Leela-Cracks auf einem Haufen.


Hi,

danke Dir!

StPohl 08.04.2019 23:17

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Zitieren:

Zitat von BHGP (Beitrag 79850)
So,

jetzt bin ich es doch noch mal mit einem Update. Habe mich am Wochenende dazu hinreißen lassen, eine Nvidia RTX 2060 zu kaufen. Meine ersten Versuche verliefen auch erfolgreich. Nun würde ich gerne die Einstellungen "optimieren".
Kann mir da jemand Starthilfe geben (cudnn-fp16 habe ich schon mal eingestellt) ?

Von Andreas Strangmüller eine fette Meßreihe mit der RTX 2060:

Default Settings, backend=cudnn-fp16

Zeit Knoten Gesamt Knoten pro Sekunde
Höchste Knotenzahl: 00:18 404.929 22.276
Nach einer Minute: 01:01 1.224.396 19.995

---------------------------------------------------------------

Default Settings, backend=cudnn-fp16, NNCacheSize=2000000

Zeit Knoten Gesamt Knoten pro Sekunde
Höchste Knotenzahl: 01:01 1.503.121 24.499
Nach einer Minute: 01:01 1.503.121 24.499

---------------------------------------------------------------

Default Settings, backend=cudnn-fp16, NNCacheSize=2000000, MiniBatchSize=512

Zeit Knoten Gesamt Knoten pro Sekunde
Höchste Knotenzahl: 01:02 1.596.595 25.446
Nach einer Minute: 01:02 1.596.595 25.446

---------------------------------------------------------------

Default Settings, backend=cudnn-fp16, NNCacheSize=2000000, MiniBatchSize=1024

Zeit Knoten Gesamt Knoten pro Sekunde
Höchste Knotenzahl: 01:03 1.624.881 25.413
Nach einer Minute: 01:03 1.624.881 25.413

---------------------------------------------------------------

Default Settings, backend=cudnn-fp16, NNCacheSize=2000000, MiniBatchSize=512, MaxCollisionsEvents=512

Zeit Knoten Gesamt Knoten pro Sekunde
Höchste Knotenzahl: 01:00 1.560.655 25.669
Nach einer Minute: 01:00 1.560.655 25.669

---------------------------------------------------------------

Default Settings, backend=cudnn-fp16, NNCacheSize=2000000, MiniBatchSize=512, MaxCollisionsEvents=512, Threads=4

Zeit Knoten Gesamt Knoten pro Sekunde
Höchste Knotenzahl: 01:02 1.563.849 25.115
Nach einer Minute: 01:02 1.563.849 25.115

---------------------------------------------------------------

Default Settings, backend=cudnn-fp16, NNCacheSize=2000000, MiniBatchSize=512, MaxPrefetch=256, MaxCollisionsEvents=512

Zeit Knoten Gesamt Knoten pro Sekunde
Höchste Knotenzahl: 01:02 1.583.994 25.497
Nach einer Minute: 01:02 1.583.994 25.497

---------------------------------------------------------------

Default Settings, backend=cudnn-fp16, NNCacheSize=2000000, MiniBatchSize=512, MaxPrefetch=512, MaxCollisionsEvents=512

Zeit Knoten Gesamt Knoten pro Sekunde
Höchste Knotenzahl: 01:01 1.513.198 24.625
Nach einer Minute: 01:01 1.513.198 24.625

---------------------------------------------------------------

Hier die vermeintlich besten Einstellungen mit 10 Minuten:

Default Settings, backend=cudnn-fp16, NNCacheSize=2000000, MiniBatchSize=512, MaxCollisionsEvents=512

Zeit Knoten Gesamt Knoten pro Sekunde
Höchste Knotenzahl: 02:21 3.842.955 27.127
Nach zehn Minuten: 10:36 14.997.015 23.545

---------------------------------------------------------------

Default Settings, backend=cudnn-fp16, NNCacheSize=20000000, MiniBatchSize=512, MaxCollisionsEvents=512

Zeit Knoten Gesamt Knoten pro Sekunde
Höchste Knotenzahl: 10:01 16.980.960 28.219
Nach zehn Minuten: 10:01 16.980.960 28.219

--------------------------------------------------------------

Default Settings, backend=cudnn-fp16, NNCacheSize=20000000, MiniBatchSize=512, MaxCollisionsEvents=512, Threads=4

Zeit Knoten Gesamt Knoten pro Sekunde
Höchste Knotenzahl: 10:03 17.459.570 28.927
Nach zehn Minuten: 10:03 17.459.570 28.927

--------------------------------------------------------------

Und zum Schluss noch eine Analyse von über einer Stunde mit dem Maximalwert der NNCacheSize:

Default Settings, backend=cudnn-fp16, NNCacheSize=999999999, MiniBatchSize=512, MaxCollisionsEvents=512, Threads=4

Zeit Knoten Gesamt Knoten pro Sekunde
Höchste Knotenzahl: 32:50 60.231.582 30.559
Nach einer Stunde: 1:08:52 124.111.072 30.033

Bei dieser langen Bedenkzeit/Analyse wird die Schallmauer von 30.000 Knoten pro Sekunde durchbrochen!

Ich habe mich nochmals mit den Einstellungen beschäftigt. Folgende Optionen erzielen nun fast 32.000 Knoten/Rollouts und sind auch nach einer bzw. zehn Minuten am besten.

Default Settings, backend=cudnn-fp16, NNCacheSize=20000000, MiniBatchSize=1024, MaxCollisionsEvents=1024, Threads=4

Zeit Knoten Gesamt Knoten pro Sekunde
Höchste Knotenzahl: 26:58 51.530.869 31.844
Nach einer Minute: 01:02 1.640.545 26.109
Nach zehn Minuten: 10:12 18.748.776 30.593

Hartmut 09.04.2019 01:49

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Zitieren:

Zitat von StPohl (Beitrag 79866)
Von Andreas Strangmüller eine fette Meßreihe mit der RTX 2060:

Sieht so aus als wäre meine GTX-Karte schon wieder reif für den Elektroschrott... So schnell kann ich gar net sparen, wie es technisch vorwärts geht.

StPohl 09.04.2019 05:21

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Zitieren:

Zitat von Hartmut (Beitrag 79870)
Sieht so aus als wäre meine GTX-Karte schon wieder reif für den Elektroschrott... So schnell kann ich gar net sparen, wie es technisch vorwärts geht.

Tja, das “Problem“ ist, daß die RTX Karten es erlauben, daß lc0 seine Fließkomma-Matrizen Berechnungen mit nur 16bit Genauigkeit (cudnn-fp16) durchführen kann, während es bei den GTX Karten eben 32bit sind. Alleine dieses Umschalten auf fp16 beschleunigt lc0 um den Faktor 3.5. Und das ist natürlich ein Riesenunterschied. Und schneller sind die RTX Karten außerdem.
Die mobile GTX 950m in meinen alten Notebooks brachte lc0 auf ca. 1200 n/s in der Grundstellung. Die mobile RTX 2060 in meinem neuen Notebook bringt lc0 auf 18000 n/s. Das ist natürlich ein Quantensprung. Für eine halbwegs test-taugliche Leela-Ratio muß ich die RTX 2060 sogar um gute 30% abbremsen (mit dem MSI Afterburner), sonst wären Stockfish & Co. deutlich im Nachteil, obwohl mein neues Notebook sogar eine Hexacore-CPU hat!

BHGP 09.04.2019 09:07

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Hi,

super, danke ! Da gibt es doch einiges auszuprobieren;)

Mir sind noch folgende Zusatzfragen eingefallen:


- Ich habe gestern mal die GUIS von Chessbase (Fritz), Hiarcs Chess Explorer und Shredder ausprobiert. Im Prinzip hat die Einbindung überall funktioniert. Gibt es da Vor- und Nachteile der verschiedeen GUIS im Bezug auf die Performance von UCI-Engines, speziell Lc0?
Ich würde gerne ARENA, Aquarium oder auch Lucas in diese Frage miteinbeziehen. Diese GUIS wollte ich mir heute abend noch anschauen...

- Ich würde gerne Lc0 gegen Stockfish & Co aus einer bestimmten Stellung heraus X Partien (mit oder ohne Seitenwechsel) spielen lassen. Bisher ist mir das nur über die Shredder-GUI gelungen. Fritz und Hiarcs scheinen das nicht zu unterstützen, da sind allenfalls maximal 2 Partien möglich. Habe ich da falsch konfiguriert in Fritz? Insbesondere Fritz würde mich als GUI halt primär "reizen", weil ich doch sehr Chessbase-lastig bin...

applechess 09.04.2019 11:46

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Zitieren:

Zitat von BHGP (Beitrag 79876)
[...]

- Ich würde gerne Lc0 gegen Stockfish & Co aus einer bestimmten Stellung heraus X Partien (mit oder ohne Seitenwechsel) spielen lassen. Bisher ist mir das nur über die Shredder-GUI gelungen. Fritz und Hiarcs scheinen das nicht zu unterstützen, da sind allenfalls maximal 2 Partien möglich. Habe ich da falsch konfiguriert in Fritz? Insbesondere Fritz würde mich als GUI halt primär "reizen", weil ich doch sehr Chessbase-lastig bin...

Nichts falsch konfiguriert. Indessen frage ich mich, was
es Sinn macht, die selbe Stellung mehrmals mit den
gleichen Gegnern spielen zu lassen.
Gruss
Kurt


Alle Zeitangaben in WEZ +2. Es ist jetzt 09:05 Uhr.

Powered by vBulletin (Deutsch)
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
©Schachcomputer.info