Schachcomputer.info Community

Schachcomputer.info Community (https://www.schachcomputer.info/forum/index.php)
-   Die ganze Welt der Schachcomputer / World of chess computers (https://www.schachcomputer.info/forum/forumdisplay.php?f=2)
-   -   Tipp: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau (Der LC0 Thread) (https://www.schachcomputer.info/forum/showthread.php?t=5030)

Theo 02.01.2019 21:49

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Mir ist noch das Interview von Dan und Kathy Spracklen eingefallen, in dem die beiden über das Trainieren von Schach-Modellen mit Daten sprachen. Sie hatten aus Großmeister-Partien ein Wissensmodell namens Knowledge Seeker extrahiert. Der Ansatz ist spektakulär gescheitert und die Schlußfolgerung der Spracklens war schon der Vorbote dessen, woraus letztlich AlphaZero entstanden ist:

"Well, that's when we realized this might be a good method some day but it's going to take billions of games and billions of games of analysis, not just Grand Master play but just patzer play as well <laughter> to get a balanced idea of all the possibilities. "

Das Interview gibt es als Transkript online unter Spracklen-Interview

StPohl 09.01.2019 16:20

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Es gibt (erfolgreiche) Bemühungen, Leela mit stark verkleinerten NeuronalNetzen laufen zu lassen, die dennoch ordentlich Stärke erreichen. Dies hat den großen Vorteil, daß Leela damit auf CPU laufend, wesentlich höhere Berechnungsgeschwindigkeiten erreichen kann - mit den normalen Netzen, die z.Zt. ja 20x256 groß sind, ist Leela ja auf der CPU quälend langsam. Auch für die Brettcomputer mit den Raspberry Pi- Rechnern könnte das sehr interessant sein.

Hier der Link zum Thread im Leela-Forum:

https://groups.google.com/forum/#!to...ro/2f6Pata3AGY


Bisher wird dort eine auf 16x2 (!) Größe eingeschrumpfte Version des starken NeuralNetzes 11258 angeboten. Theoretisch sollte dieses geschrumpfte Net 160x schneller abgearbeitet werden, als die Originalgröße (!!!). Damit könnte also auch auf limitierter Hardware (Raspberry Pi) eine erheblich größere Spielstärke generiert werden, weil durch das Speedup natürlich die Taktik erheblich besser wird.

Es ist dabei aber zu beachten, daß die geschrumpfte Net-Version ein neuartiges SE-Net ist (SE= Squeeze and Excitation). Dies kann nur von den neueren LC0-Versionen ab 0.20.0 verarbeitet werden, mit älteren Version klappt es nicht!

StPohl 09.01.2019 16:53

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Habe es gerade auf meinem einfachen Netbook auf der Arbeit probiert und in Arena problemlos zum Laufen gebracht, also Lc0 v0.20.1 mit dem eingeschrumpften 16x2 Net. Geht ab wie die Hölle!
Vorher hatte ich auf dieser limitierten CPU um die 6 rollouts/s (mit einem 20x256 Net)(also wirklich schneckenlangsam). Das neue Mini-Net schafft knapp 1000 rollouts/s, die von mir theoretisch prognostizierte Geschwindigkeitssteigerung von Faktor 160 kommt also auch wirklich in der Praxis raus!

Was jetzt noch fehlt ist eine Android-Version von LC0... Dann könnte man per Chesslink auf dem Chess Genius Exklusive Brett gegen Leela spielen. Mit einer ordentlichen Rechengeschwindigkeit.

Das geschrumpfte Net ist übrigens nicht nur schnell, sondern auch wirklich klein: nur 8 MByte...

Hartmut 09.01.2019 17:11

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Zitieren:

Zitat von StPohl (Beitrag 76977)
Habe es gerade auf meinem einfachen Netbook auf der Arbeit probiert und in Arena problemlos zum Laufen gebracht, also Lc0 v0.20.1 mit dem eingeschrumpften 16x2 Net. Geht ab wie die Hölle!

Nun stellt sich natürlich die Frage, wie im Vergleich die Spielstärke zu bewerten ist. Bringt es etwas, sich auf dieses geschrumpfte Net einzulassen oder kauft man sich lieber z.B. eine NVidia GTX 730 (gibts gebraucht in der Bucht für schlappe 30-40 EUR) und erzielt mit dem normalen Net in etwa dieselben Geschwindigkeiten bei höherer Spielstärke.

Für Brettcomputer mit Raspberry-Pi ist es allerdings eine gute Möglichkeit, aber wie gesagt: Wie verhält sich die Spielstärke des geschrumpften Net in Relation zur normalen Netzgröße. Das wäre jetzt noch die Frage aller Fragen...

StPohl 09.01.2019 17:16

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Zitieren:

Zitat von Hartmut (Beitrag 76979)
Nun stellt sich natürlich die Frage, wie im Vergleich die Spielstärke zu bewerten ist. Bringt es etwas, sich auf dieses geschrumpfte Net einzulassen oder kauft man sich lieber z.B. eine NVidia GTX 730 (gibts gebraucht in der Bucht für schlappe 30-40 EUR) und erzielt mit dem normalen Net in etwa dieselben Geschwindigkeiten bei höherer Spielstärke.

Für Brettcomputer mit Raspberry-Pi ist es allerdings eine gute Möglichkeit, aber wie gesagt: Wie verhält sich die Spielstärke des geschrumpften Net in Relation zur normalen Netzgröße. Das wäre jetzt noch die Frage aller Fragen...

Tja, der Autor, D.Kappe sagt im Thread dazu nur folgendes:
want to find the sweet spot for cpu — speed vs smarts. Right now 128x10-se on cpu is better than 16x2-se and 256x12-se (and the original 256x20). Hopefully 96x8-se is better.

Aber bei der geringen Net-Größe muß man wahrscheinlich schon Abstriche beim Positionsspiel machen. Insofern dürfte es primär für CPU-Betrieb interessant sein. Einfach damit man auf einen gewissen Speed kommt. Bisher hat man mit Leela auf CPU das alte "Mephisto 3"-Problem: Intelligenz bzw. Positionsverständnis nützt nun mal nix, wenn die Taktik so mies ist, daß man dauernd Figuren einstellt und Matts übersieht...
Wie gesagt, für Android-Mobilgeräte und Raspberry wäre das eine coole Sache.
Auf einem PC mit NVIDIA-GPU muß ich das demnächst mal probieren.

Das Ganze gibt es ja erst seit einigen Tagen. D.Kappe sucht wie zu lesen noch nach dem idealen Kompromiss zwischen Schrumpfung der Qualität und Geschwindigkeitszuwachs.

Immerhin ist aber das geschrumpfte Net ein SE-Net, das originale, ungeschrumpfte Net nicht. Die SE-Nets sollen ja erheblich bessere Mustererkennungs-Erfolgsquoten (+25%) haben, als nicht-SE-Nets.

https://towardsdatascience.com/squee...s-9ef5e71eacd7

udo 10.01.2019 01:10

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Zitieren:

Zitat von Theo (Beitrag 75866)
Hallo Franz,

die Kurzanleitung:

1. Neueste Version von Arena installieren. Im Verzeichnis von Arena gibt es das Unterverzeichnis Engines, da sind die Engines drin. Ein Unterverzeichnis pro Engine.
2. Neueste Version von Leela für CPU runterladen, und im Arena-Verzeichnis unter Engines/Leela entpacken.
3. Leela-Client mal ausführen, damit das neueste Netz automatisch heruntergeladen wird.
4. In Arena dann Leela importieren im Menü "Motoren" --> "Verwaltung ..." --> "Details" ---> Neu".

Bei der Befehlszeile habe ich keine Parameter stehen. Falls jemand was gutes weiß, immer her damit. Bis auf den dritten Punkt ist die Einrichtung nicht anders, als bei jeder anderen Engine auch.

Welche CPU werkelt in Deinem Tablet, Franz? Bei meinem ist es ein Intel x5-Z8300, der hat laut Spezifikation nur 2 Watt. Wie gesagt, der schafft in der Eröffnung manchmal nur 1 NPS :D

Gruß
Theo

Gibts auch eine Anleitung für Dummis? :o

Bei mir auf Windows 10 Pro läuft Leela gar nicht. :raffnix:

udo 10.01.2019 01:35

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Zitieren:

Zitat von StPohl (Beitrag 74308)
Und Leelas Gegner ist eine 3000 Elo Engine, kein 80er Jahre Bretti. Und die Bedenkzeit war 12'+5“. Also ziemlich lang.

Stefan

Da muss man sich fragen, ob Stockfisch wirklich 3000 Elo hat?

StPohl 10.01.2019 14:34

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Zitieren:

Zitat von StPohl (Beitrag 76974)
Es gibt (erfolgreiche) Bemühungen, Leela mit stark verkleinerten NeuronalNetzen laufen zu lassen, die dennoch ordentlich Stärke erreichen. Dies hat den großen Vorteil, daß Leela damit auf CPU laufend, wesentlich höhere Berechnungsgeschwindigkeiten erreichen kann - mit den normalen Netzen, die z.Zt. ja 20x256 groß sind, ist Leela ja auf der CPU quälend langsam. Auch für die Brettcomputer mit den Raspberry Pi- Rechnern könnte das sehr interessant sein.

Hier der Link zum Thread im Leela-Forum:

https://groups.google.com/forum/#!to...ro/2f6Pata3AGY


Bisher wird dort eine auf 16x2 (!) Größe eingeschrumpfte Version des starken NeuralNetzes 11258 angeboten. Theoretisch sollte dieses geschrumpfte Net 160x schneller abgearbeitet werden, als die Originalgröße (!!!). Damit könnte also auch auf limitierter Hardware (Raspberry Pi) eine erheblich größere Spielstärke generiert werden, weil durch das Speedup natürlich die Taktik erheblich besser wird.

Es ist dabei aber zu beachten, daß die geschrumpfte Net-Version ein neuartiges SE-Net ist (SE= Squeeze and Excitation). Dies kann nur von den neueren LC0-Versionen ab 0.20.0 verarbeitet werden, mit älteren Version klappt es nicht!

Mittlerweile gibt es 4 geschrumpfte Nets in unterschiedlichen Größen auf der Github-Seite von D.Kappe.

LocutusOfPenguin 10.01.2019 16:40

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Da keimt ja Hoffnung für die picochess LC0 Version auf:cool:

StPohl 15.01.2019 16:03

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Ausführliche Analyse einer AlphaZero vs. Stockfish 8 Partie von Arno Nickel !

Zitat: "Die jüngsten Erfolge von AlphaZero gegen Stockfish haben weltweit Bewunderung und Erstaunen ausgelöst. „Schach wie von einem anderen Planeten“, „alien like“, „super human“ heißt es in Kommentaren namhafter Großmeister und Schachautoren.
Besonders eine der im Dezember 2018 veröffentlichten Matchpartien sorgte für Furore. AlphaZero spielt anders, gibt Material für langfristige strategische Ziele. Ein neuer Mythos oder ein echter Quantensprung? Fernschach-Großmeister Arno Nickel hat die glänzendste aller Glanzpartien der „künstlichen Intelligenz“ aus der Sicht von Stockfish eingehend analysiert und vieles zutage gefördert, was bisher im Dunkeln lag." (Zitatende)

Sehr lesenswert! Und zum Nachspielen empfohlen (AlphaZero opfert sogar zwei Bauern, um Angriff zu erhalten)!

https://de.chessbase.com/post/wie-st...nale-netz-ging

Egbert 15.01.2019 16:15

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Hallo Stefan,

vielen Dank für diesen hoch interessanten Link. Das werde ich mir einmal die Tage näher ansehen. :)

Gruß
Egbert

StPohl 15.01.2019 16:18

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Zitieren:

Zitat von Egbert (Beitrag 77249)
Hallo Stefan,

vielen Dank für diesen hoch interessanten Link. Das werde ich mir einmal die Tage näher ansehen. :)

Gruß
Egbert

Keine Ursache. Ich werde mir die Partie auch noch ausführlich zu Gemüte führen. Werde sie, wenn ich frei habe, auf meinem CGE-King im Analysemodus nachspielen (ebenso die Analysen von Arno Nickel (der Mann ist Fernschach Großmeister! und ich hatte das Privileg, ihn bei diesem Artikel sogar (ein gaaaanz klein wenig) vorab beraten zu dürfen)) und mal schauen, was mir da so vom King angezeigt wird.

Selbst die Fußnoten dieses brillanten Artikels sind lohnend. Es gibt dort Links zu einigen Analysevideos auf youtube und vieles andere Interessante!

Hartmut 16.01.2019 17:39

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Zitieren:

Zitat von StPohl (Beitrag 77250)
Keine Ursache. Ich werde mir die Partie auch noch ausführlich zu Gemüte führen. Werde sie, wenn ich frei habe, auf meinem CGE-King im Analysemodus nachspielen (ebenso die Analysen von Arno Nickel (der Mann ist Fernschach Großmeister! und ich hatte das Privileg, ihn bei diesem Artikel sogar (ein gaaaanz klein wenig) vorab beraten zu dürfen)) und mal schauen, was mir da so vom King angezeigt wird.

Selbst die Fußnoten dieses brillanten Artikels sind lohnend. Es gibt dort Links zu einigen Analysevideos auf youtube und vieles andere Interessante!

Das kann ich nur bestätigen. Ich kenne Arno bisher leider nur vom Sehen (der spielt im Fernschach noch einiges über mir) aber seine Kommentare und Analysen sind in der Regel immer sehr gut. So auch in diesem Fall. Es gibt allerdings einen Punkt in dem ich ihm nicht zustimmen kann. Dieser liegt aber nicht in den Analysen begründet sondern in den Schlussfolgerungen.

Zitieren:

Dafür wäre es aber wünschenswert, den Hardwarenachteil auf Seiten der traditionellen Engines, die eben nicht über AlphaZeros TPUs verfügen, stärker als bisher zu berücksichtigen.
Diese Bemerkung steht in krassem Gegensatz zu einer anderen von ihm gemachten Bemerkung in einer Fußnote

Zitieren:

Nicht die reine Rechenkraft ist die Stärke der „künstlichen Intelligenz“, sondern die Funktionsweise des neuronalen Netzes, das die Selektion intelligenter Zugkandidaten und das Ausschließen schwacher Züge steuert.
Das passt nicht zusammen. Gerade da ein neuronales Netz (auch das menschliche) eben parallel arbeitet und nicht linear ist ein Hardwarenachteil auf Seiten der klassischen Engines eben nicht gegeben. Ganz im Gegenteil. Die Unmengen an Daten die hier für eine Abfrage transportiert werden sind kaum vergleichbar mit den vergleichsweise wenigen Rechenoperationen, die eine traditionelle Engine durchführen muss. Auch der Mensch erfasst ja, wenn er irgendetwas ansieht nicht linear Bildpunkt für Bildpunkt sondern er erfasst das gesamte Bild auf einmal, kann dabei gleichzeitig noch atmen und Gerüche wahrnehmen und zuordnen. So funktioniert ein neuronales Netz nun einmal. Man muss nun einmal berücksichtigen dass dies eine völlig andere Herangehensweise ist. Die von AlphaZero benutzte Hardware rechnet schneller, aber eben auch anders. Auch der Mensch kann viel schneller Dinge wahrnehmen und zuordnen, als es z.B. ein Scanner kann, der Pixel für Pixel aufzeichnet. Kann der Mensch deswegen schneller rechnen? Nein. Aus zwei völlig unterschiedlich arbeitenden Systemen jetzt aber einen Vorteil an Rechenpower für die eine oder andere Seite herleiten zu wollen, halte ich ohne den entsprechenden wissenschaftlichen Hintergrund doch für sehr gewagt.

StPohl 16.01.2019 23:03

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Nicht unbedingt. Man muß sich klarmachen, daß bei den NN-Engines - im Gegensatz zum Menschen - das Neuronale Netz nicht wirklich existiert. Es gibt ja keine Neronen und Synapsen, keine sich verstärkenden oder abschwächenden Verbindungen in der AlphaZero Hardware bzw. in der GPU, auf der lc0 läuft. Das Neuralnetz ist nur eine Emulation. Diese überhaupt entstehen zu lassen, “frißt“ viel Rechenpower, bevor das NeuronaleNetz überhaupt selbst anfängt zu “denken“ oder Muster zu erkennen. Genauso wie Windows eine Emulation ist: auf keinem PC, in keiner CPU, gibt es Fenster, Mauszeiger etc. Diese ganze Benutzeroberfläche existiert gar nicht und es muß viel Rechenleistung aufgewendet werden, um diese Emulation zu erzeugen.
Daher muß man unterscheiden zwischen der Rechenleistung, die das NeuralNetz selbst leistet und der Rechenleistung, die die Maschinen-Hardware erbringen muß, damit das NeuralNetz überhaupt erst (scheinbar) entsteht.

Hartmut 17.01.2019 00:22

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Zitieren:

Zitat von StPohl (Beitrag 77305)
Nicht unbedingt. Man muß sich klarmachen, daß bei den NN-Engines - im Gegensatz zum Menschen - das Neuronale Netz nicht wirklich existiert. Es gibt ja keine Neronen und Synapsen, keine sich verstärkenden oder abschwächenden Verbindungen in der AlphaZero Hardware bzw. in der GPU, auf der lc0 läuft. Das Neuralnetz ist nur eine Emulation.

Das ist selbstverständlich klar. Nichtsdestotrotz arbeitet so eine Emulation wie ein richtiges Neuralnetz, zumindest in der Form, dass Informationen parallel verarbeitet werden. Auch ist die Datenmenge die hier bewältigt werden muss eben ungleich größer als bei einer konventionellen Engine. Genau das ist aber der Punkt um den es geht, wenn ich hier Vergleiche über die Rechenpower anstellen will.

...

Zitieren:

Daher muß man unterscheiden zwischen der Rechenleistung, die das NeuralNetz selbst leistet und der Rechenleistung, die die Maschinen-Hardware erbringen muß, damit das NeuralNetz überhaupt erst (scheinbar) entsteht.
Das ist ja sowieso klar. Aber um die Entstehung des Netzes geht es in dem Vergleich ja nicht. Wenn ich 2 Engines gegeneinander spielen lasse, existiert dieses Netz ja bereits. Es geht jetzt nur um den Vergleich während eines Spiels. Und da muss man nun mal sagen, dass hier von einem Programm wie Leela weit mehr Daten geschaufelt werden müssen, als bei einem Alpha/Beta-Programm. Das sieht man ja bereits wenn man die verschiedenen Größen der Netze vergleicht. Ein kleines Netz ist schneller als ein Großes. Das bedeutet aber auch gleichzeitig, dass mehr oder weniger jede "Zelle" dieses Netzes immer wieder angesprochen wird. Nimm jetzt noch jede dieser Zellen als eine Variable (oder einen Teil eines Arrays, um es mit normalen Programmiersprachen zu beschreiben) dann ist das ein riesiger Variablendschungel. Der braucht natürlich auch entsprechende Rechenpower, weit mehr als jedes konventionelle Programm. Da macht es praktisch wenig Unterschied dass es "nur" eine Emulation ist.

Theo 20.01.2019 15:16

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Zitieren:

Zitat von LocutusOfPenguin (Beitrag 77020)
Da keimt ja Hoffnung für die picochess LC0 Version auf:cool:

Wie ist denn der aktuelle Stand, welches Netz wird verwendet und wieviele Knoten pro Sekunde sinds? Ich habe mit dem 10x128 gute Erfahrungen auf schwacher Hardware, die Netze von D.Kappe scheinen mir dagegen richtig viel weniger Schachwissen als die originalen zu enthalten.

Gruß
Theo

LocutusOfPenguin 21.01.2019 13:33

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Hi Theo,

also ich habe leider null komma null Zeit LC0 zu testen...Aber Al ist ziemlich aktiv, und ich habe Ihn mal gefragt...Hier seine Antwort in aller Kürze:

9149 Netz ist viel schneller (ca 40nps?) während das neuere 32742 (0nps) wohl stärker auf picoChess spielt. Das 32-Netz ist dabei in 8sek geladen.

Jürgen

Belcantor 21.01.2019 15:11

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Hat jemand hier eine kompilierte Version von LC0 für den Mac, die er mir zur Verfügung stellen könnte? Oder einen Download-Link?

Mit herzlichem Dank im Voraus
Matthias

Hartmut 21.01.2019 15:20

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Zitieren:

Zitat von Belcantor (Beitrag 77469)
Hat jemand hier eine kompilierte Version von LC0 für den Mac, die er mir zur Verfügung stellen könnte? Oder einen Download-Link?

Mit herzlichem Dank im Voraus
Matthias

Da hilft wohl nur selber compilieren... Eine Anleitung dafür gibt es auf den Proektseiten: https://github.com/LeelaChessZero/lc0

Theo 21.01.2019 23:34

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Zitieren:

Zitat von LocutusOfPenguin (Beitrag 77466)
Hi Theo,

also ich habe leider null komma null Zeit LC0 zu testen...Aber Al ist ziemlich aktiv, und ich habe Ihn mal gefragt...Hier seine Antwort in aller Kürze:

9149 Netz ist viel schneller (ca 40nps?) während das neuere 32742 (0nps) wohl stärker auf picoChess spielt. Das 32-Netz ist dabei in 8sek geladen.

Jürgen

Hallo Jürgen,

danke für die Infos!

Das mit den "0 nps", also weniger als ein Knoten pro Sekunde Rechengeschwindigkeit für das große 20x256 Netz hört sich natürlich schlimm an. Aber eigentlich ist es das nicht. Klar, da ist ein Programm, welches extrem wenige Positionen pro Zug untersucht und taktisch anfällig ist. Dagegen ist der Glasgow 68000 ein taktischer Schläger :maul:

Aber wichtig ist halt auch die Qualität der gefundenen Züge, der Stellungsbewertung und der Partien, die dabei zustande kommen.

Auf meinem Netbook mit 1400 Mhz CPU rechnet Lc0 ohne GPU auf einem CPU-Kern etwa 0.5nps, also etwa vergleichbar schnell. Um mal einen Eindruck zu erhalten, wie so ein extrem langsames und selektives Programm spielt, habe ich auf dem Netbook ein Gauntlet von Lc0 gegen unsere Forenlieblinge gestartet. Schnellschach mit 15+15 pro Partie.

In der ersten Partie war Gideon Pro der Gegner. Rechengeschwindigkeit: etwa 500.000 Knoten pro Sekunde. Zur Einordnung: die programmverwandte Tasc ChessMachine 32 MHz Gideon 3.1 wird in der Aktiv-Liste mit 2379 geführt, allerdings auf viiieeel langsamerer Hardware.


[Event "Lc0_blas_021_32727.at"]
[Date "2019.01.21"]
[Round "1"]
[White "lc0-v0.20.1-windows-blas-32727"]
[Black "Gideon Pro"]
[Result "1-0"]
[BlackElo "2200"]
[ECO "B46"]
[Opening "Sizilianisch"]
[Time "22:07:48"]
[Variation "Paulsen-Taimanow-Variante, 5...a6 6.Nxc6 bxc6 7.Bd3 d5"]
[TimeControl "900+15"]
[Termination "adjudication"]
[PlyCount "86"]
[WhiteType "program"]
[BlackType "program"]

1. e4 {(e2-e4 c7-c6 Sb1-c3 d7-d5 Sg1-f3) +0.58/3 36} c5 2. Nf3 {(Sg1-f3
e7-e6 Sb1-c3 Sb8-c6 d2-d4 c5xd4) +0.60/3 33} e6 3. Nc3 {(Sb1-c3 Sb8-c6
d2-d4 c5xd4 Sf3xd4 Sg8-f6 Lf1-e2 Lf8-b4 e4-e5) +0.63/6 35} a6 4. d4 {(d2-d4
c5xd4 Sf3xd4 b7-b5 Lf1-d3 b5-b4) +0.57/3 34} cxd4 5. Nxd4 {(Sf3xd4 b7-b5
Lf1-d3 Lc8-b7 Dd1-e2 b5-b4 Sc3-b1 Sg8-f6 O-O) +0.44/7 36} Nc6 6. Nxc6
{(Sd4xc6 b7xc6 Lf1-d3 d7-d5 O-O d5xe4) +1.09/3 35} bxc6 7. Bd3 {(Lf1-d3
d7-d5 O-O Sg8-f6 Tf1-e1 Lf8-e7 e4-e5 Sf6-d7 Dd1-g4 d5-d4) +1.03/7 37} d5 8.
O-O {(O-O Sg8-f6 Tf1-e1 Lf8-e7 e4-e5 Sf6-d7 Dd1-g4 Ke8-f8 Sc3-a4 h7-h5
Dg4-e2) +0.79/5 36} Qc7 9. Re1 {(Tf1-e1 Sg8-f6 Dd1-f3 Lf8-d6 h2-h3 O-O)
+0.96/3 40} d4 {(d5-d4 Sc3-e2 e6-e5 c2-c3 c6-c5 Ld3-c4 Sg8-f6 f2-f3)
-0.01/9 29} 10. Na4 {(Sc3-a4 Sg8-f6 e4-e5 Sf6-d5 Sa4-b6) +3.27/3 31} c5
{(c6-c5 c2-c3 Lc8-b7 Ld3-c4 Lf8-d6 g2-g3 Sg8-f6 f2-f3) +0.03/10 48} 11. c3
{(c2-c3 Lc8-d7 c3xd4 c5xd4 Lc1-d2 Sg8-e7 Ta1-c1) +3.44/4 31} Bd7 {(Lc8-d7
e4-e5 Dc7-a5 Ld3-c2) -0.01/9 14} 12. cxd4 {(c3xd4 c5xd4 Lc1-d2 Lf8-d6
Ta1-c1 Dc7-b8 e4-e5 Ld6xe5) +4.23/5 31} cxd4 {(c5xd4 Lc1-d2 Lf8-d6 g2-g3
Ld7-b5 Ta1-c1 Dc7-b8) -0.05/10 32} 13. Bd2 {(Lc1-d2 Lf8-d6 Ta1-c1 Dc7-b8
Sa4-c5 Ld7-b5 e4-e5 Ld6xc5 Ld3xb5+ Db8xb5) +4.82/5 27} Bd6 {(Lf8-d6 f2-f4
Ld6xf4 Ld2xf4 Dc7xf4 Sa4-b6 Ta8-d8 Sb6xd7 Td8xd7 Ld3xa6) -0.18/11 29} 14.
Rc1 {(Ta1-c1 Dc7-b8 Sa4-c5 Ld7-b5 Ld3xb5+ Db8xb5 a2-a4 Db5-b8) +4.54/5 35}
Bxh2+ {(Ld6xh2+ Kg1-h1 Dc7-d6 Sa4-c5 Sg8-f6 Sc5xa6 Ta8-c8 g2-g3 Tc8xc1
Ld2xc1) -0.21/10 77} 15. Kh1 {(Kg1-h1 Dc7-b8 Sa4-c5 Ld7-b5 Ld3xb5+ a6xb5
g2-g3 Lh2xg3 f2xg3) +5.78/6 29} Qd6 {(Dc7-d6 Tc1-c5 f7-f6 Dd1-h5+ g7-g6
Dh5xh2 Dd6xh2+) -0.43/11 76} 16. Nc5 {(Sa4-c5 Lh2-e5 Sc5xd7 Dd6xd7 f2-f4
Le5-c7 e4-e5 Sg8-e7) +5.58/5 33} Be5 {(Lh2-e5 f2-f4 Le5xf4 e4-e5 Lf4xe5
Sc5xd7 Le5-g3 Dd1-f3 Ta8-a7) -0.76/10 56} 17. f4 {(f2-f4 Le5xf4 e4-e5
Lf4xe5 Sc5xd7 Ke8xd7 Dd1-a4+ Kd7-e7 Ld2-b4) +5.76/5 31} Bxf4 {(Le5xf4 e4-e5
Lf4xe5 Sc5xd7 Dd6xd7 Te1xe5 Sg8-e7 Te5-c5 O-O) -1.57/12 0} 18. e5 {(e4-e5
Lf4xe5 Sc5xd7 Le5-g3 Sd7-c5 Lg3xe1 Ld2xe1 Sg8-f6 Dd1-a4+) +6.92/6 32} Bxe5
{(Lf4xe5 Sc5xd7 Dd6xd7 Te1xe5 Sg8-f6 Te5-c5 O-O Ld2-g5 Dd7-d8) -1.53/11 58}
19. Nxd7 {(Sc5xd7 Le5-g3 Dd1-f3 Ta8-d8 Te1-f1 Td8xd7 Tc1-c8+ Td7-d8
Df3xf7+) +12.20/7 24} Qxd7 {(Dd6xd7 Te1xe5 Sg8-e7 Te5-c5 O-O Tc5-c7 Dd7-d6
Dd1-h5) -1.48/10 16} 20. Rxe5 {(Te1xe5 Sg8-f6 Dd1-f3 O-O Tc1-f1 Sf6-d5
Df3-h3 g7-g6 Ld2-h6 Tf8-e8) +30.08/5 37} Ne7 {(Sg8-e7 Dd1-h5) -1.52/10 0}
21. Rec5 {(Te5-c5 O-O Dd1-f3 Se7-d5 Df3-e4 f7-f5 De4xd4) +26.77/4 34} O-O
{(O-O Tc5-c7 Dd7-d6 Dd1-h5 f7-f5 Dh5-h4 Se7-g6 Dh4-h3) -1.29/9 22} 22. Qf3
{(Dd1-f3 Se7-d5 b2-b4 f7-f5 Ld3-c4 Ta8-d8 Lc4xd5) +30.99/4 31} Rac8
{(Ta8-c8 Ld2-b4 Tf8-e8 Tc5xc8 Te8xc8 Tc1xc8+ Se7xc8 Df3-h5) -1.45/9 25} 23.
Rxc8 {(Tc5xc8 Tf8xc8 Tc1xc8+ Dd7xc8 Df3-e4 Se7-f5 Kh1-g1 h7-h5) +39.02/5
31} Rxc8 {(Tf8xc8 Tc1xc8+ Dd7xc8 Df3-e4 Se7-f5 De4-f4) -1.48/10 40} 24.
Rxc8+ {(Tc1xc8+ Dd7xc8 Df3-e4 Se7-f5 Kh1-g1 h7-h5 a2-a4 a6-a5 b2-b3)
+54.97/5 31} Qxc8 {(Dd7xc8 Df3-e4 Se7-f5) -1.55/11 39} 25. Qe4 {(Df3-e4
Se7-f5 Kh1-g1 h7-h5 a2-a4 a6-a5 b2-b3 Dc8-b8) +39.89/5 31} Nf5 {(Se7-f5
Kh1-g1 h7-h5 De4-e5 f7-f6 De5-e2 Sf5-g3 De2-f2 Sg3-f5) -1.54/12 0} 26. Kg1
{(Kh1-g1 h7-h5 b2-b4 h5-h4 a2-a4 g7-g6 a4-a5) +34.80/4 33} h5 {(h7-h5
De4-f4 Dc8-d8 Ld3xf5 e6xf5 Df4xf5) -1.70/11 29} 27. a4 {(a2-a4 a6-a5 De4-f4
Sf5-e3 Df4xd4) +36.53/4 30} Qe8 {(Dc8-e8 a4-a5 De8-b8 b2-b4) -1.58/11 32}
28. b3 {(b2-b3 De8-b8 b3-b4 h5-h4 De4-f4 Db8-c8) +55.77/3 31} Qb8 {(De8-b8
b3-b4 Db8-e8 a4-a5 De8-c8 De4-f3) -1.66/12 41} 29. b4 {(b3-b4 h5-h4 De4-f4
Db8-c8 a4-a5 f7-f6 Df4-e4) +40.60/4 29} Qc8 {(Db8-c8 De4-f3 h5-h4 Ld3xf5
e6xf5 Df3-d3) -1.91/12 63} 30. a5 {(a4-a5 h5-h4 De4-f4 f7-f6 Df4-e4 Kg8-f7
b4-b5) +44.04/4 32} f6 {(f7-f6 De4-f3 g7-g6 Ld3xf5 e6xf5 Df3-d5+ Kg8-g7
Dd5xd4) -1.87/12 34} 31. Qf3 {(De4-f3 Sf5-e3 Df3xh5 f6-f5 Dh5-e2 Se3-g4
Ld3xa6) +56.89/4 30} h4 {(h5-h4 Ld3xf5 e6xf5 Df3-d5+ Kg8-h7 Dd5xd4 h4-h3
Dd4-h4+ Kh7-g8 Dh4xh3) -2.29/11 7} 32. Qe2 {(Df3-e2 Sf5-g3 De2-g4 g7-g5)
+62.47/3 30} Ng3 {(Sf5-g3 De2-g4 Sg3-f5 Ld3xf5 e6xf5 Dg4xd4 Dc8-c2 Ld2-e1)
-2.15/12 28} 33. Qg4 {(De2-g4 g7-g5 Dg4xd4 e6-e5 Dd4-c4+ Kg8-g7 Dc4xc8
Sg3-e4) +48.31/4 30} Nf5 {(Sg3-f5 Ld3xf5 e6xf5 Dg4xd4 Dc8-c2 Ld2-c3 Dc2-c1+
Kg1-f2 Dc1-c2+ Kf2-e3 Dc2xg2) -2.25/12 2} 34. Qe4 {(Dg4-e4 Kg8-f7 b4-b5
a6xb5 Ld3xb5) +44.27/3 30} g5 {(g7-g5 De4-e2 Sf5-g3 De2-g4 Sg3-f5 Ld3xf5
e6xf5 Dg4xd4 Kg8-f7 Dd4-a7+ Kf7-g6) -2.01/12 34} 35. b5 {(b4-b5 a6xb5
Ld3xb5 Kg8-f7 De4-c6 Dc8-b8 a5-a6 h4-h3) +11.67/4 30} axb5 {(a6xb5 Ld3xb5
Kg8-g7 a5-a6 Sf5-d6 De4-c6 Dc8xc6 Lb5xc6 Sd6-c8 Lc6-d7 Sc8-a7) -2.19/11 33}
36. Bxb5 {(Ld3xb5 d4-d3 De4-c6 Dc8-d8 Dc6xe6+ Kg8-g7 De6xf5) +26.63/5 30}
Kg7 {(Kg8-g7 Lb5-d3 Dc8-d7 Ld3-c4 Sf5-g3 De4xe6 Dd7xe6 Lc4xe6 Sg3-e4
Kg1-h1) -2.38/11 61} 37. Bd3 {(Lb5-d3 Dc8-b8 De4xe6 Sf5-e3 De6-e7+ Kg7-g8
Ld2xe3) +46.24/5 30} Qd7 {(Dc8-d7 Ld3-c4 Sf5-e7 Lc4xe6 Dd7-c6 De4xc6 Se7xc6
Le6-f5 Sc6-b8) -2.47/10 1} 38. a6 {(a5-a6 Dd7-a4 Ld2-e1 Da4-a1 a6-a7)
+38.97/3 33} Kh6 {(Kg7-h6 De4-b7 Dd7-a4 Ld3xf5 e6xf5 a6-a7 Da4-d1+ Kg1-h2)
-5.85/11 104} 39. Bb4 {(Ld2-b4 Dd7-c7 Lb4-e1 Dc7-c1 De4xe6 Sf5-e3) +50.40/4
29} g4 {(g5-g4 Lb4-d2+) -6.32/10 19} 40. Qxg4 {(De4xg4 Dd7-a4 Lb4-d2+
Kh6-h7 Kg1-h2 Da4-a1) +80.02/3 29} Qc7 {(Dd7-c7 Dg4-g8 Dc7-c1+ Kg1-h2
Dc1-f4+ Kh2-h3 Df4-g3+ Dg8xg3 Sf5xg3) -8.25/9 33} 41. Bd2+ {(Lb4-d2+ Kh6-h7
Dg4-h5+ Kh7-g8 Dh5-g6+ Kg8-h8) +91.22/4 28} Kh7 {(Kh6-h7 Dg4-e4 Kh7-g7
De4-b7) -10.69/9 36} 42. Qh5+ {(Dg4-h5+ Kh7-g7 Dh5-f3 Sf5-e3 Df3-b7 Se3-d5
Db7xc7+) +81.51/4 28} Kg7 {(Kh7-g7 Ld3xf5) -11.18/9 34} 43. Qf3 {(Dh5-f3
Sf5-e3 Df3-b7 Se3-d5 Db7xc7+ Sd5xc7 a6-a7 f6-f5) +79.90/4 27} Kg6 {(Kg7-g6
Df3-f4 Dc7xf4 Ld2xf4 e6-e5 Ld3xf5+ Kg6xf5 Lf4-h6 Kf5-g6 Lh6-d2) -9.08/9 40
Arena Entscheidung} 1-0


Joa, also wenn Lc0 auf dem DGT-Pi solche Partien spielen kann, wäre das ein gewaltiger Fortschritt gegenüber von vor einem halben Jahr.

Während ich diesen Beitrag schreibe, läuft die Partie gegen The King 3.12a (ca. 200.000 nps). Aber da kann ich mir eigentlich nicht vorstellen, dass Lc0 nicht doch eine Kombination übersieht :box2:

Hartmut 22.01.2019 00:12

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Das deckt sich ziemlich mit meinen Erfahrungen. Auf meinem alten 4-Kern-AMD (Phenom II X4) läuft Leela mit etwa 50 nps (auf 4 Kernen). da kriegt sie nach meiner Rechnung ungefähr ELO 2700 zusammen (gemessen an den Vergleichswerten der CEGT-Liste). Da ist der Gideon machtlos.

Gast 22.01.2019 10:37

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Das mit der Taktik ist mir auch schon in eigenen Partien gegen LC0 auf dem DGT Pi aufgefallen. Gespielt habe ich immer 15 Minuten Partien und mehr als einmal sah ich erst nachdem ich einen Zug ausgeführt habe, dass LC0 taktisch Material gewinnen kann, ohne das ich auch nur den Hauch von Kompensation dafür haben würde. Zu meinem Erstaunen hat LC0 die teilweise recht einfachen Taktiken nicht gespielt und viel lieber den Druck auf die Stellung erhöht. Wie nachträgliche Analysen zeigen, würde Stockfish sofort zugreifen und damit auch die Partie gewinnen. Die Züge und "Ideen" von LC0 sind aber trotzdem richtig gut und führen auch zum Gewinn.

Gleichzeitig "übersieht" LC0 auch gegnerische Taktiken und auch hier kam es mehrfach vor, dass ich Material gewonnen habe, aber meine Figuren nach und nach nicht mehr richtig koordiniert waren.

Das Stellungsverständnis das LC0 besitzt, ist wirklich erschreckend und beeindruckend zugleich.

Ich warte auf den Tag, an dem uns LC0 nicht nur die Züge schenkt die uns zum Grübeln bringen, sondern auch die Ideen die es hat verbal erklärt.

Theo 22.01.2019 12:08

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Zitieren:

Zitat von (Beitrag 77481)
Ich warte auf den Tag, an dem uns LC0 nicht nur die Züge schenkt die uns zum Grübeln bringen, sondern auch die Ideen die es hat verbal erklärt.

Das wäre in der Tat ein großer Tag für das Schach. Andererseits, selbst für die normalen Engines gibt es kaum eine "Erklärungskomponente". Chessmaster 4000 hatte damals eine gehabt und nach einer Analyse die Stellung rudimentär erklärt. Ich wüßte allerdings nicht, dass das irgendwie noch großartig verbessert würde.

Bei Lc0 ist die Stellungsbewertung um Größenordnungen komplizierter und arbeitet womöglich teilweise mit Konzepten, für die wir in unserer Sprache keine Wörter haben.

Egbert 22.01.2019 12:14

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Zitieren:

Zitat von Theo (Beitrag 77483)

Bei Lc0 ist die Stellungsbewertung um Größenordnungen komplizierter und arbeitet womöglich teilweise mit Konzepten, für die wir in unserer Sprache keine Wörter haben.

Hallo Theo,

das befürchte ich auch, da die Suche bei Lc0 ja wohl eher musterbasierend ist. Ich glaube, wir könnten hier mit jedweden Erklärungen wahrscheinlich nicht viel anfangen. :o

Gruß
Egbert

Theo 22.01.2019 12:19

AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
 
Das mit der taktischen Schwäche ist definitiv richtig. Auf der Schnellschachstufe 15+15 werden Böcke geschossen, die man sonst nur von Menschen kennt. Das finde ich bei einer mittlerweile ELO 2000+ Engine nicht uncharmant. Hier zur Anschauung die beiden Partien gegen den Glasgow als UCI Engine.


[Event "Lc0_blas_021_32727.at"]
[Date "2019.01.21"]
[Round "1"]
[White "lc0-v0.20.1-windows-blas-32727"]
[Black "Glasgow"]
[Result "1-0"]
[ECO "B90"]
[Opening "Sizilianisch"]
[Time "22:51:49"]
[Variation "Najdorf-Variante, Abweichungen, 6.Be3 e5 7.Nb3 Be6 8.f3"]
[TimeControl "900+15"]
[Termination "adjudication"]
[PlyCount "76"]
[WhiteType "program"]
[BlackType "program"]

1. e4 {(e2-e4 c7-c6 Sb1-c3 d7-d5 Sg1-f3) +0.58/3 32} c5 2. Nf3 {(Sg1-f3
e7-e6 d2-d4 c5xd4 e4-e5) +0.63/3 32} d6 3. d4 {(d2-d4 c5xd4 Sf3xd4 Sg8-f6
Sb1-c3 Sf6-g4) +0.93/3 33} cxd4 4. Nxd4 {(Sf3xd4 Sb8-c6 Sb1-c3 Sg8-f6
Lc1-g5 e7-e6 Dd1-d2 a7-a6 Lg5-e3) +0.87/6 40} Nf6 5. Nc3 {(Sb1-c3 Sb8-c6
Lc1-g5 e7-e6 Dd1-d2 a7-a6 O-O-O h7-h6 Sd4xc6 b7xc6 Lg5-f4 h6-h5) +0.91/10
33} a6 6. Be3 {(Lc1-e3 Sf6-g4 Le3-g5 h7-h6 Lg5-h4) +0.76/4 33} e5 7. Nb3
{(Sd4-b3 Lf8-e7 f2-f3 Lc8-e6 Dd1-d2 Sb8-d7 g2-g4 Sf6xg4) +0.58/5 32} Be6 8.
f3 {(f2-f3 Sb8-d7 Dd1-d2 h7-h5 f3-f4) +0.62/2 32} h5 9. Qe2 {(Dd1-e2 Sb8-d7
O-O-O b7-b5) +0.62/3 37} Nc6 {(Sb8-c6 O-O-O Lf8-e7) -0.58/4 44} 10. O-O-O
{(O-O-O Dd8-c7 Sc3-d5 Le6xd5) +1.52/3 31} Be7 {(Lf8-e7 De2-f2 O-O) -0.60/4
36} 11. Kb1 {(Kc1-b1 b7-b5 De2-d2 O-O Sc3-d5 Le6xd5) +1.49/4 32} d5 {(d6-d5
e4xd5 Sc6-d4) -2.17/3 35} 12. Nxd5 {(Sc3xd5 Sf6xd5 e4xd5 Le6xd5 f3-f4)
+4.70/2 31} Bxd5 {(Le6xd5 e4xd5 Sc6-a5) -1.66/3 35} 13. exd5 {(e4xd5 Sf6xd5
c2-c4 Sd5-c3+ b2xc3 Le7-c5 Td1xd8+ Sc6xd8) +8.09/5 31} Nb4 {(Sc6-b4 c2-c3)
-2.70/3 34} 14. c4 {(c2-c4 b7-b5 d5-d6 Le7xd6 c4-c5 Sb4-c2) +26.28/4 31}
Qc8 {(Dd8-c8 De2-d2 Dc8-f5+) -2.14/3 33} 15. Rc1 {(Td1-c1 Dc8-f5+ Kb1-a1
b7-b5 a2-a3 Sb4-c2+) +12.84/3 31} a5 {(a6-a5 Le3-f2) -1.79/3 33} 16. a3
{(a2-a3 a5-a4 Sb3-d2 Sb4-a6 g2-g3 O-O h2-h4 Sa6-c5 Lf1-h3) +8.02/5 31} Qf5+
{(Dc8-f5+ Kb1-a1) -2.17/4 33} 17. Ka1 {(Kb1-a1 O-O De2-d2 Tf8-c8 Lf1-e2
b7-b5 d5-d6 b5xc4) +8.05/5 32} a4 {(a5-a4 Sb3-c5 Le7xc5) -2.16/4 32} 18.
Nc5 {(Sb3-c5 b7-b6 a3xb4 b6xc5 b4xc5 O-O d5-d6) +20.88/5 31} Bxc5 {(Le7xc5
Le3xc5) -2.23/5 31} 19. Bxc5 {(Le3xc5 Sb4-a6 Lc5-d6 O-O-O c4-c5 Sf6xd5
De2-c4 Sa6-c7 Dc4xa4 Df5-f4) +21.21/6 27} Na6 {(Sb4-a6 Lc5-d6 Sf6-d7)
-2.39/5 31} 20. Bd6 {(Lc5-d6 O-O-O De2xe5 Df5xe5 Ld6xe5 Sa6-c5 Ka1-b1
Sc5-b3 Tc1-d1 Th8-e8) +40.93/6 35} e4 {(e5-e4 f3xe4 Df5xe4) -2.48/4 30} 21.
Qe3 {(De2-e3 O-O-O De3-b6 e4xf3 g2xf3 Df5xf3 Th1-g1) +32.19/4 32} Rd8
{(Ta8-d8 De3-b6 Df5-d7) -2.39/3 30} 22. c5 {(c4-c5 Td8xd6 c5xd6 O-O)
+76.16/2 31} Qxd5 {(Df5xd5 Lf1-b5+ Sf6-d7) -2.47/3 30} 23. Bb5+ {(Lf1-b5+
Dd5-c6 Lb5xc6+ b7xc6 Th1-g1 Sa6xc5 Ld6xc5) +83.61/4 31} Nd7 {(Sf6-d7 Lb5xa4
f7-f5) -2.97/3 29} 24. Rhd1 {(Th1-d1 Dd5-c6 Lb5xc6 b7xc6 Td1-d2 Sa6-b8
Tc1-c2 Sd7xc5) +83.33/4 30} Qe6 {(Dd5-e6 Lb5xa4 f7-f5) -2.95/3 29} 25. Qg5
{(De3-g5 De6-f6 Dg5-d5 Sa6xc5 Ld6xc5 Df6-e6 Dd5-g5) +88.02/3 32} f5 {(f7-f5
Dg5xg7 Th8-g8) -2.98/2 28} 26. Qxg7 {(Dg5xg7 Th8-g8 Dg7-h7 De6-f7 Dh7xf7+
Ke8xf7) +89.24/3 31} Rg8 {(Th8-g8 Dg7-h7 De6-f7) -3.60/4 28} 27. Qd4
{(Dg7-d4 Tg8xg2 f3xe4 f5xe4 Lb5-c4 De6-f6) +89.82/4 31} Rxg2 {(Tg8xg2 f3xe4
f5xe4) -3.55/3 28} 28. fxe4 {(f3xe4 f5xe4 Dd4-h8+ Tg2-g8 Dh8xh5+ Tg8-g6)
+88.10/4 31} fxe4 {(f5xe4 Dd4-h8+ Tg2-g8) -3.14/3 27} 29. Bc4 {(Lb5-c4
De6-f6 Dd4xe4+ Sd7-e5 De4xg2 Se5xc4 Dg2-e2+) +97.84/4 31} Qg4 {(De6-g4
Dd4-h8+ Sd7-f8) -9.99/2 27} 30. Qh8+ {(Dd4-h8+ Dg4-g8 Lc4xg8 Tg2xg8 Dh8xg8+
Sd7-f8) +96.91/3 31} Nf8 {(Sd7-f8 Dh8xf8+) 0.00/4 26} 31. Qxf8+ {(Dh8xf8+
Ke8-d7 Df8-f7+ Kd7-c6 Df7-d5+ Kc6-d7 Dd5xb7+ Sa6-c7 Db7xc7+ Kd7-e8 Dc7-e7+)
+98.00/6 31} Kd7 {0.00/4 0} 32. Qf7+ {(Df8-f7+ Kd7-c8 Lc4-e6+ Dg4xe6
Df7xe6+ Td8-d7 De6-e8+ Td7-d8 De8xa4) +100.81/6 31} Kc8 {(Kd7-c6 Lc4-d5+)
0.00/2 11} 33. Be6+ {(Lc4-e6+ Dg4xe6 Df7xe6+ Td8-d7 De6-e8+ Td7-d8 De8xa4
Tg2-g3 Da4-a5 Tg3-g1 Da5-b6 Sa6-b8) +98.11/5 29} Qxe6 {(Dg4xe6 Df7xe6+
Td8-d7) -9.99/3 12} 34. Qxe6+ {(Df7xe6+ Td8-d7 De6-e8+ Td7-d8 De8xa4 Tg2-g3
Da4-a5 Tg3-g1 Da5-b6 Sa6-b8 Db6-c7+) +86.46/6 29} Rd7 {-9.99/3 0} 35. Qe8+
{(De6-e8+ Td7-d8 De8xa4 Tg2-g3 Da4-a5 Tg3-g1 Da5-b6 Sa6-b8 Db6-c7+)
+84.03/4 34} Rd8 {+0.01/1 1} 36. Qxa4 {(De8xa4 Tg2-g3 Da4-a5 Tg3-g1 Da5-b6
Sa6-b8 Db6-c7+) +78.56/4 31} e3 {(e4-e3 Da4-e4 e3-e2) -9.99/3 27} 37. Qa5
{(Da4-a5 Tg2-d2 Da5-b6 Sa6-c7 Ld6xc7) +79.08/2 30} e2 {(e3-e2 Td1-g1
Td8-g8) -9.99/3 27} 38. Re1 {(Td1-e1 Tg2-f2 Ka1-a2 Td8-g8) +82.23/3 30} Re8
{(Td8-e8 Da5-b5 Te8-e3) -9.99/3 27 Arena Entscheidung} 1-0


[Event "Lc0_blas_021_32727.at"]
[Date "2019.01.22"]
[Round "2"]
[White "Glasgow"]
[Black "lc0-v0.20.1-windows-blas-32727"]
[Result "1-0"]
[BlackElo "2000"]
[ECO "B12"]
[Opening "Caro-Kann"]
[Variation "Vorstoß-Variante, 4.Nf3 e6"]
[TimeControl "900+15"]
[Termination "normal"]
[PlyCount "61"]
[WhiteType "program"]
[BlackType "program"]

1. e4 c6 {(c7-c6 Sb1-c3 d7-d5 Sg1-f3 Lc8-g4 e4xd5) -0.64/3 32} 2. d4 d5
{(d7-d5 Sb1-c3 d5xe4 Sc3xe4 Lc8-f5 Se4-g3 Lf5-g6 h2-h4 Lg6xc2) -0.56/5 37}
3. e5 Bf5 {(Lc8-f5 Sb1-d2 e7-e6 Sd2-b3 Sb8-d7 Sg1-f3 c6-c5 d4xc5 Lf8xc5)
-0.51/6 40} 4. Nf3 e6 {(e7-e6 c2-c3 c6-c5 Lc1-e3 Dd8-b6 Dd1-a4+) -0.25/4
34} 5. Nbd2 c5 {(c6-c5 Lf1-e2 Sb8-c6 O-O h7-h6 d4xc5) +0.07/3 32} 6. Bb5+
{(Lf1-b5+ Sb8-c6 Lb5xc6+) -0.10/4 40} Nd7 {(Sb8-d7 O-O a7-a6 Lb5-e2 Sg8-e7
c2-c4 Se7-c6 c4xd5 e6xd5) -0.11/6 32} 7. c4 {(c2-c4 c5xd4 Lb5xd7+) -0.16/3
35} a6 {(a7-a6 Lb5xd7+ Dd8xd7 O-O Lf5-d3 Tf1-e1 d5xc4 b2-b3 b7-b5 b3xc4)
+0.40/6 31} 8. Ba4 {(Lb5-a4 d5xc4) -0.19/4 34} dxc4 {(d5xc4 La4xd7+ Dd8xd7
Sd2xc4 Ta8-d8 O-O b7-b5 Sc4-d6+ Lf8xd6 e5xd6 Dd7xd6 a2-a4) +0.70/6 33} 9.
Bxd7+ {(La4xd7+ Dd8xd7 Sd2xc4) -0.20/5 34} Qxd7 {(Dd8xd7 Sd2xc4 Ta8-d8 O-O
b7-b5 Sc4-d6+ Lf8xd6 e5xd6 Dd7xd6 a2-a4 c5xd4 a4xb5 a6xb5) +0.40/8 30} 10.
Nxc4 {(Sd2xc4 Ta8-d8 Lc1-g5) -0.17/5 33} Rd8 {(Ta8-d8 Lc1-g5 f7-f6 Lg5-d2
b7-b5 Sc4-e3 Lf5-e4 Ld2-a5 c5xd4 La5xd8) +0.56/7 23} 11. Be3 {(Lc1-e3 c5xd4
Dd1xd4) -0.20/4 32} b5 {(b7-b5 Sc4-d6+ Lf8xd6 e5xd6 c5-c4 a2-a4 Dd7xd6
a4xb5 a6xb5 O-O Sg8-e7) +2.83/7 42} 12. Nd6+ {(Sc4-d6+ Lf8xd6) +0.06/4 32}
Bxd6 {(Lf8xd6 e5xd6 c5-c4 d4-d5 Dd7xd6 d5xe6 Dd6xe6 Sf3-d4 De6-g6 O-O
Sg8-e7 Dd1-f3 O-O) +2.37/7 25} 13. exd6 {(e5xd6 c5-c4 Le3-f4) -0.44/5 31}
c4 {(c5-c4 d4-d5 Dd7xd6 d5xe6 Dd6xe6 Sf3-d4 De6-g6 O-O Sg8-e7 Dd1-f3 O-O
Sd4xf5 Se7xf5) +2.83/7 27} 14. Bf4 {(Le3-f4 Sg8-f6 O-O) -0.45/5 31} Nf6
{(Sg8-f6 O-O Sf6-d5 Lf4-g3 O-O a2-a4 Dd7-b7 a4xb5 a6xb5) +3.82/6 39} 15.
O-O {(O-O O-O Tf1-e1) -0.63/4 31} Nd5 {(Sf6-d5 Lf4-g3 O-O a2-a4 Dd7-b7
a4xb5 a6xb5 Ta1-a5) +3.65/6 36} 16. Bg3 {(Lf4-g3 O-O Sf3-e5) -0.52/3 30}
O-O {(O-O a2-a4 f7-f6 a4xb5 a6xb5 Ta1-a5 Td8-a8 Dd1-a1 Dd7-c6 Tf1-c1)
+3.29/6 32} 17. Qd2 {(Dd1-d2 Lf5-d3 Tf1-c1) -0.60/4 29} f6 {(f7-f6 Tf1-c1
Td8-c8 Dd2-a5 Tc8-c6 a2-a4 b5-b4) +3.96/4 32} 18. Qa5 {(Dd2-a5 Lf5-g4
Sf3-d2) -0.08/3 29} Qb7 {(Dd7-b7 Tf1-c1 Td8-c8 Sf3-d2 Tc8-c6 Sd2-f1)
+3.44/4 32} 19. a4 {(a2-a4 Db7-b6 a4xb5) -0.42/3 29} b4 {(b5-b4 Sf3-d2
c4-c3 b2xc3 b4xc3 Sd2-c4 Lf5-d3 d6-d7) +8.40/4 32} 20. Rfe1 {(Tf1-e1 c4-c3)
-0.20/4 28} Rc8 {(Td8-c8 Sf3-h4 Lf5-c2 Te1xe6 c4-c3 b2xc3) +5.66/4 32} 21.
Rac1 {(Ta1-c1 Db7-a7) +0.58/3 28} c3 {(c4-c3 b2xc3 b4xc3 Sf3-h4 Lf5-d3
Te1xe6 c3-c2 Da5-d2 Db7-b3) +5.56/4 32} 22. bxc3 {(b2xc3 Sd5xc3) -0.22/3
28} b3 {(b4-b3 c3-c4 b3-b2 c4xd5 Tc8xc1 Te1xc1 b2xc1D+ Sf3-e1) +8.27/5 32}
23. d7 {(d6-d7 Db7xd7) -0.94/3 27} Qxd7 {(Db7xd7 c3-c4 b3-b2 c4xd5 b2xc1S
d5xe6 Lf5xe6) +14.21/5 32} 24. Re2 {(Te1-e2 Lf5-c2 Tc1xc2) -1.47/4 27} Bc2
{(Lf5-c2 Te2xc2 b3xc2 Tc1xc2 Dd7-b7 Tc2-c1 Db7-b2 Tc1-e1 Db2-b6) +16.72/4
32} 25. Rcxc2 {(Tc1xc2 b3xc2 Te2xc2) -1.35/4 26} bxc2 {(b3xc2 Te2xc2 Dd7-b7
Tc2-c1 Db7-b2 Tc1-e1 Db2-b6 Da5xb6 Sd5xb6 Te1xe6) +8.82/7 28} 26. Rxc2
{(Te2xc2 Tc8-c4 Da5xa6) -1.47/5 26} Qb7 {(Dd7-b7 Tc2-c1 Db7-b2 Tc1-e1
Db2xc3 Da5xa6 Dc3-c6 Da6-e2 Tf8-e8) +12.06/6 35} 27. Nd2 {(Sf3-d2 Db7-c6
c3-c4) -1.22/3 26} Rfd8 {(Tf8-d8 h2-h3 Db7-b6 Da5xb6 Sd5xb6 a4-a5) +10.92/4
32} 28. Kf1 {(Kg1-f1 Db7-c6 c3-c4) -1.22/3 25} Ne7 {(Sd5-e7 Tc2-c1 Td8xd4
Tc1-b1 Db7-d5 Da5-b4) +24.09/3 32} 29. Qh5 {(Da5-h5 Db7-c6) -2.07/3 25}
Rxd4 {(Td8xd4 Dh5-e2 Db7-c6 c3xd4) +7.50/2 31} 30. cxd4 {(c3xd4 Se7-f5
Tc2-c4) +3.53/4 25} Rxc2 {(Tc8xc2 Dh5-e8+) -122.04/3 31} 31. Qe8# {+0.01/1
1} 1-0




Alle Zeitangaben in WEZ +2. Es ist jetzt 07:11 Uhr.

Powered by vBulletin (Deutsch)
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
©Schachcomputer.info