|
|||||||||||
AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
...
Ich will aber an dieser Stelle eben betonen, dass sich mein letzter Post eben auf das Ergebnis in Bezug auf die unterschiedliche Hardware bezog. Und hier ist das Ergebnis von 28 Gewinnpartien aus 100 insgesamt erstmal nicht erstaunlich. Da ist es fast schon bemerkenswerter dass ein um den Faktor 50 langsameres Gerät (man beachte: keine Eröffnungsbibliothek und eine absolut katastrophale Hashtableeinstellung) 72mal Remis gehalten hat. ... Auszug aus der SSDF-Liste: https://ssdf.bosjo.net/long.txt Deep Hiarcs 14 16GB 1800X 3,6 GHz 3207 41 -42 280 43% 325 Hiarcs 14 256MB Athlon 1200 MHz 3106 34 -33 440 62% 3019 Der AMD Ryzen 1800x bringt nach www. cpubenchmark.net 15433 Punkte. Der Athlon 1200 MHz dürfte, wenn man Vergleichswerte der low-end-Tabelle heran zieht, allerhöchstens bei 250 liegen. Dann bringt also ein Faktor von zirka 60 in der CPU-Leistung, und angepasster schnellerer Hardware, gerade mal etwa 100 Punkte mehr Spielstärke. Die meisten Partien gehen sowieso Remis aus. Es bleibt reine Spekulation, wie AlphaZero auf 50x langsamerer Hardware abgeschnitten hätte. 28:0 Gewinnpartien wären es wohl nicht geworden, aber vielleicht 20:0 oder 15:1. Ich gehe davon aus, wenn Houdini 6 oder Stockfish 8 oder Komodo 11 die veröffentlichten AlphaZero-Glanzleistungen in vertretbarer Zeit - sagen wir eine Stunde pro Zug - ebenfalls gefunden hätten, hätte uns das Chessbase bestimmt nicht verschwiegen. Meine Meinung: Fa. Chessbase = Schlechter Verlierer! Gruß Wolfgang |
|
|||||||||||
AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
Nur mal zur Veranschaulichung, wie wenig schnellere Hardware in der Oberklasse bringt:
Auszug aus der SSDF-Liste: https://ssdf.bosjo.net/long.txt Deep Hiarcs 14 16GB 1800X 3,6 GHz 3207 41 -42 280 43% 325 Hiarcs 14 256MB Athlon 1200 MHz 3106 34 -33 440 62% 3019 Der AMD Ryzen 1800x bringt nach www. cpubenchmark.net 15433 Punkte. Der Athlon 1200 MHz dürfte, wenn man Vergleichswerte der low-end-Tabelle heran zieht, allerhöchstens bei 250 liegen. Dann bringt also ein Faktor von zirka 60 in der CPU-Leistung, und angepasster schnellerer Hardware, gerade mal etwa 100 Punkte mehr Spielstärke. Die meisten Partien gehen sowieso Remis aus. Es bleibt reine Spekulation, wie AlphaZero auf 50x langsamerer Hardware abgeschnitten hätte. 28:0 Gewinnpartien wären es wohl nicht geworden, aber vielleicht 20:0 oder 15:1. Ich gehe davon aus, wenn Houdini 6 oder Stockfish 8 oder Komodo 11 die veröffentlichten AlphaZero-Glanzleistungen in vertretbarer Zeit - sagen wir eine Stunde pro Zug - ebenfalls gefunden hätten, hätte uns das Chessbase bestimmt nicht verschwiegen. Meine Meinung: Fa. Chessbase = Schlechter Verlierer! Gruß Wolfgang Im Umkehrschluss heisst das, bei selber CPU-Leistung wäre es eine Begegnung auf Augenhöhe gewesen. Gibt man dann Stockfish noch eine vernünftige Eröffnungsbibliothek, eine vernünftige Hash-Tableeinstellung und Tablebases, also all die netten kleinen Dinge, die die Spielstärke nochmals steigern, dann läge Stockfish rein rechnerisch sogar vorne. By the way: Du darfst bei deinem Vergleich auch nicht vergessen, dass die SSDF-Liste auf Wettkämpfen basiert in denen die Hash-Tables optimal eingestellt sind und ein Eröffnungsbuch vorhanden ist. Im Wettkampf AlphaZero-Stockfish hatte Stockfish kein Buch, während AlphaZero aus der Lernphase durchaus Eröffnungswissen hatte. Wie sähe die Liste wohl aus, wenn man z.B. dem kleinen Athlon noch die Tablebases und das Eröffnungsbuch weggenommen hätte? Ob und was Chessbase in diesem Zusammenhang veröffentlicht... Was sollen sie denn veröffentlichen? Das Houdini 6 oder Kommodo 11 den einen oder anderen Zug vielleicht gefunden hätten und den einen oder anderen eben nicht? Was soll das bringen? In Bezug auf die weiter oben genannten Stellung habe ich bereits aufgezeigt dass einige ältere Programme den Schlüsselzug Txc5 in wenigen Sekunden finden und z.B. Rybka auch richtig weiterspielt. Und? Was sagt das aus? Nichts. Weil man erst mal in diese Stellung kommen muss. Fakt ist: Chessbase kann vielleicht durchaus zeigen dass der eine oder andere Zug von anderen Programmen ebenfalls gefunden wird. Das bedeutet aber nicht dass diese Programme auch zu dieser Stellung gekommen wären. Insofern wäre jede Darstellung von Chessbase ebenso nichtssagend bezüglich der wahren Programmstärke wie es der Wettkampf AlphaZero - Stockfish unter den gegebenen Bedingungen ist. Das Zugzwangmmotiv kann man natürlich auch in normale Schachprogramme einbauen. Es wird aber die Gesamtspielstärke eher mindern als erhöhen. Das ist der Vorteil der KI. Das Schachprogramm rechnet, die KI plant. Die Schlüsselstellungen in denen die KI dann gewonnen hat (wie eben in der oben gezeigten Stellung) hätte ein Magnus Carlsen wahrschenlich auch gelöst. Hätte er deswegen einen Wettkampf gegen einen optimal konfigurierten Stockfish gewonnen? Vermutlich nicht. Wie gesagt. Als Forschungsergebnis im Bezug auf Neuronale Netze ist AlphaZero ein Meilenstein. Und möglicherweise hätte sie auch gegen einen optimal konfigurierten Stockfish gewonnen. Vielleicht hätte sie dann ein paar Tage Training mehr gebraucht. Wir wissen es nicht und werden es vielleicht auch nie erfahren. Und die Aussage, dass das Ergebnis zu einem bestimmten Termin veröffentlicht wurde, weil DeepMind irgendwo Sponsor ist (so wie es Chessbase aussagt) ist nun mal nicht von der Hand zu weisen. Genau deswegen bleibt eben ein "Gschmäckle". Ich bin selbst ein Fan von Neuronalen Netzen und glaube auch, dass AlphaZero mit z.B. 2 Wochen Training auch gegen jedes andere Programm gewinnen kann. Genau deswegen finde ich es traurig, dass man sich mit dieser Studie jetzt angreifbar gemacht hat. Ein falsch konfigurierter Stockfish ohne Eröffnungsbuch ist eben ein anderer Gegner als ein richtig konfigurierter mit Eröffnungsbuch. Und bei aller Liebe zu neuronalen Netzen... das bleibt eben hängen und sorgt zu Recht für Kritik. Hätte man den Kritikern von vornherein einen fairen Wettkampf geliefert, dann wäre vielleicht der Termin der veröffentlichung ein paar Tage später gewesen, aber man hätte wirklich einen unangreifbaren Erfolg vorweisen können. Diese Chance hat man leider verpasst.
__________________
Mein Profil beim ICCF (International Correspondence Chess Federation) https://www.iccf.com/player?id=89948&tab=3 |
|
|||||||||||
AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
Gibt es jemanden, der schätzen kann oder sogar weiß, wie viele Partien Alpha Zero in den 4 Stunden Lernzeit gegen sich selbst gespielt haben mag?
|
|
||||
AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
Guten Morgen Allerseits
nachstehend ein Link zu einer weiteren Wettkampf-Betrachtung aus Sicht von ChessBase: https://de.chessbase.com/post/alpha-...unter-der-lupe Gruß Egbert |
Folgender Benutzer sagt Danke zu Egbert für den nützlichen Beitrag: | ||
RetroComp (15.12.2017) |
|
|||||||||||
AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
Wenn man davon ausgeht, dass Alpha Zero nur die einfachen Schachregeln als Ausgangspunkt hatte, stellt sich für mich die Frage, wie Alpha Zero aus diesen gespielten Partien "Wissen" und "Fähigkeiten" extrahieren kann. Ich bin mir ziemlich sicher, dass dies nur durch das Wissen des Endzustandes (Matt) zustande kommen kann. Stellen wir uns einfach mal vor, dass wir einen Teller auf den Boden werfen und dieser in tausend kleine Einzelteile zerbricht. Nun setzen das neuronale Netzwerk von Google auf diese Scherben mit der Bedingung, Ordnung zu schaffen. Ohne das Wissen, dass der "Normal"-Zustand (Ordnung) ein Teller ist, wird auch ein Alpha-Irgendwas aus den Scherben keinen Teller erzeugen können. Man könnte aus den Scherben wohl alles Mögliche erzeugen. Wenn Alpha-Irgendwas nun das Wissen hat, aus den Scherben einen Teller zu erzeugen und damit das Wissen des Normalzustandes (Ordnung) vorhanden ist, kann er mit Sicherheit diesen Teller aus den Scherben erzeugen. Viel interessanter ist wohl aber, dass Alpha-Irgendwas nicht nur einfach diesen Teller erzeugt, sondern auch den Weg von der Unordnung (Scherben) bis zur Ordnung (Teller) nachvollziehen und wiedergeben kann. Im Sinne von unseren Schachpartien extrahiert Alpha-Zero also den Weg zurück vom Matt (Ordnung) zur Ausgangsstellung (Unordnung) und erkennt in diesem "Puzzle" die zielführenden Notwendigkeiten. Aus diesen Informationen erstellt eine Alpha Zero dann Logiken und diese wären für uns Schachcomputer-Freunde unglaublich interessant. Auch wenn ich an eine Fortsetzung von Google im Schach-Bereich nicht ausgehe, hoffe ich dennoch, dass wir irgendwann mehr Infos zu der Sache bekommen, als bisher. |
|
|||||||||||
AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
Ich habe mal diese Stellung von Stockfish 8 rechnen lassen, in der AlphaZero das unglaubliche Lc1-g5 !! spielte.
Nach über zwölf Stunden und etwa 55 Milliarden untersuchten Positionen (ca. 1,27 Mio. Knoten/Sekunde) habe ich ergebnislos abgebrochen (b2-b4, Tiefe 51/84).
|
|
||||||||||||
AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
Eine Bestätigung meiner Vermutung, dass allerbeste Bedingungen für Stockfish wohl zu einem besseren Resultat für SF geführt hätten, dass aber über den Sieg von AlphaZero auch dann keine Zweifel entstehen können. Das von AZ demonstrierte Schach in gewissen Stellungen offenbart einen grösseren Fortschritt als derjenige zwischen einem Fidelity Elite V6 zum heutigen Stockfish. Gruss Kurt |
|
||||||||||||
AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau
AlphaZero hat eine gute Struktur und soundso viele Mannjahre bei der Entwicklung des Go-Meisters. Offenbar sind die zwei neuronalen Netze für Strategie und Bewertung gut balanciert. Die so gewonnenen Daten aus vier Stunden Rechnerei sind ja dann die Basis für eine Suche, die gegenüber der klassischen Baumsuche mindestens deutlich anders, wahrscheinlich aber sehr sensitiv auf zu geringe Rechenleistung reagiert. Dieser Ansatz ergibt ein für den Menschen attraktiveres Schach, leider können wir die Spielstärke nicht wirklich beurteilen. Die Kritikpunkte wurden hier ja schon diskutiert.
Das Ergebnis des Wettkampfs ist vom Ergebnis her überraschend (nur Weißsiege) und deutlich. Das erinnert mich an Deep Thought/Blue. Der Ansatz einer komplexen Bewertungsfunktion bei Deep Blue ist durch die Hardware mit nur wenig Konkurrenz zur Suche ganz anders als bei "normaler" Software wo die Rechenleistung zwischen Suche und Bewertung aufgeteilt wird. Allerdings haben wir bei den wenigen Erkenntnissen zu Deep Blue gar keine mit wirklich geringer Bedenkzeit. Der Grafik im Paper zufolge würde AlphaZero da deutlich in Nachteil kommen. Die Präsentation des Projekts im Paper ist anscheinend üblich, andere Paper über Schachprogramme drucksen ähnlich herum und machen eine Wiederholung sehr schwer (von spezieller Hardware, die keiner von uns hat mal ganz abgesehen). Aber unabhängig davon soll hier (was die Wissenschaft angeht) ein Verfahren beschrieben werden, kein sportlicher Wettkampf. Das deutliche Ergebnis lässt sich darüber hinaus natürlich toll bewerben und mit etwas Pech ist Schach damit (für die Öffentlichkeit) tot. Stockfish gilt als stärkste Engine, tritt aber nicht bei offiziellen Turnieren an. AlphaZero könnte hier bei Nichtantritt und nicht einmal inoffiziellen Wettkämpfen eine verheerende Wirkung haben. |
|
|
Ähnliche Themen | ||||
Thema | Erstellt von | Forum | Antworten | Letzter Beitrag |
Frage: Freie Engine (Uci) für PC - Spielstil | Ecki | Die ganze Welt der Schachcomputer / World of chess computers | 4 | 05.04.2015 16:03 |
News: Revelation als UCI engine: PCSengine software | krval | Die ganze Welt der Schachcomputer / World of chess computers | 1 | 13.08.2013 16:06 |
News: MephBoard - Winboard Engine für Mephisto PC-Modul | krval | Technische Fragen und Probleme / Tuning | 8 | 11.01.2012 21:30 |
Mephisto PC-Modul als UCI Engine | FluidDynamics | Die ganze Welt der Schachcomputer / World of chess computers | 0 | 14.02.2008 08:53 |
Fruit als Engine? | Robert | Die ganze Welt der Schachcomputer / World of chess computers | 3 | 04.08.2005 08:26 |