Einzelnen Beitrag anzeigen
  #21  
Alt 07.12.2017, 12:38
Benutzerbild von Solwac
Solwac Solwac ist offline
Revelation
 
Registriert seit: 18.07.2010
Land:
Beiträge: 780
Abgegebene Danke: 189
Erhielt 334 Danke für 212 Beiträge
Activity Longevity
1/20 13/20
Today Beiträge
0/3 ssssss780
AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau

 Zitat von Hartmut Beitrag anzeigen
Alpha hat diese Speilstärke nach nur 4 Stunden Training erreicht. Möglicherweise wäre er nach weiteren Trainingsspielen noch stärker und könnte auch auf schlechterer Hardware laufen.
Das sind aber zwei verschiedene Sachen. Das eine ist die Vorbereitung von Daten im stillen Kämmerchen, das andere ist dann der Einsatz in der Wertungspartie. Für die Wertungspartie im Schachclub interesiert sich auch keiner für die Dauer meines Trainings.

 Zitat von Hartmut Beitrag anzeigen
Ein Buch braucht Stockfish oftmals kaum. Wer mal die TCEC-Turniere ansieht, merkt, dass Stockfish und andere Engines auch ohne Buch weitestgehend gängige Theorie spielen. By the way: Hätte Stockfish ein Buch gehabt, dann hätte es bestimmt Leute gegeben die bei ähnlichem Ergebnis über die Qualität des Buchs hergezogen wären, angezweifelt hätten dass die Varianten wirklich gut waren, etc. Eröffnungsbücher basieren in der Regel immer auf "menschlicher" Theorie. Da hätte man die menschliche Dummheit verantwortlich gemacht. So war es eine reine Engineleistung die getestet wurde. Daran ist nichts verwerfliches.
Es geht nicht um ein Buch um die Spielstärke zu heben, es geht um die Abwechslung und die statistische Unabhängigkeit der Wettkampfpartien. Wenn immer nur aus der Eröffnungsstellung gestartet wird und Abweichungen nur auf Zufall und eventuellen Lernereien im Wettkampf beruhen, dann ist die Aussagekraft massiv kleiner als bei wirklich verschiedenen Partien.

 Zitat von Hartmut Beitrag anzeigen
Wieso ist das eine Benachteiligung? Die enormen Wertungszahlen, die Stockfish erreicht, basieren oftmals auf Partien mit viel geringerer Bedenkzeit. Zudem: Wenn beide mehr Zeit hätten, würden auch beide davon profitieren können. Kann man denn wirklich davon ausgehen, dass eine Erhöhung der Bedenkzeit bei AlphaZero weniger gebracht hätte? Gerade bei kurzen Bedenkzeiten ist Stockfish sehr stark. In meiner Fernschachpraxis hat sich herausgestellt, dass höhere Bedenkzeiten nur selten bessere Züge hervorbringen. In 95 % der Fälle, spielt Stockfish dasselbe, ganz egal ob ich ihm jetzt 3 Minuten oder 3 Stunden Rechenzeit gebe. Nur in sehr seltenen Fällen ändern sich die Züge (und oftmals nicht zum Besseren...). In manchen Stellungen versteht er auch einfach den Stellungstyp nicht, selbst wenn ich ihn 3 Tage rechnen lassen würde.
Die Benachteiligung ergibt sich daraus, dass Stockfish sich die Zeit nicht selbst eingeteilt hat, also zwangsweise verschwenderisch damit umgegangen ist. Der Faktor (2?) kommt zum Hardwarevorteil dazu. Es geht hier nicht um die absolute Spielstärke der beiden Programme, nur um den relativen Nachteil durch so einen Ansatz. Das Experiment hätte auch hier besser sein können. Die Auswirkungen der fixen Zeit auf AlphaZero kann ich nicht beurteilen, dazu müsste ich die Auswirkungen variabler Rechenzeit auf den Suchalgorithmus kennen.

 Zitat von Hartmut Beitrag anzeigen
Naja, was ist denn ein "echtes" Match für Dich? OK, gleiche Hardware, wäre eine Voraussetzung. Höhere Bedenkzeiten halte ich wegen der oben gesagten Punkte für wenig hilfreich.
Ein echtes Match würde die unterschiedliche Hardware diskutieren und in diesem Fall Stockfish mehr Zeit, deutlich mehr Speicher und den vollen Einsatz des ganzen Programms (also inklusive der Zeiteinteilung) geben. Bei der Frage der Hardware wären Diskussionen zwangsläufig, da die Neuronalen Netze eben nicht wie ein klassisches Schachprogramm nur mit Integern rechnen.

Die Frage der Bedenkzeit ist schwierig, da hier wie im Paper gezeigt unterschiedlich skaliert wird. Eine Minute pro Zug (im Schnitt) ist aber gut.

 Zitat von Hartmut Beitrag anzeigen
Die Frage ist eher, wie es die Entwicklung beeinflussen könnte. Die Änderungen bei Stockfish von Version zu Version sind eine Folge von "Feintunings". Um ein ähnliches Stellungsverständnis wie AlphaZero aufzubringen müsste man das Programm vermutlich komplett neu schreiben.
Nur Tuning alleine ist es ja nicht, aber wahrscheinlich würde bei mehr Partien auch mehr Verständnis für eine bessere Bewertungsfunktion gewonnen. Das war schon bei Chess 4.0 so und hat sich seitdem nicht geändert.

Nochmal bevor es Missverständnisse gibt: Ich finde die Leistung von AlphaZero erstaunlich. Leider geben es die Umstände des Matches mit der Beschreibung im Paper keinen Aufschluss über die wahren Kräfteverhältnisse, es ist ein wissenschaftliches Experiment, keine Meisterschaft gewesen.
Mit Zitat antworten