Einzelnen Beitrag anzeigen
  #63  
Alt 14.12.2017, 13:40
Hartmut Hartmut ist offline
Lebende Foren Legende
 
Registriert seit: 01.04.2010
Ort: Nürnberg
Alter: 60
Land:
Beiträge: 2.178
Abgegebene Danke: 3.229
Erhielt 1.550 Danke für 901 Beiträge
Aktivitäten Langlebigkeit
5/20 15/20
Heute Beiträge
0/3 sssss2178
AW: Selbstlernende KI: Neue Engine spielt auf Profi-Niveau

 Zitat von Wolfgang2 Beitrag anzeigen
Nur mal zur Veranschaulichung, wie wenig schnellere Hardware in der Oberklasse bringt:
Auszug aus der SSDF-Liste: https://ssdf.bosjo.net/long.txt

Deep Hiarcs 14 16GB 1800X 3,6 GHz 3207 41 -42 280 43% 325

Hiarcs 14 256MB Athlon 1200 MHz 3106 34 -33 440 62% 3019


Der AMD Ryzen 1800x bringt nach www. cpubenchmark.net 15433 Punkte. Der Athlon 1200 MHz dürfte, wenn man Vergleichswerte der low-end-Tabelle heran zieht, allerhöchstens bei 250 liegen.

Dann bringt also ein Faktor von zirka 60 in der CPU-Leistung, und angepasster schnellerer Hardware, gerade mal etwa 100 Punkte mehr Spielstärke.

Die meisten Partien gehen sowieso Remis aus. Es bleibt reine Spekulation, wie AlphaZero auf 50x langsamerer Hardware abgeschnitten hätte. 28:0 Gewinnpartien wären es wohl nicht geworden, aber vielleicht 20:0 oder 15:1.

Ich gehe davon aus, wenn Houdini 6 oder Stockfish 8 oder Komodo 11 die veröffentlichten AlphaZero-Glanzleistungen in vertretbarer Zeit - sagen wir eine Stunde pro Zug - ebenfalls gefunden hätten, hätte uns das Chessbase bestimmt nicht verschwiegen.
Meine Meinung: Fa. Chessbase = Schlechter Verlierer!

Gruß
Wolfgang
Eigentlich bestätigst Du, was ich oben bereits gesagt habe. Der Unterschied der von Dir genannten Geräte bei ca. 60facher CPU-Leistung liegt um die 100 Elo-Punkte. Das Ergebnis AlphaZero - Stockfish impliziert ebenfalls einen Unterschied von ca. 100 Elo-Punkten ausgehend von den Gewinnwahrscheinlichkeiten der ELO-Berechnung.

Im Umkehrschluss heisst das, bei selber CPU-Leistung wäre es eine Begegnung auf Augenhöhe gewesen. Gibt man dann Stockfish noch eine vernünftige Eröffnungsbibliothek, eine vernünftige Hash-Tableeinstellung und Tablebases, also all die netten kleinen Dinge, die die Spielstärke nochmals steigern, dann läge Stockfish rein rechnerisch sogar vorne.

By the way: Du darfst bei deinem Vergleich auch nicht vergessen, dass die SSDF-Liste auf Wettkämpfen basiert in denen die Hash-Tables optimal eingestellt sind und ein Eröffnungsbuch vorhanden ist. Im Wettkampf AlphaZero-Stockfish hatte Stockfish kein Buch, während AlphaZero aus der Lernphase durchaus Eröffnungswissen hatte. Wie sähe die Liste wohl aus, wenn man z.B. dem kleinen Athlon noch die Tablebases und das Eröffnungsbuch weggenommen hätte?

Ob und was Chessbase in diesem Zusammenhang veröffentlicht... Was sollen sie denn veröffentlichen? Das Houdini 6 oder Kommodo 11 den einen oder anderen Zug vielleicht gefunden hätten und den einen oder anderen eben nicht? Was soll das bringen?

In Bezug auf die weiter oben genannten Stellung habe ich bereits aufgezeigt dass einige ältere Programme den Schlüsselzug Txc5 in wenigen Sekunden finden und z.B. Rybka auch richtig weiterspielt. Und? Was sagt das aus? Nichts. Weil man erst mal in diese Stellung kommen muss.

Fakt ist: Chessbase kann vielleicht durchaus zeigen dass der eine oder andere Zug von anderen Programmen ebenfalls gefunden wird. Das bedeutet aber nicht dass diese Programme auch zu dieser Stellung gekommen wären. Insofern wäre jede Darstellung von Chessbase ebenso nichtssagend bezüglich der wahren Programmstärke wie es der Wettkampf AlphaZero - Stockfish unter den gegebenen Bedingungen ist.

Das Zugzwangmmotiv kann man natürlich auch in normale Schachprogramme einbauen. Es wird aber die Gesamtspielstärke eher mindern als erhöhen. Das ist der Vorteil der KI. Das Schachprogramm rechnet, die KI plant. Die Schlüsselstellungen in denen die KI dann gewonnen hat (wie eben in der oben gezeigten Stellung) hätte ein Magnus Carlsen wahrschenlich auch gelöst. Hätte er deswegen einen Wettkampf gegen einen optimal konfigurierten Stockfish gewonnen? Vermutlich nicht. Wie gesagt. Als Forschungsergebnis im Bezug auf Neuronale Netze ist AlphaZero ein Meilenstein. Und möglicherweise hätte sie auch gegen einen optimal konfigurierten Stockfish gewonnen. Vielleicht hätte sie dann ein paar Tage Training mehr gebraucht. Wir wissen es nicht und werden es vielleicht auch nie erfahren. Und die Aussage, dass das Ergebnis zu einem bestimmten Termin veröffentlicht wurde, weil DeepMind irgendwo Sponsor ist (so wie es Chessbase aussagt) ist nun mal nicht von der Hand zu weisen. Genau deswegen bleibt eben ein "Gschmäckle".

Ich bin selbst ein Fan von Neuronalen Netzen und glaube auch, dass AlphaZero mit z.B. 2 Wochen Training auch gegen jedes andere Programm gewinnen kann. Genau deswegen finde ich es traurig, dass man sich mit dieser Studie jetzt angreifbar gemacht hat. Ein falsch konfigurierter Stockfish ohne Eröffnungsbuch ist eben ein anderer Gegner als ein richtig konfigurierter mit Eröffnungsbuch. Und bei aller Liebe zu neuronalen Netzen... das bleibt eben hängen und sorgt zu Recht für Kritik. Hätte man den Kritikern von vornherein einen fairen Wettkampf geliefert, dann wäre vielleicht der Termin der veröffentlichung ein paar Tage später gewesen, aber man hätte wirklich einen unangreifbaren Erfolg vorweisen können. Diese Chance hat man leider verpasst.
__________________
Mein Profil beim ICCF (International Correspondence Chess Federation)
https://www.iccf.com/player?id=89948&tab=3
Mit Zitat antworten
Folgende 3 Benutzer sagen Danke zu Hartmut für den nützlichen Beitrag:
Egbert (14.12.2017), RetroComp (14.12.2017), Wolfgang2 (14.12.2017)