|
|
||||||||||||
AW: Warum Fidelity scheiterte!
Ähhhm. Ich helfe gern weiter: Teststellung --> Ergebnisse Konkurrenz --> Wieso können die das? --> Analyse Teil(Suchbäume) ---> Spezifikationen. Was denn sonst?! |
|
||||||||||||
AW: Warum Fidelity scheiterte!
Na den Quellcode, den Du meinst. Ich habe das Gefühl Du hast das Prinzip Baumsuche bereits verstanden, aber noch nicht tief genug, um andere Perspektiven darauf zuzulassen.
Nur zu, wenn Dir was daran liegt, schaffst Du den Rest auch alleine. Threadtitel: "Warum Fidelity scheiterte!" ----> q.e.d. |
|
||||||||||||
AW: Warum Fidelity scheiterte!
Leute ich habe Schwierigkeiten euren Dialogen noch zu folgen.
Damals wurde jedenfalls gesagt das wären Singular extensions. Mag sein das die Formulierung nicht richtig war und dieser algo eigentlich anders war. Jedenfalls wurde das Programm bis zum Mach III mit unterschiedlichen Dingen verändert. Dann stagnierte es und nur noch die Hardware machte bei fidelity Fortschritte. Dann gingen die spracklens nach saitek und das sparc modul, das anders spielt, wurde entwickelt. Sowohl beim mach III und den v1-v11 Ablegern und beim sparc war EINES schon merkwürdig. Die obskure Bibliothek. Die mach III Programme sind teilweise nach 2-3 Zügen schon aus der turnierbibliothek. Z.B. Nach 1.e4 c5 2.Sf3 Sc6 3.c3 Out of Book (Corona d+ vs. Avantgarde v9) 1.c4 Sc6 2.d4 Out of Book (Avantgarde v9 vs. Simultano C) Niggemann sah sich genötigt für das Sparc Modul ein eigenes Turnierbuch zu erstellen, das hat IM Markus Schäfer gemacht, der damals bei Niggemann arbeitete. Markus spielt ein sehr scharfes Schach voll von Kombinationen. Entsprechend sein eröffnungsrepertoire. Markus erinnerte mich immer ein wenig an Tal. Ist m.E. Aber auch nicht viel besser geworden. Beim Sparc Modul gab es häufig merkwürdige springermanöver: Sa3-c2. Und habe sogar das berüchtigte Springer Fianchetto auf b2 etc. gesehen. Sa3-c4-b2. Richard lang hat mit seiner asymmetrischen Spielweise lange Zeit das Geschäft dominiert. Als dann der nullmove immer mehr eingesetzt wurde könnte lang nicht mehr konkurrieren da der Branchingfaktor des nullmoves viel geringer war als selbst Langs asymmetrischer Spielbaum. Zu Zeiten Langs wurde in insiderkreisen viel gerätselt wie Langs Programme funktionieren. Fakt ist das die lang Programme in den suchtiefen 1-3-5-7-9 etc. selektiv rechnen, d.h. Nicht alle Äste verfolgen. Während sie in den suchtiefen 2-4-6-8 etc. quasi alle notwendigen Äste durchgehen. Im Ergebnis spielten die Geräte in den ungeraden suchtiefen nicht immer präzise. Während sie Drohungen und Angriffe in den geraden suchtiefen berücksichtigten. Dieses schwammige in den eigenen plies führte zum lavierenden spielstil. Langs Programme waren in Maschinensprache geschrieben, benutzten für die damalige Zeit moderne Hardware und statt einer capture search hatte er eine statische Abschätzung bei den schlagzügen. SEE= static Exchange Evaluation. Das war auch der Grund warum bei lang die Bewertungen häufig bei schlagabtäuschen Fehler begeht bzw. warum nach dem Abtausch plötzlich die Bewertungen sich veränderten. Weil er beim durchrechnen der abtäusche die bewertungsfunktion in den endknoten , den ruhigen Stellungen gar nicht benutze , kam es nach Durchführung der abtäusche zu bewertungssprüngen als die bewertungsfunktion dann erstmalig die ruhige Stellung bewertete. Langs Ideen funktionierten. Aber der nullmove funktionierte besser. Hier brauchte man gar keine bewertungsfunktion mehr. Es gab nur ein pre Processing und den Rest machte der nullmove. Es wurden nur noch Bewertung relativ zum preprocessing durchgeführt. Die einzelnen Äste bekamen Malis oder Boni aber es wurde nicht mehr die ganze Stellung bewertet. Das war sehr viel effizienter. Die Programme kamen schnell auf Tiefe. Aber sie wurden auch mit jedem weiteren Halbzug immer dümmer. Weil sie ja nur in der Wurzelebene die volle bewertungsfunktion benutzten und nicht in den endstellungen. Richard Lang hat noch versucht sein Programm zu verändern und gegen die nullmover und andere Konzepte die ihn überholten anzugehen, aber es war sehr schwierig das Programm zu verändern. Es war alles so effizient programmiert, und fest verdrahtet, er hätte wieder bei Null anfangen müssen und der Ausgang wäre sehr ungewiss gewesen und sicherlich hätte ossi weiner da nicht mitgemacht. Also was tun ?! Mittlerweile ist es ja so das die Programmierer die außerhalb des Wettbewerbs sind bei den Tablet und Handy Apps weitermachen. Nur noch einige wenige sind bei den PC Programmen mit dabei.
__________________
Die ganze Welt des Computerschachs Geändert von mclane (01.07.2015 um 23:31 Uhr) |
|
||||||||||||
AW: Warum Fidelity scheiterte!
@Theo: Ganz schön großkotzig. So ist eine Diskussion sinnlos.
|
|
||||||||||||
AW: Warum Fidelity scheiterte!
Tut mir leid, dass Du so empfindest. Die Diskussion ist nicht sinnlos, sondern in diesem Punkt jetzt abgeschlossen. Zu Haarspalterei-Diskussionen mit Zugfolgen ja/nein und Programmfehler-richtige-Bezeichnung ja/nein kann ich mich nur schwer motivieren.
Wollen wir uns als Kompromiss auf die Hypothese "Das Fidelity-Programm hatte so seine Schwächen" einigen? Oder schlag was vor. Ich wäre dafür mal ein paar Partien und Stellungen anzuschauen ![]() |
|
||||
AW: Warum Fidelity scheiterte!
Hallo Schachcomputer-Freunde
![]() in der Ausgabe 6/96 ComputerSchach & Spiele habe ich zum Thema "Singular Extensions" und Sucherweiterungen einen sehr praxisorientierten und gut verständlichen Artikel von Chrilly Donninger (Spieglein, Spieglein an der Wand) gefunden. Hierbei ging es dem Autor um die Darstellung der Erfolgskontrollen in der Schachprogrammierung. Ich erlaube mir hieraus einen Absatz zu zitieren: ... Besser zwei gute Ideen als eine? Selbst wenn man über den ersten Berg ist und wieder ein paar Elo zugelegt hat, ist die Sache noch lange nicht gelaufen. Beim Ausprobieren der (über)nächsten guten Idee kann es unter Umständen wie beim Mensch-Ärgere-Dich-Nicht "zurück an den Start" heißen. Zwei gute Ideen in Kombination sind manchmal nämlich ein Desaster. Ein klassisch Beispiel dafür sind die vom Deep-Blue-Team erfundenen "Singular Extensions". In der Suche werden alle Varianten erweitert, tiefer berechnet, in denen es nur einen guten, forcierten Zug gibt. Nach den ersten Berichten des Teams war dies nicht die übliche gute 10 Elo-Idee, sondern ein 100 Elo-Genieblitz. Nach weiteren Untersuchungen pendelte sich der vom Deep-Blue-Team veröffentliche Wert auf das ortsübliche Ideenniveau ein. Der englische Computerwissenschaftler Don Beal widmete den Singular Extensions eine ausführliche Studie. Sein Resultat: Fügt man einem Programm, das ohne Sucherweiterungen rechnet, die Singular Extensions-Technik hinzu, wird es tatsächlich um mindestens 100 Elo besser. Allerdings erweitern praktisch alle Programme bei Schachgeboten, die meisten auch bei Figurenabtauschen und bei Drohungen. Durch diese tieferen Varianten, die frühzeitige Erkennung von Figurenverlust bzw. Matt, spielt das Programm gegenüber einer Version ohne Erweiterungen um 100-200 Elo stärker. Die Kombination beider Techniken ist aber deutlich schlechter als die Singular Extensions oder die Matt/Schlagzugerweiterungen alleine. Die Ergebnisse von Beal stimmen ziemlich genau mit meinen Experimenten zu diesem Thema überein. ... Gruß Egbert |
|
||||||||||||
AW: Warum Fidelity scheiterte!
Also ich denke wir sind noch unterschiedlicher Meinung was die Anzeige des brute Force Sockels im lang Programm bedeutet. Dieses M und dieses S.
Wenn ich sage das er die ungeraden selektiv rechnet und die geraden brute Force, Dann meint das genau das was ich sage! D.h. Wenn er M2 anzeigt ist er den 2. und 4. erfassend durchgegangen Je nachdem was er bei S anzeigt kommt der 1. und 3. und folgende dazu. Wichtig ist das die EIGENEN suchtiefen 1/3/5/7 etc. immer selektiv rechnet. Er muss dort ja auch nicht alles sehen. Ob er nun einen guten oder sehr guten Ast spielt ist nicht so wichtig. Wichtig ist das er im 2/4/6/8... Jede Drohung sieht. Das führt im gesamten zu diesem herumeiernden spielstil. Auf der einen Seite sieht er Drohungen und reagiert korrekt darauf, auf der anderen aber übersieht er bei den eigenen Zügen manchmal den besten und spielt nur den 2. oder 3. oder 4. besten. Dies lässt sich beweisen. Es gab Stellungen wo er den Schlüsselzug nicht fand weil er mit dem ply 1 ja selektiv vorbeirechnete. Nahm man aber einen ply zurück sah er den Schlüsselzug mit ply 2 . Und diese wurden ja brute Force durchgerechnet, d.h. Er sah den Schlüsselzug sofort während er vorher minutenlang NIX sah. D.h. Da ist nicht ein brute Force Sockel den man bei M ablesen kann, Also M2 oder M3 gleich 2 resp. 3 plys brute Force und dann eine selektive Komponente drauf. So funktioniert das nicht. Er rechnet asymmetrisch. Er rechnet die eigenen plies selektiv und die gegnerischen erfassend bzw. erfassender. Daher ist auf der einen Seite klar warum lang lange die Szene dominierte weil er tiefer kam und nicht überrascht werden konnte. Aber es zeigt auch das Limit. Nullmove reduziert in den suchtiefen gerade oder ungerade sehr viel effizienter als die asymmetrische baumsuche es kann, D.h. Die nullmover kamen tiefer als lang. Und das war das aus. Lang ist es nie gelungen aus diesem Dilemma herauszutreten. Er hat es nie geschafft ein symmetrisches Programm zu schreiben. Hat er selber zugegeben. Dies zu lang. Nun zurück zu fidelity. Fidelity hat es trotz 16 bzw. 32 Bit Hardware nicht geschafft auf lang Niveau zu kommen, es reichte mit dem mach III in die Riege der stärksten 8 Bit Programme von Schröder und kittinger zu kommen. Die durch eine Verdopplung bzw. verdreifachung der Hardware Erlangten Vorteile mit mach IV oder 68030 / 68040 konnten die 8 bitter besiegen. Aber sie scheiterten dann wieder an langs 68000 bzw. 68020 und erst recht an der ARM Hardware von Koning / Schröder. Und das würde auch mit dem sparc nicht besser. Weil das dingen nie professionell abgeschlossen wurde. Irgendwie tragisch.
__________________
Die ganze Welt des Computerschachs Geändert von mclane (14.07.2015 um 22:09 Uhr) |
Folgender Benutzer sagt Danke zu mclane für den nützlichen Beitrag: | ||
Theo (15.07.2015) |
|
||||||||||||
AW: Warum Fidelity scheiterte!
Nun zurück zu fidelity.
Fidelity hat es trotz 16 bzw. 32 Bit Hardware nicht geschafft auf lang Niveau zu kommen, es reichte mit dem mach III in die Riege der stärksten 8 Bit Programme von Schröder und kittinger zu kommen. Die durch eine Verdopplung bzw. verdreifachung der Hardware Erlangten Vorteile mit mach IV oder 68030 / 68040 konnten die 8 bitter besiegen. Aber sie scheiterten dann wieder an langs 68000 bzw. 68020 und erst recht an der ARM Hardware von Koning / Schröder. Und das würde auch mit dem sparc nicht besser. Weil das dingen nie professionell abgeschlossen wurde. Irgendwie tragisch.
__________________
Schach ist das Spiel, das die Verrückten gesund hält. ![]() |
|
||||||||||||
AW: Warum Fidelity scheiterte!
Die PCs aber gingen eher so bei 2000 los und waren nicht alle schneller. In der CSS findet man manchmal so Anzeigen ![]() |
![]() |
|
|
![]() |
||||
Thema | Erstellt von | Forum | Antworten | Letzter Beitrag |
Frage: Mephisto Rebell 5,0: LED neben dem Uhrensymbol blinkt immer - warum? | pbandilla | Die ganze Welt der Schachcomputer / World of chess computers | 3 | 07.08.2013 06:50 |
Partie: Warum lieben wir die V11 so? | Endspielgott | Die ganze Welt der Schachcomputer / World of chess computers | 27 | 16.08.2010 08:59 |
Tuning: Saitek Corona mit 8 MHz WDC Prozessor (warum Leistung verschenken) | Mach2000 | Die ganze Welt der Schachcomputer / World of chess computers | 7 | 03.09.2009 21:52 |
Frage: Einziges Forum mit Java! Warum? | mb1 | Fragen / Questions - Forum + Wiki | 16 | 28.07.2009 23:57 |