Thema: Tuning: Mephisto Modena 100 MHz
Einzelnen Beitrag anzeigen
  #12  
Alt 18.02.2021, 21:47
Benutzerbild von mclane
mclane mclane ist offline
Lebende Foren Legende
 
Registriert seit: 16.04.2005
Ort: Lünen
Alter: 54
Land:
Beiträge: 2.662
Abgegebene Danke: 742
Erhielt 1.350 Danke für 599 Beiträge
Activity Longevity
11/20 19/20
Today Beiträge
2/3 sssss2662
AW: Mephisto Modena 100 MHz

Der Modena / Dominator kann nicht so sehr profitieren wie die langsamen Schröder Programme.

Franz Morsch hat eben immer schon sehr effizient mit Nullmove programmiert.
Der domi den du verwendest ist das klassische Beispiel.

Franz Morsch konnte mit wenig Power unglaublich viel rausholen.
Er hat preprocessing verwendet im domi.
D.h. er bewertet gar nicht die ganze End-Stellung im Suchbaum.
Er bewertet nur die Grundstellung und dann dazu progressiv die VERÄNDERUNG .

Zieht eine Figur die in der grundstellung z.b. auf f1 steht nach c4, dann verbessert sie ihre Position weil sie auf c4 mehr zugmöglichkeiten hat als auf f1.

D.h. Er bewertet nun das der Läufer sich relativ zur ausgangsbewertung um den Bonus 0.20 verbessert. Die Ausgangsstellung hatte den Wert 0.07.

Der suchbaum wird schnell generiert weil er nie die endstellung durch die bewertungsfunktion jagen muss .
Er macht ja nur inkrementell den läuferzug.

Anders ed Schröder.
Der bewertet immer die endstellung im Baum . Das kostet Zeit.

Wenn jetzt der dominator mit 100 MHz
Den domi / modena beschleunigt dann verändert das eigentlich nur die Rechentiefe.

An der bewertungsfunktion ändert sich NICHTS zum besseren,


Dazu kommt ein kontraproduktiver Prozess.
Je tiefer ein domi/Modena kommt, desto weiter entfernt sich die baumsuche von der preprocessing (Ausgangssituation, Bewertung) Situation.

Und damit wird die Bewegung immer ungenauer.

Bei Ed Schröder anders.
Egal wieviel tiefer das Programm kommt, es nutzt immer die komplette Bewertung und profitiert dann von der Rechentiefe.

Chris W. hat in einem anderen Kontext aber passend dazu geschrieben:
Zitieren:
The classical pre-processing function looks for themes in the position and adjusts the square weightings accordingly - for example, if a knight is attacking a square next to the king, then increase the weighting for all the squares that the queen could cooperate with the knight in making a king attack, increase the knight weighting to keep it on the original square, increase other cooperating piece weightings and so on.

There is no doubt that this approach works but it cannot be the way forward. Preprocess- ing knowledge becomes more stupid with increasing search depth, as positions deep in the search tree becomes more removed from the assumptions of the original position,
the square weighting adjustments become more irrelevant (why weight the squares for the queen after the cooperating knight has been removed from the board ?- but the classical paradigm doesn't understand that !).

I call this type of search Artificial Stupidity (AS). Since all the current programs operate in this way, ELO grading lists and inter-program tournaments are no more than a reflection of the partially-sighted playing the blind, whose AS algorithm is most efficient, but it is not
chess.
__________________
Die ganze Welt des Computerschachs
Mit Zitat antworten
Folgende 3 Benutzer sagen Danke zu mclane für den nützlichen Beitrag:
mickihamster (19.02.2021), Oberstratege (19.02.2021), Thomas J (19.02.2021)