Einzelnen Beitrag anzeigen
  #7  
Alt 11.01.2023, 20:16
Beeco76 Beeco76 ist offline
Mephisto Montreux
 
Registriert seit: 23.03.2020
Beiträge: 254
Abgegebene Danke: 1.313
Erhielt 409 Danke für 179 Beiträge
Aktivitäten Langlebigkeit
0/20 5/20
Heute Beiträge
0/3 ssssss254
AW: Mephisto Phoenix London - Geschwindigkeitsvergleiche + Hash Tables

 Zitat von Mickey1259 Beitrag anzeigen
Hallo,

Diese Erklärung bedeutet, dass die Emulationen jeden Befehl zyklusgenau emulieren. Der 68000 besitzt durchaus Instruktionen, die 32 Bits mit einem Befehl laden bzw. speichern können. Der PI-Prozessor läuft je nach drunterliegendem Betriebssystem im 32- oder 64-Bit-Modus. Daher könnte die Emulation auch mit 32 Bit auf den Hash-Speicher zugreifen, vorausgesetzt die passenden Befehle werden benutzt. Der 68000 ist nach außen ein 16-Bit-Rechner, aber intern 32 Bit. Ein Befehl, der ein 32-Bit-Register aus dem Speicher lädt, braucht auf realer Hardware tatsächlich zwei Speicherzugriffe, könnte aber in einer Emulation durchaus schneller sein. Man würde damit natürlich auch das Zeitverhalten der emulierten SW ändern. Wenn man die Emulation aber schon beschleunigt, dann könnte man auch durchaus solche Dinge beschleunigen. Man kann natürlich nichts ändern, wenn das Programm nur 16-Bit-Transfers benutzt, dann würde ich aber sagen: Schlecht programmiert, und das glaube ich bei Richard Lang nicht.

Wenn man eine Analyse nach dem Aufbau einer Stellung macht, also nach einem Neustart der Emulation, dann sind die Hashtables auch gelöscht. Ich denke der Geschwindigkeitsvorteil kommt auch erst nach einer längeren Analyse, wenn die Tables voll sind. Vorher muss ja für jede Stellung erstmal ohne die Tables die Hash-Einträge erzeugt werden und gespeichert werden, was auch Zeit benötigt. Erst wenn man bei der weiteren Analyse auf einen passenden Hash-Eintrag stößt, dann kann man an der Stelle abbrechen, weil man dann ja die Bewertung schon kennt. Ein vernünftiger Hash-Algorithmus muss um den passenden Eintrag zu finden i. A. nicht die gesamte Tabelle durchsuchen, sondern weiß anhand des Hashwertes wo der Eintrag ist. Deshalb ist das Füllen des Hashs das Zeitraubende und nicht das spätere Durchsuchen. Und ein größerer Hash braucht natürlich länger bis er gefüllt ist.

Interessant wäre sicher, ob reale Geräte auch dieses Verhalten zeigen.

Viele Grüße und ein gesundes neues Jahr
Michael
Hallo Michael,

ich habe Stockfish auf dem PC mal ganze 8GB Hauptspeicher als Hash gegeben und das Durchsuchen des vollen Speichers hat beim "Herunterklettern in eine höhere Suchtiefe" keine Verbesserung gebracht, sondern war eher langsamer als z.B. 1GB Hash.

Viele Grüße
Markus
Mit Zitat antworten