ELO und DWZ – Zahlenwerte und Aussagekraft

ELO versus DWZ:

Die aufgeführten Elowerte sind immer relativ. Es spielen einfach stets unzählige Faktoren mit rein, gleichermaßen wie bei der DWZ (Deutsche Wertungszahl). Die Wertungszahl wird nur über eine andere Formeleinheit berechnet, die andere Parameter verwendet. Wodurch nur Annäherungen erreicht werden und im spekulativen Bereich verbleiben.

Die SSDF-Elo wurde im Jahr 2000 für die Bewertung von Schachcomputern und Schachsoftware pauschal um 100 Elo abgesenkt. Vermutlich um nicht zu letzt der Eloinflation entgegen zu wirken. Die enorme Leistungsfähigkeit der Workstations haben die Engines an Spielstärke rasant wachsen lassen und in hohem Tempo eine Differenz erzeugt im Verhältnis zu den Schachcomputern aus den frühen Zeiten. Turniere, die so in Direktvergleichen gespielt wurden, führten dadurch zunehmend zu verzerrten Ergebnissen. Vor allem dann, als die Unterschiede nicht mehr nur lediglich marginal zu bewerten waren. Der Sprung zu Multi-Core-CPU´s auf denen moderne Software zum Einsatz kam, war auf herkömmlichen Schachcomputern nicht mehr machbar.

Inwieweit die Absenkung um 100 Elo den Gegebenheiten Rechnung trägt sei dahingestellt. Ich würde eher individuell abwägen, je nach Gerät und Programm. Also inwiefern die Listenangaben der SSDF von 1992 oder jener von 2000 zutreffen. Was natürlich zuletzt auch davon abhängt wie gut man mit dem Schachcomputer oder der jeweiligen Software vertraut ist. Die Angabewerte ohne jeglichen Praxisabgleich vorzunehmen macht wenig Sinn, weil nur viele ausgespielte Partien einen Überblick verschaffen können. Ich halte das für plausibler, weil bei Spielen zwischen Mensch und Maschine, die Fehler Letzterer in bestimmten Stellungen wiederholt vorkommen können.

Einfach formuliert: ich spiele eine Partie wieder und wieder, gewinne irgendwann in diesem oder jenem Stellungstyp und denke, somit gegen den Computer an Spielstärke zugelegt zu haben. Und hierin liegt der grundlegende Irrtum. Denn in Turnierpartien gegen menschliche Gegnerschaft ist dieses Vorgehen in einem solchen Sinne nicht möglich. Da braucht es viele zeitversetzte Anläufe um eine nahezu identische Position in irgendeinem Eröffnungssystem zu einem späteren Zeitpunkt wieder auf das Brett zu bekommen, wenn überhaupt jemals.

Das verringert nicht die Spielfähigkeiten des Programms, weil es aufgrund seiner Suchbaumstrategien so oder so eingegrenzt agiert. Feste Konzepte kann es nicht entwickeln, denn die Software ist aus der Eröffnungstheorie heraus begrenzt. Wir suchen dagegen nach alternativen Wegen auch an Stellen wo es der Horizont eines alten Programms nicht zuließ. Was daran lag, dass eine direkte Lernfähigkeit selten gegeben war. In Ausnahmefällen wurde das in limitierter Form einprogrammiert. Ich spreche mehr von früher, da waren die elektronischen Speicherchips noch gering dimensioniert.

Allerdings muss gleichzeitig erwähnt werden, dass das Schachprogramm einen wesentlichen Vorteil dadurch erreicht, weil es keinem physischen Verschleiß unterliegt und sein Spiel unbeeindruckt fortsetzt. Und exakt diese einfache Komponente ist die Stärke der Maschine. Während zudem nicht wirklich triviale Fehler passieren, weil bis zu einem gewissen Level der Computer solche fast gänzlich ausschließen kann, ist die Gefahr bei menschlichen Spielern dagegen weitaus größer, nach einer Serie starker Züge einen Blackout zu produzieren, der die Partie verliert.

Viel schwieriger wird es noch die DWZ eines Schachcomputers zu ermitteln, denn die weicht von der schwedischen ELO in aller Regel ab, mal mehr, mal weniger. Das hat damit zu tun, dass die alten Brettgeräte seit ihrem Erscheinen nur in kleinerer Anzahl Partien gegen menschliche Gegner gespielt haben, womit zu wenig ausgewertete Turniere vorliegen. Diese Vergleiche wurden über einen Zeitraum von 10 Jahren in Spanien verstärkt durchgeführt. Auch damals von der schwedischen SSDF und einigen starken Spielern in Communities. Nicht zu vergessen, die Zeit um 1990 herum, als es den damals stärksten Entwicklungen gelang, gegen Bundesligaspieler top abzuschneiden.

Trotzdem bleibt es natürlich schwierig, irgendwelche Konstanten zu finden, die eine konkrete Einordnung ermöglichen. Um das zu erreichen müssten konventionelle Schachcomputer in Vereinsligen über Jahre mitspielen. Wird oder wurde aber nicht gemacht, wodurch eine große Bandbreite an Ergebnissen nicht vorhanden ist.

Was die Schachcomputer von einst, also vor allem die Entwicklungen bis Mitte, Ende der Neunziger angeht, so halte ich die neuen SSDF -Werte nach einiger Überlegung daher für etwas zutreffender, sonst würde sich der Kreis im Verhältnis zu den Programmen, die danach folgten nicht wirklich schließen. Es war nicht nur die neu entwickelte Software, die Maßstäbe setzte, das keineswegs allein. Aber Mehrkernprozessoren, 64-bit und Gigabyte an Speichergrößen im RAM wie im Programmbereich schafften einfach eine beträchtliche Ressourcenpower. Eine andere Liga, nur von der Hardware aus betrachtet. Jahrzehnte zuvor ist die Begrenzung der Speicherkapazität in EPROM und RAM-Bausteinen schlicht das eigentliche Problem gewesen.

Zurück zum Gedanken der Vergleichbarkeit von ELO vs DWZ:

Über der Marke von 2100 Elo ist mehr und mehr Angleichung vorhanden, weil Spieler dieser Klasse deutlich mehr Turniere spielen, die beide der o.g. Maßeinheiten berücksichtigen.

Als Faustregel gilt: aber nur begrenzt, weil diese nur relativ anwendbar ist – ELO – 520 * 1,25 = DWZ (stellt schlicht eine Richtwertformel dar)

Beispiel: Schachsoftware Genius 3 (2311 Elo (486/ 50-66Mhz) aus dem Jahr 1996.

In diesem Fall würde die Berechnung lauten: 2311 – 520 * 1,25 = 2238 DWZ

Spekulativ? Ja sicher. In der Praxis hängt es halt von vielen Faktoren ab.

Kennt ein Spieler die Software und deren Spielweise, so reduziert sich deren Wert in gewissem Sinne individuell. Umgekehrt ist es natürlich auch denkbar. Ein starker menschlicher Spieler, der nie gegen Computer Matches bestreitet, wird sich definitiv schwerer tun und ggf. den sogenannten Umkehreffekt auslösen. Nicht zuletzt wird alles auch eine Frage der individuellen Motivation bleiben.

Ein weiteres Beispiel: Mephisto Atlanta (2084 Elo/ SH7034 Risc-CPU) Jahr 1997.

Die Berechnung lautet auch hier: 2084 – 520 * 1,25 = 1955 DWZ

In den AEGON Turnieren vor über 20 Jahren (Man-Machine, Niederlande) ist das Ding wirklich cool im Rennen gelegen. Aus damaliger Sicht sogar unterbewertet. Die Gegner waren bis zu über 2300 Elo stark und der Computer (dato noch mit 2185 Elo bewertet) holte sich einen Score von 50%. Zu jener Zeit ein erstaunliches Ergebnis. Inzwischen sieht das etwas anders aus. Computer werden mit leistungsstarken Engines zur Analyse von Partien eingesetzt. Zudem hat sich die Theorie in einem erheblichen Maß weiterentwickelt.

Sogenannte Anti-Strategien, die sich bereits vor 30 Jahren entwickelten, machten es den Mikroschachcomputern um einiges schwerer. Zumeist waren es Anti-Theorie-Züge, die während der Eröffnung den Computer aus seiner Bibliothek reißen sollten oder Varianten, die dem Gerät noch unbekannt waren. Gleichermaßen auch ermittelte Schwachstellen, die gezielt genutzt werden konnten um das Programm auszutricksen.

Mit den jetzt aktuellen Topengines ist dieses Vorgehen auf jenem Niveau nahezu unmöglich. Tablebases beherrschen Endspiele in Verbindung mit großen Datenbanken bis zu 7 Steinen perfekt. Diese profitieren von riesigen Powerbooks, welche die bekannte Eröffnungstheorie in stetiger Aktualisierung gespeichert haben, auch durch den Online-Zugriff. Die Zeiten haben sich eben geändert. Arbeitet die Engine zusätzlich mit KI-Implementierungen, lernt diese selbst und agiert zusehends fehlerloser.

Noch ein Beispiel zuletzt: Mephisto Berlin (2015 Elo /Motorola 68000) von 1992.

Wendet man die Formel an, ergibt sich: 2015 – 520 * 1,25 = 1869 DWZ

Der Gedanke ist nur die Wahrscheinlichkeitsrechnung, der in dieser Formel verankert ist. Zum Teil kombiniert mit Erfahrungswerten, die diese Annäherung ergeben.

Der Mephisto Berlin 68000 spielt sehr solide von der Eröffnung bis hin zum Endspiel. Das macht ihn vom Stil menschlicher. Das Programm ist wissensbasiert und selektiver. Seine Anfälligkeiten liegen in taktischen Situationen, seine Stärken im positionellen Spiel. Ganz im Gegensatz zum Mephisto Atlanta, der taktische Verwicklungen bevorzugt und super aktives Schach spielt.

Für Vereinsspieler ist der Atlanta vermutlich das größere Problem. Denn taktisch ist er kaum zu überrollen und auch im Endspiel nicht unbedingt zu unterschätzen. Konkretes Wissen zu Bauernstrukturen ist vorhanden. Vor allem sind es aber seine Rechenfähigkeiten einschließlich der integrierten Hashtables, die ihm weitgehend solide Abwicklungen ermöglichen.

Eine Eichung auf feststehende Elo oder gar DWZ-Werte ist nicht möglich. Für eine grobe Einschätzung sollte die Abhandlung jedoch ein gewisser Richtwert sein.

In der Realität, wenn in vereinzelten Partien, Mensch und Schachcomputer aufeinandertreffen, entsteht überwiegend eine mehr oder minder kleine Abweichung. Je nach Spielertyp und Software-Algorithmus liegt diese bei locker +/- 50 DWZ . Wahrscheinlich teils sogar mehr.

Die frühen Mikroprozessoren

Erste Prozessorgenerationen – eine allgemeine Übersicht

Beginnend mit der Entwicklung, die bis in die Siebziger Jahre zurückreicht. Damals wurde der Z80, der RCA-1802, dessen Nachfolger 1806 als auch der 6502-Prozessor eingesetzt. Darauf folgte der Motorola 68000, ein Prozessor mit 16-bit-Adressierung. Sein Nachfolger, der 68020, welcher bereits die 32-bit Technik drin hatte, kam 1984 auf den Markt.

Im Modulset „Dallas 68020“ von Mephisto wurde er erstmalig im Jahr 1986 hardware-basiert für Schachcomputer verwendet. Trotz seiner beachtlichen Leistungsfähigkeit war eine minimalistische, passive Kühlung ausreichend für den Betrieb des Prozessors. 1994 fand man ihn im „Berlin Professional“ mit 24 Mhz Taktung wieder.

Dieser Prozessor wurde sehr vielseitig verwendet. So kam er auch im „MacIntosh II“ von Apple zum Einsatz und, man staunt vielleicht, sogar in der Ausgleichssteuerungseinheit des Eurofighters ist er für wichtige Berechnungen zuständig.

Bereits drei Jahre später, also 1987, war die Weiterentwicklung, der Motorola 68030, inzwischen marktreif geworden. Dieser konnte bis 50 Mhz getaktet werden. Bevorzugt eingesetzt wurde er in Computern von Amiga und Apple. In jener Zeit der ausgehenden Achtziger bis Anfang der Neunziger Jahre.

Im Genius-Modulset der Mephisto-Serie ist er in der Schachcomputer-Szene berühmt geworden. Getaktet war die Recheneinheit damals 1993 mit 33 Mhz. Berücksichtigt man die zunehmend größer werdenden RAM-Chips, die häufig bei 512 KB bis 2 MB rangierten, so verwundert es nicht, das in Kombination mit leistungsfähiger Software und dem gleichzeitigem Einsatz der Hashtables für die Endspielberechnungen, Spielstärken von etwa 2200 Elo erreicht wurden. Dieses Wunder hat der Großrechner „BELLE“ zwar schon ganze 15 Jahre vorher realisiert. Ist aber 1. eine andere Liga und 2. sind uns Projekte, die einen wissenschaftlichen Hintergrund haben, zeitlich immer etwas voraus.

Für uns ist wahrscheinlich jetzt auch interessant welche Unterschiede existierten als die PC-Programme erschienen. Denn wie wir wissen, handelte es sich oftmals um Versionen jener Software, die bereits in den Speicher-ROM´s der Schachcomputer ihren Dienst verrichteten. Oder, was teils auch der Fall war, um vorhandene Programme, die zu diesem Zweck umgeschrieben und an die neue CPU-Architektur angepasst wurden.

Jetzt wollen wir wissen, welche wirklichen Differenzen bezüglich der Leistungsfähigkeit zwischen PC und dediziertem Schachcomputer auf hardware-technischer Seite vorhanden waren.

Die MIPS-Angabe misst die Leistung, zu der eine CPU fähig ist. Das bedeutet in der Umrechnung:

1 MIPS = (entspricht) 1.000.000 Befehle pro Sekunde

Bevor ich zum Direktvergleich komme, möchte ich noch die CPU von Hitachi erwähnen. Und zwar die SH 7034, die im Mephisto Milano Pro und Atlanta verbaut ist.

Hierbei handelt es sich um einen klassischen 32-bit-Prozessor mit RISC-Struktur, der auch industriell eingesetzt wurde.

Jetzt zur eigentlichen Auflistung alter Microprozessoren in ihrer Leistungsfähigkeit im Vergleich mit den frühen Intel-CPU´s, die damals in den IBM-PC´s zum Einsatz kamen. Natürlich wären auch die AMD-Prozessorgenerationen interessant. Allerdings liegen mir die Werte gerade nicht vor und kann Thema für eine nächste Aufstellung werden.

  1. RCA-1802 (Einführung 1974) CMOS-Risc-CPU = 0,4 MIPS bei 6,1 Mhz Einsatz: z.B. Satelliten, Bordcomputer der Raumsonde Galileo und Magellan – Mephisto I, Mephisto II, Mephisto III
  2. Zilog Z80A (1979) CPU = 0,4 MIPS bei 4 Mhz Einsatz: z.B. Homecomputer Tandy TRS-80, Pac-Man – Fidelity CC Sensory 8, Fidelity CC Sensory Voice
  3. MOS 6502 (1975 eingeführt) CPU (1-14 Mhz) = 0,5-7 MIPS Einsatz: z.B. Commodore VC 20, Apple I, II, Steuerungssysteme – Chafitz Sargon 2.5 ARB, Fidelity CC Champion, Fidelity CC Sensory 9
  4. Motorola 68000 (seit 1979) =1,5 MIPS bei12 Mhz (~Intel 80286-8Mhz) Einsatz: z.B. Commodore Amiga, Unix-Systeme, Mephisto Berlin 68000 – Airbus A320 (ELAC), Texas Instruments TI-89, TI-92
  5. Motorola 68020 (seit 1984) = 6 MIPS bei 24 Mhz (~Intel 80386DX16) Einsatz: Eurofighter, Mephisto Berlin Professional 68020
  6. Motorola 68030 (seit 1987) = 10 MIPS bei 33 Mhz (~Intel 80386DX33) Einsatz: z.B. Homecomputer Apple und Amiga, Mephisto Genius 68030
  7. Motorola 68060 (seit 1994) = 88 MIPS bei 66 Mhz (~Intel Pentium 90) Einsatz: z.B. Extended Cards for Amiga, Embedded Systems BMW – Fidelity Elite Avant Garde V11
  8. Hitachi SH7034 (seit 1992) RISC CPU = 20 MIPS bei 20 Mhz (~Intel 80486SX25) Einsatz: z.B. Analogmodem ELSA Microlink 56k, ISDN Adapter TanGo 1000 – Mephisto Milano Pro, Mephisto Atlanta, Modulset Magellan
  9. ARMv2 (seit 1986) RISC-CPU = 7 MIPS bei 12 Mhz (~Intel 80386DX16) Einsatz: z.B. Homecomputer Acorn Archimedes, Mephisto Modulset RISC 2 + 1MB, Saitek RISC 2500, Tasc Chessmachine 14 Mhz
  10. ARMv6 (seit 1991) RISC-CPU = 28 MIPS bei 33 Mhz (~Intel 80486SX33) Einsatz: z.B. Acorn RISC-PC, Mephisto Montreux, Tasc Chessmachine 32 Mhz

So betrachtet haben wir einige relative Annäherungswerte erreicht. Natürlich variieren die geringfügig, aber es sind gute Richtwerte, die den ein oder anderen Vergleich zulassen.

Das „Genius 1“ Programm, welches vermutlich im Mephisto Berlin 68000 als Assembler-Programm eingesetzt wurde, kann in der DOSBOX gestartet werden. Entscheidend sind dann die Einstellungen in der Config.-Datei. Unter „cpu“ können wir auswählen: „auto“ ist die schnellste Umsetzung in der Emulation. Ansonsten „pentium_slow“ (~ Pentium 90), „486_slow“ (~ 80486SX33), „386“ (~ 80386DX33) oder „386_slow“ (~ 80386DX12). Nach der Auswahl des Parameters kann die Geschwindigkeit der DOS-Emulation mit „cycleup“ angepasst werden. Mit „Strg-F11/Strg-F12“ können die Cycles in 100er Schritten nach oben oder unten korrigiert werden. Dadurch eine identische Spielweise/Spielstärke zu erreichen ist zwar schwierig, aber dieser Ansatz kommt im Gedanken zumindest nahe hin.

Übrigens, die RCA-1802 CPU eignete sich im Speziellen deshalb auch für die Raumfahrt, weil sie als einige der wenigen extrem resistent gegen hohe Strahlung war.