künstliche Intelligenz

ein OpenAI Bot schlägt weltbeste Dota 2 Spieler

Kein Tag ohne Erfolgsmeldung bezüglich Künstliche Intelligenz (KI). OpenAI (AI für Artificial Intelligence) – ein von Elon Musk gegründetes und unterstütztes Forschungsunternehmen, das sich nach eigener Definition mit der Erforschung von AGI (Artificial General Intelligence) befasst, veröffentlichte am 11.8. 2017 die Meldung, dass es gelungen ist, einen Bot zu programmieren, der in der Lage ist, die Top-Professionals der Dota 2 Spieler im Match 1 gegen 1 unter Wettbewerbsbedingungen zu schlagen. (Der OpenAI Blog mit der Meldung.) Der Bot hätte von Beginn an selbst durch Spielen gelernt (reinforcement learning), ohne den Einsatz von Nachahmungstechnologien (supervised learning) und Baumsuche (tree search).

Dota 2 ist ein äußerst komplexes Kampf- und Strategiespiel, bei dem üblicherweise jeweils Gruppen von 5 Spielern gegeneinander spielen.  Dieses Spiel wird von mehreren Millionen Spielern gespielt – oft von bis zu 1 Million gleichzeitig und wird auch professionell betrieben und als e-Sports bei großen Events vermarktet. Laut OPenAI ist dies ein Schritt in die Richtung, KI Systeme zu entwickeln, die in der Lage sind in komplexen, unübersichtlichen Situationen, in die auch Menschen involviert sind, klar definierte Lösungen zu finden. Hier die Erfolgsmeldung von Elon Musk auf Twitter (als Grafik – aus Datenschutzgründen) Elon Musk auf Twitter

Selbstverständlich fand diese Tatsache auch wieder ihren Niederschlag in online Ablegern von Printmedien. Wie schon darauf hingewiesen bedient sich die Formulierung der Schlagzeilen zum Teil durchaus martialischer Rhetorik, wohl um mehr Aufmerksamkeit zu erregen, z.B. „KI von Elon-Musk-Startup zerstörte bei Computerspiel-Duell weltbesten Spieler (derStandard.at)“ oder „The world’s best Dota 2 players just got destroyed by a killer AI from Elon Musk’s startup“ (TheVerge.com). Bestätigt wird diese Art der Rhetorik durch einen Artikel der FAZ, der darauf hinweist, dass Elon Musk KI als gefährlicher einschätzt als den aktuellen Konflikt ( – der Worte – bisher zum Glück) mit Nordkorea.

Einige Überlegungen dazu, was hier tatsächlich stattgefunden hat:

Dota 2 ist, auch wenn als sehr komplex bezeichnet, ein Computerspiel. Das heisst, es besteht aus logischen, mathematisch darstellbaren Situationsbeschreibungen, Regeln und Abfragen, aus deren Kombination eine eindeutige Handlungsvorschrift abgeleitet wird (dies nennt man Algorithmus). Diese Algorithmen sind auf den Kontext des Computerspiels limitiert.  Für einen Menschen, der dieses Computerspiel zu bewältigen versucht, besteht die erste Schwierigkeit darin, aus seiner Lebensrealität in die abstrakte Welt des Spiels einzusteigen. Dies macht er in der Regel über visuelle Reize mit Hilfe der Darstellungen auf einem Bildschirm oder einer VR-Brille. Die so empfangenen Eindrücke sind vom Spieler in Echtzeit als Muster zu erkennnen. Aus diesen Mustern und deren Abfolge leitet er schließlich Regeln ab, über welche er auf das Ziel des Spiels (die angestrebten Lösungen = Handlungsanweisungen) schließt. Diese Handlungsanweisungen sind augenblicklich manuell über die verfügbaren Schnittstellen dem Computer mitzuteilen. Abgesehen von der möglichen Komplexität des Computerspiels ist der menschliche Spieler mit der notwendigen Reaktion auf dieses Spiel aus seiner Lebenswelt konfrontiert. Dies erscheint immens komplexer, als einen selbstlernenden Algorithmus auf das Erkennen eines anderen Algorithmus zu trainieren und dann im Spiel das Gelernte anzuwenden.  Übrigens ist nirgendwo dokumentiert, wie die Schnittstelle Computerspiel – OpenAI Computer konfiguriert war –  es ist nicht anzunehmen, dass der OpenAI Computer einen Bildschirm zu beobachten und zur Eingabe Tastatur, Maus, Joystick oder ähnliche Werkzeuge zu bedienen hatte. Bei solchen Wettbewerbsbedingungen scheint also der Mensch klar im Nachteil zu sein.

Zu der Einschätzung von KI als gefährlicher als mögliche politische Konflikte, wie Elon Musk betont, gibt es folgende Tatsache zu beachten. Für jede Problemlösung für die ein spezifischer KI Algorithmus eine Lösung finden soll, gibt es ein Problem. Die Definition dieses Problems ist – zur Zeit jedenfalls – jeweils einem Menschen vorbehalten. Ob diese Lösungen jetzt als selbstfahrende Autos, Rasenmäh- oder humaniode Robots als Altenpfleger gesehen werden, es liegt also an der Intention – dem Ziel (Telos) des Menschen, KI für bestimmte Situationen einzusetzen. Diese Intentionen haben, wie alle menschlichen Tätigkeiten ethische Vorgaben zu berücksichtigen, um gesellschaftliche Akzeptanz zu finden. Es hat also der Mensch Regeln zu finden, wofür KI angewendet werden soll und wofür nicht. Eine Problematik hierbei scheint zu sein, dass technische Innovationen oftmals im Kontext von Konflikten zu finden sind, insofern ist der Einsatz von KI bei Computerspielen, die Kampf, Strategie und Krieg simulieren und die in der Berichterstattung martialische Sprache bewirken,  ein Hinweis darauf, dass das Verlangen von Elon Musk, KI zu reglementieren, Gehör finden sollte.

Elon Musk - AI should be regulated