Die Stromverteilnetze werden mehr und mehr durch fluktuierende und nicht steuerbare Stromerzeugung, dezentrale Speicher, steuerbare Geräte und Elektrofahrzeuge beeinflusst. Andererseits bieten die Smart-Grids-Technologien die notwendigen Grundlagen, um die sich aus dieser Entwicklung der Netznutzung ergebenden Herausforderungen zu bewältigen. Die räumliche Streuung der Lasten macht diesen Hintergrund geeignet für die Anwendung impliziter, anreizgesteuerter Demand Response Ansätze über automatische Agenten. Die Gestaltung des Verhaltens dieser Agenten ist jedoch sehr schwierig, da sie strategisch auf eine stochastische Umgebung reagieren müssen, deren Zustandsveränderung auch von den Aktionen aller anderen Agenten abhängt, die sowohl einen wirtschaftlichen Vorteil anstreben als auch kollektiv die Verletzung von Netzbeschränkungen vermeiden müssen. In diesem Projekt versuchen wir, die Umgebung als Markov-Spiel zu formalisieren, eine übliche Umgebung für die Anwendung von Reinforcement-Learning-Techniken. Nachfolgend sollen Methoden eingeführt werden, die der neueren KI- und Spieltheorie-Literatur entlehnt sind, wie z.B. Fictitious Play, die (im Gegensatz zu Reinforcement-Learning-Techniken, welche auf Funktionsannäherungen beruhen, wie z.B. Deep Reinforcement Learning) bisher wenig Anwendung im Smart-Grid-Bereich gefunden haben. Das Projekt wird auch Stromflusssimulationen umfassen, welche die trainierten und Algorithmen basierten Agenten und die physikalischen Modelle der von ihnen gesteuerten Geräte einbeziehen, um deren wirklichen Einfluss auf ein zugrunde gelegtes Netz (z. B. auf die Spannung) zu überprüfen. Das sich daraus ergebende Verhalten wird analysiert, um Einblicke in das Verhalten strategischer Agenten zu gewinnen, die in einer komplexen Umgebung mit individuellen (wirtschaftlichen) und gemeinsamen Zielen (Erfüllung der Netzauflagen) interagieren.