Search
Close this search box.
Search
Close this search box.

Das Ende der Weimarer Republik

Das Ende der Weimarer Republik:


Nach dem Ende des Ersten Weltkrieges folgte in Deutschland die Gründung der Weimarer Republik.

Ein demokratischer Bundesstaat, der nach den Krisenjahren 1919 – 1923 eine wirtschaftliche und politische Stabilisierung in Deutschland einleitete.

Aufgrund des Zusammenbruchs der New Yorker Börse im Oktober 1929 geriet Deutschland im Winter 1929/30 in den Strudel der Weltwirtschaftskrise.

Die Regierungen wechselten ständig, die Arbeitslosenzahlen stiegen und das dadurch verursachte Elend radikalisierte breite Schichten der Bevölkerung.

Der Glauben an die Demokratie ging verloren.

Hitler versprach einfache und rasche Lösungen für die vorhandenen Probleme.

Zudem führte er eine Hetzkampagne gegen bestimmte Bevölkerungsgruppen (vor allem Juden und Kommunisten), denen er die Schuld an der Misere zuschob.

 

Das Ende der Weimarer Republik
 
Abb. Hitler und Hindenburg