profil

Historia (1)
Teksty 1
Zadania 0
Opracowania 0
Grafika 0
Filmy 0

Opisz Niemcy po I wojnie światowej



poleca86%
Historia

Hitleryzm w Niemczech.

Pokonane w I wojnie światowej Niemcy, zostały obarczone całkowitą odpowiedzialnością za wszczęcie konfliktu. Upadło Cesarstwo, zmieniając się z Europejskiego hegemona, w odbudowującą się z mozołem Republikę Weimarską na której czele stanął...