Über

Die Geschichte Deutschlands reicht viele tausend Jahre zurück. Natürlich nicht in seiner jetzigen Form. Aber die alten Deutschen – die Vorfahren der heutigen Einheimischen – gibt es schon seit der Antike.

Der fränkische Staat (der zum Reich Karls des Großen wurde) und das Heilige Römische Reich können als herausragende Staatsgebilde in diesem Gebiet betrachtet werden. Der größte Teil dieser Gebiete wurde jedoch von einzelnen germanischen Siedlungen bewohnt, die unabhängig voneinander waren und höchstens in Bündnissen zusammengeschlossen.

In der zweiten Hälfte des 19. Jahrhunderts kam es zum Aufkommen des Nationalgefühls. Damals wurde das Deutsche Reich gegründet und die deutsche Kultur blühte auf. Wagner und Nietzsche, Marx und Freud: Viele Persönlichkeiten haben der Weltgeschichte ihren Stempel aufgedrückt.

Zum Leidwesen der friedlich lebenden Menschen und der ganzen Welt wurde Deutschland im 20. Jahrhundert zur Aggressionsmacht. Zwei blutige Kriege hatten Auswirkungen auf die Weltordnung, aber ungerechte und brutale Diktatoren wurden gestürzt. Danach stand das Land lange Zeit unter der Kontrolle der Siegermächte, und Deutschland wurde in zwei Teile geteilt. Aber Ende des letzten Jahrhunderts wurde das Land schließlich vereint, und die BRD und die DDR wurden eins.

Heute steht Deutschland für demokratische Werte und ist ein entwickeltes Land mit einer starken Wirtschaft und einem sozialen Wohlfahrtssystem. Dank seiner reichen Geschichte und einzigartigen Natur sowie seines hohen Komforts ist Deutschland auch für viele Touristen ein attraktives Reiseziel.