Natürlich nicht.
Deutschland ist ein Wirtschaftszentrum in Europa und belegt derzeit den 3. Platz weltweit… und das trotz so wenigen Einwohnern.
Auch wenn es immer wieder Krisen gibt, steigt die Wirtschaft stetig und die Menschen werden immer wohlhabender und können sich mehr leisten. Das sehe ich bei mir, meiner Familie und Freunden und Bekannten.
Auch ist Deutschland ein sehr sicheres Land, in dem natürlich Kriminalität bekämpft wird. Das was wir in einem Jahr erleben, erleben die Amis an einem Wochenende in ihrem Bundesstaat oder ihrer Stadt.
Menschen aus den genannten Staaten sind sowieso kein Fan des Westens und Deutschlands… genauso wie Inder und co. Wer hier aber am längeren Hebel sitzt und wirtschaftlich besser da steht, muss man ja nicht erwähnen.
Ist ja genauso wie mit den Russen… ein Kumpel von mir (Russe) telefoniert öfters mit seiner Verwandtschaft aus Russland… und er wird immer wieder gefragt „wie kannst du denn telefonieren? Uns wird gesagt, dass ihr keinen Strom mehr in Deutschland habt“, „stimmt es, dass ihr nicht mehr duschen dürft?“, „wir haben gehört, dass die Deutschen derzeit verhungern und deshalb Straßenkatzen, Tauben und Ratten essen“.
Das ist deren Bild von Deutschland… weil ihre Medien so einen Bild übermitteln.
Viele Staaten (vorallem auch die BRICS Staaten), zeigen auch nur die extrem schlechten Seiten des Westens… um ihre Bürger zu sagen „sieht, bei uns ist es besser“. Die Realität ist aber oftmals eine andere.
Genauso letztens eine Reportage von Arte gesehen, in dem es um chinesische Jugendliche geht, die trotz Studium nichts passendes finden. Sie fragten eine junge Frau, warum sie im Westen nach keine Stelle sucht… ihre Antwort „im Westen sind die Menschen frei und davor habe ich angst“. Die Reporterin fragte darauf hin, warum sie denn Angst hätte und ihre Antwort „ich habe angst davor, eine andere Meinung zu haben und deshalb dann erschossen zu werden“.
Das denken Chinesen vom Westen… warum wohl? Weil es ihre Medien den Menschen eintrichtern.