Durch die NATO zählen wir ja eindeutig zur "westlichen Welt". Würdet ihr sagen, dass Deutschland somit auch eine klare Position und eine nennenswerte Rolle in dem "Amerika - Russland - Beef " einnimmt? Würdet ihr sagen dass unsere Medien stark von Amerika beeinflusst werden? Würdet ihr sagen dass wir in Deutschland in eine Richtung gelenkt werden, vor allem was unser Denken angeht?

Ich hatte meistens das Gefühl, dass Deutschland bei der Sache eher neutral ist, aber gerade durch das Verhalten Deutschands beim Ukraine Konflikt sowie bei Isreal - Palästina, bin ich mir da nicht mehr so sicher.