Wie hat sich das Bild der USA unter Donald Trump in Deutschland verändert?
Die Vereinigten Staaten vollziehen seit der Wiederwahl Donald Trumps als US-Präsident einen starken Kurswechsel – im Innern, aber auch in der Außen- und Handelspolitik. Dieser wirkt sich auch auf die internationale Wahrnehmung des Landes aus. Lange für ihre Anziehungskraft und Soft Power beneidet, trübt sich das Image der USA stark ein, zumindest in Deutschland.