INTERNACIONAL - Política
Así impactaría Trump en la relación de Estados Unidos con Alemania
Las relaciones entre Estados Unidos y Alemania fueron tensas durante la presidencia de Donald Trump. Después de que Joe Biden asumiera el cargo en 2021, ambos países se propusieron restablecer los lazos bilaterales, lo cual no siempre ha sido un camino de rosas.