PANORAMA NORTEAMERICANO
La imagen de Estados Unidos se deteriora bajo el gobierno de Trump
La imagen de Estados Unidos se ha deteriorado aún más entre sus aliados tradicionales tras un año en el que el presidente Donald Trump usó una retórica todavía más agresiva contra países como Canadá y Alemania, según una encuesta.