Amerikaner und Deutsche nach dem Krieg

Amerikaner und Deutsche nach dem Krieg
Die USA haben Deutschland nach dem Zweiten Weltkrieg geprägt wie kaum ein anderes Land. Wie wurden aus den einstigen Feinden Freunde?