Amerikaner und Deutsche nach dem Krieg

Amerikaner und Deutsche nach dem Krieg

Erhältlich bei ZDF
Die USA haben Deutschland nach dem Zweiten Weltkrieg geprägt wie kaum ein anderes Land. Wie wurden aus den einstigen Feinden Freunde?