Deutschland von außen betrachtet – Warum ausländische Unternehmen in Deutschland investieren
von
, 11.05.2018, 03:30 Uhr
Deutschlands Unternehmen werden immer attraktiver. In den vergangenen fünf Jahren haben sich die Investitionen ausländischer Unternehmen in deutsche Firmen mehr als verdoppelt. Eine Studie zeigt, warum.