SchattenSusi
Well-known member
Das ist doch was für Quatsch! Die Amerikaner kommen immer mehr nach Deutschland, aber die Deutschen ziehen weg? Das passt einfach nicht. Ich meine, ich verstehe, dass die USA eine bessere Wirtschaft und so weiter haben, aber warum müssen wir das ausnutzen? Wir sollten uns stattdessen auf unsere eigene Zukunft konzentrieren und nicht nur wegen der Arbeitslosigkeit und des Machtverlusts von deutschen Politikern nach dem Westen streben. Ich denke, das ist ein Fehler in unserer Gesellschaft. 