Verschiedene Studien haben gezeigt, dass der Westen in Deutschland immer narzisstischer wird. Steht uns eine narzisstische Epidemie bevor? In östlichen Teilen halten die Menschen zusammen und sorgen für einander. Geht man jedoch weiter in den Westen, wird man vom rauen Kapitalismus erdrückt. Die Gesellschaft im Westen besteht nur noch aus selbstbezogenen Egoisten die von einem Schleier […]
Schlagwortarchiv für: Epidemie
Du bist hier: Home » Epidemie