Deutschland wird immer mehr zur 'vaterlosen Gesellschaft'

Deutschland entwickelt sich immer mehr zur „vaterlosen Gesellschaft“. Der Mangel an Männern, die ihre Vaterschaft verantwortlich wahrnehmen, wirkt sich insbesondere negativ auf den männlichen Nachwuchs aus. Darauf machen Pastoren, Pädagogen und Psychologen im Magazin „de´ignis“ aufmerksam.