Guten Tag,
aufrgund meiner eigenen Aufarbeitung (Narzisstische Eltern, Kontaktsperre) habe ich eine ganz neue Welt in mir entdeckt und sie mit meinen Erfahrungen und der heutigen "Gesellschaft" abgeglichen. Ich habe die letzten zwei Jahren achtsam beobachtet und meine Schlüsse gezogen und wollte sie hier anonym zur Disskusion stellen.
Ich habe den Eindruck das Deutschland zunehmend vergiftet ist. Mobbing, Sticheln, Neid, Lügen, Missbrauch scheint hier Gang und Gebe zu sein. Da ich auch schon mehrere Jahre im Ausland lebte und mich dort wohler fühlte weiß ich jetzt auch warum.
Ist das jetzt nur meine Wahrnehmung oder ist gefühlt dieses Land emotional am Boden? Zum Beispiel wären da der Feminismus der Groteske Züge angenommen hat und das Spiel zwischen Mann und Frau vergiftet hat, ich persönlich meide deutsche Frauen aber habe sehr viel Freude im Ausland mit Flirten. Ich blühe dort richtig auf!
Zum anderen sind Bindungen auf Profit und Nutzen ausgelegt und obwohl in Spanien zum Beispiel viel mehr Arbeitslosigkeit herrscht ist es dort nicht so stark. Dann der Umgang miteinander in der Öffentlichkeit...
Politisch ist das Klima mit der "Flüchtlingskrise" auch etwas merkwürdig. Die Arbeitsmoral lässt sehr zu wünschen übrig und zwar Seitens der Führung die offensichtlich mangelhafte Qualität liefert und statt mit Kompetenz mit Gewalt "regiert".
Ausgehen mag ich auch nicht mehr wirklich da viele stark alkoholisiert sind und frustriert. Geld ist mir persönlich nicht so wichtig aber das scheint hier an erster Stelle zu stehen.
Mein Ziel, dieses Land zu verlassen steht bereits fest, so oder so aber ich würde mich über Rückmeldungen freuen wie ihr das seht?
Ansonsten bin ich selbst auch schon frustriert hier die letzten Jahre verschwendet zu haben weil ich noch jung bin und hier auch keine Verpflichtungen habe die es Wert sind mir das anzutun. Ich lebte schon im Ausland und es war der größte Fehler wieder zurück zukommen.
Freundliche Grüße
aufrgund meiner eigenen Aufarbeitung (Narzisstische Eltern, Kontaktsperre) habe ich eine ganz neue Welt in mir entdeckt und sie mit meinen Erfahrungen und der heutigen "Gesellschaft" abgeglichen. Ich habe die letzten zwei Jahren achtsam beobachtet und meine Schlüsse gezogen und wollte sie hier anonym zur Disskusion stellen.
Ich habe den Eindruck das Deutschland zunehmend vergiftet ist. Mobbing, Sticheln, Neid, Lügen, Missbrauch scheint hier Gang und Gebe zu sein. Da ich auch schon mehrere Jahre im Ausland lebte und mich dort wohler fühlte weiß ich jetzt auch warum.
Ist das jetzt nur meine Wahrnehmung oder ist gefühlt dieses Land emotional am Boden? Zum Beispiel wären da der Feminismus der Groteske Züge angenommen hat und das Spiel zwischen Mann und Frau vergiftet hat, ich persönlich meide deutsche Frauen aber habe sehr viel Freude im Ausland mit Flirten. Ich blühe dort richtig auf!
Zum anderen sind Bindungen auf Profit und Nutzen ausgelegt und obwohl in Spanien zum Beispiel viel mehr Arbeitslosigkeit herrscht ist es dort nicht so stark. Dann der Umgang miteinander in der Öffentlichkeit...
Politisch ist das Klima mit der "Flüchtlingskrise" auch etwas merkwürdig. Die Arbeitsmoral lässt sehr zu wünschen übrig und zwar Seitens der Führung die offensichtlich mangelhafte Qualität liefert und statt mit Kompetenz mit Gewalt "regiert".
Ausgehen mag ich auch nicht mehr wirklich da viele stark alkoholisiert sind und frustriert. Geld ist mir persönlich nicht so wichtig aber das scheint hier an erster Stelle zu stehen.
Mein Ziel, dieses Land zu verlassen steht bereits fest, so oder so aber ich würde mich über Rückmeldungen freuen wie ihr das seht?
Ansonsten bin ich selbst auch schon frustriert hier die letzten Jahre verschwendet zu haben weil ich noch jung bin und hier auch keine Verpflichtungen habe die es Wert sind mir das anzutun. Ich lebte schon im Ausland und es war der größte Fehler wieder zurück zukommen.
Freundliche Grüße