D
Dr. House
Gast
@ EuFrank
Ich bin der Meinung, das man Maschinen ethisches handeln beibringen kann und sie aufgrund der fehlenden biologischen Instinkte, sogar ethischer handeln als Menschen.
Was das mit der Singularität auf sich hat, so hab ich mal einen Text aus Wikipedia darüber kopiert:
"Singularitäten im mathematisch-physikalischen Sinne sind Punkte, ab denen die gewohnten Gesetzmäßigkeiten nicht mehr zutreffen. Ebenso wird die technologische Singularität als Zeitpunkt gehandelt, ab dem das menschliche Verständnis der Welt nicht mehr zutrifft. Heute selbstverständliche Grundprinzipien wie die biologische Evolution könnten außer Kraft treten und die entstandene Superintelligenz könnte ein Verständnis der Wirklichkeit erwerben, das jegliche Vorstellungskraft sprengt; die Auswirkungen können schlicht nicht festgemacht werden, weil sie von einer Intelligenz bestimmt würden, die der menschlichen ständig weiter überlegen sein würde.
Einige sehnen die technologische Singularität herbei. Sie vertreten die Meinung, dies sei genau das Ziel, auf das die Evolution hinauslaufe. Letztlich erhoffen sie die Erschaffung übermenschlicher Wesen, die eine Antwort auf den Sinn des Lebens liefern oder das Universum einfach nur in einen lebenswerteren Ort verwandeln. Eine Gefahr sehen sie in dieser höheren Intelligenz nicht, denn gerade weil sie höher entwickelt sei, verfüge sie über ein dem Menschen überlegenes, friedfertiges ethisches Bewusstsein.
Andere meinen, das Eintreten einer technologischen Singularität müsse verhindert werden. Intelligenz habe mit Friedfertigkeit nichts zu tun und die entstehende Superintelligenz könne die Menschheit mühelos ausrotten. Sie sehen bereits im Streben nach einer technologischen Singularität einen logischen Fehler, denn Sinn und Zweck von Technologie sei es gerade, den Menschen das Leben leichter zu machen; für sich selbst denkende Technologie verstoße gegen diese Definition und sei daher prinzipiell nicht erstrebenswert"
Ich bin der Meinung, das man Maschinen ethisches handeln beibringen kann und sie aufgrund der fehlenden biologischen Instinkte, sogar ethischer handeln als Menschen.
Was das mit der Singularität auf sich hat, so hab ich mal einen Text aus Wikipedia darüber kopiert:
"Singularitäten im mathematisch-physikalischen Sinne sind Punkte, ab denen die gewohnten Gesetzmäßigkeiten nicht mehr zutreffen. Ebenso wird die technologische Singularität als Zeitpunkt gehandelt, ab dem das menschliche Verständnis der Welt nicht mehr zutrifft. Heute selbstverständliche Grundprinzipien wie die biologische Evolution könnten außer Kraft treten und die entstandene Superintelligenz könnte ein Verständnis der Wirklichkeit erwerben, das jegliche Vorstellungskraft sprengt; die Auswirkungen können schlicht nicht festgemacht werden, weil sie von einer Intelligenz bestimmt würden, die der menschlichen ständig weiter überlegen sein würde.
Einige sehnen die technologische Singularität herbei. Sie vertreten die Meinung, dies sei genau das Ziel, auf das die Evolution hinauslaufe. Letztlich erhoffen sie die Erschaffung übermenschlicher Wesen, die eine Antwort auf den Sinn des Lebens liefern oder das Universum einfach nur in einen lebenswerteren Ort verwandeln. Eine Gefahr sehen sie in dieser höheren Intelligenz nicht, denn gerade weil sie höher entwickelt sei, verfüge sie über ein dem Menschen überlegenes, friedfertiges ethisches Bewusstsein.
Andere meinen, das Eintreten einer technologischen Singularität müsse verhindert werden. Intelligenz habe mit Friedfertigkeit nichts zu tun und die entstehende Superintelligenz könne die Menschheit mühelos ausrotten. Sie sehen bereits im Streben nach einer technologischen Singularität einen logischen Fehler, denn Sinn und Zweck von Technologie sei es gerade, den Menschen das Leben leichter zu machen; für sich selbst denkende Technologie verstoße gegen diese Definition und sei daher prinzipiell nicht erstrebenswert"