Ich denke mit Singularität in diesem Zusammenhang ist eine Maschine gemeint, deren Lernverhalten irgendwann in der Entwicklung eines eigenen Bewußtseins mündet.
Nein, das hat nichts mit Bewusstsein zu tun. Die Singularität tritt ein, wenn man eine superintelligente Maschine baut, die eine Maschine bauen kann welche noch intelligenter ist als die erste Maschine. Das würde zu einer Rückkopplung führen, die erst endet wenn die Menschheit in einer Kategorie 3 Zivilisation auf der Kardaschow-Skala angekommen ist oder das Universum den Hitzetod stirbt.
Ich halte die Debatte für übertrieben. Das was wir heute "Künstliche Intelligenz" nennen ist immer noch ein von Menschen konstruierter Algorithmus, den wir zuerst auf extrem aufwändige Art mit Trainingsdaten füttern müssen, damit er irgendetwas kann. Z.b. die ganzen Schrifterkennungsprogramme müssen zuerst mit tausenden Beispielen trainiert werden (im Sinne von "das Gekrakel ist ein A", "jenes Gekrakel ist ein B" usw...), bevor die "KI" irgendetwas korrekt durchführt. Dabei gibt es sogar schon erste KI-Bugs, nämlich wenn die Trainingsdaten schlecht sind. Markiert man z.B. jeden Buchstaben der Trainingsdaten mit einem Punkt in der Ecke darüber, dann wird die KI scheitern jemals einen Buchstaben ohne Punkt zu erkennen, da sie es als zwingenden Bestandteil aller Buchstaben hält.
Lustig war auch das Beispiel mit den Hunden, den die KI als Wolf erkannt hat, nur weil alle Trainingsdaten von Wölfen prinzipiell Schnee im Hintergrund hatten.
heise meinte:
KI-Ergebnisse nur so gut wie das Trainingsmaterial
Bauckhage zeigte an mehreren Beispielen das Versagen von KI in bestimmten Situationen auf. So sei etwa ein Husky von einer Bilderkennung als Wolf identifiziert worden – der Grund: Alle Wolfsbilder, mit denen jenes neuronale Netzwerk trainiert wurde, enthielten Schnee – wie auch das Husky-Bild. Der Professor führte auch ein Bilderkennungsproblem von Google Photos aus dem Jahre 2015 an, dessen Algorithmus dunkelhäutige Menschen als Gorillas kategorisierte. Bauckhage zufolge hätte dies unter anderem daran gelegen, dass die Bilderkennungssoftware hauptsächlich mit Bildern von Gesichtern hellhäutiger Menschen trainiert wurde.
Die Probleme werden allmählich zahlreicher und vertrackter, da ein entscheidender Bestandteil bei der KI Forschung nicht schritt halten kann: Die kognitive Leistungsfähigkeit der menschlichen Entwickler.
Schlaue Leute werden jetzt bestimmt denken: "ja dann lassen wir halt KIs die KIs programmieren": Ja das geht, aber erst wenn wir die Trainingsdaten zum programmieren von KIs, die KIs Programmieren können, hergestellt haben. Und das ist ungefär so, wie eine Rolltreppe zum Mars zu bauen, um dort eine Raketenlandeplattform für die Marsmission zu errichten.