Singularität
In der Computer-Technologie bezeichnet der Begriff der Singularität den Zeitpunkt, zu dem eine Form von künstlicher Intelligenz das Niveau von menschlicher Intelligenz überschreitet und von dort an eine Zukunftsentwicklung eintritt, die nicht mehr von Menschen, sondern von dieser übermenschlichen, künstlichen Intelligenz vorangetrieben wird. Die Idee ist sehr umstritten, wird aber von manchen Experten als im 21. Jahrhundert erreichbar angesehen.
Diskussion
Pro:
Zahlreiche Verfechter dieser Zukunftsvision sind überzeugt, man könnte eine künstliche Intelligenz, erzeugen, die sich durch selbstinitiierte Rückkopplungsprozesse – unter Einbeziehung von Kreativität – soweit entwickelt, dass sie das Niveau menschlicher Intelligenz überschreitet.
In den USA existieren wissenschaftliche Einrichtungen, die die Entwicklung von künstlicher Intelligenz zum Ziel haben. Mit deren Hilfe hofft man dort, die globalen Probleme z. B. im den Bereichen Energie und Umwelt, Ökonomie und Gesundheit, lösen zu können. Zu diesen Einrichtungen gehören das Singularity Institute in San Francisco [(http://singinst.org/)] sowie die Singularity University im NASA campus in Silicon Valley [(http://singularityu.org/)].
Contra:
Einwände gibt es sowohl aus wissenschaftlicher wie auch aus psychologischer Sicht. Von wissenschaftlicher Seite wird bezweifelt, dass sich die Rechenleistung von Computern weiterhin exponentiell steigern lässt. Dies setzt von technischer Seite eine stetige Verkleinerung der Computerschaltkreise voraussetzt, was jedoch an physikalische Grenzen stößt.
Der Kognitionsforscher Edward Boyden gibt zu bedenken, dass bei den Diskussionen über die Möglichkeit einer Singularität ein entscheidender Aspekt nicht berücksichtigt wird. Seiner Meinung nach sei für eine Singularität nicht die reine Erweiterung von Intelligenz ausschlaggebend, um in der Welt etwas zu bewegen. Menschen haben die Fähigkeit, ein Ziel hartnäckig gegen alle Widerstände zu verfolgen und sich zu motivieren. Boydens Meinung nach, wird, wenn keine Motivation für eine Weiterentwicklung gegeben ist. Boyden postuliert, dass eine wirklich hochentwickelte Intelligenz ohne eine echte Motivation für ihr Handeln die Rückkopplungsschleife ab einem gewissen Punkt stoppen müsste. Und zwar sobald sie feststellen müsste, dass nichts Bestand hat. Da die Sonne in ein paar Milliarden Jahren verlöscht, wäre es für die künstlichen Intelligenzen sinnlos, noch klügere Maschinen zu bauen.