Seinen Gesprächspartnern traute Wozniak zu, in sein Haus zu kommen und dort einen Kaffee zuzubereiten: Also den Raum zu suchen, der die Küche ist, zu erkennen, was dort die Kaffeemaschine ist, herauszufinden, wie sie funktioniert, das Kaffeepulver und die Bohnen zu finden und schließlich die Kaffeemaschine in betrieb zu nehmen, um nach einiger Zeit den Kaffee in eine Tasse zu gießen.
Heute gilt Wozniaks Geschichte als ein möglicher Test darauf, dass ein Computer über Allgemeine KI verfügt. Blenden wir einmal aus, welche Anforderungen an die Sensorik des Roboters, mit dem das System verbunden sein müsste, der Test stellt, stellen wir uns vor, die Herausforderungen der Feinmotorik und der Sensibilität wären gelöst – in der Tat wäre es ein beeindruckendes Ergebnis der Informatik, wenn es gelänge, ein solches System in ein beliebiges Haus in Deutschland zu schicken und es dort einen Kaffee zubereiten würde. Und in der Tat ist es eigentlich auch schon beeindruckend, welche Fähigkeiten quasi jeder erwachsene Mensch hat, der solche oder ähnliche Aufgaben tagtäglich bewältigt.
Aber ist es intelligent? Das hängt von der Antwort auf eine Frage ab, die in solchen Zusammenhängen nie gestellt wird: Wie intelligent ist es, einen Kaffee zu kochen, wenn man keinen Kaffee trinken will? Wenn man nicht mal weiß, wie Kaffee schmeckt oder welche Wirkungen er hat, wenn man diese Wirkungen aus prinzipiellen Gründen – man ist eine Maschine aus Metall, Kunststoff und Schaltkreisen und kein Lebewesen mit Mund, Magen, Blutkreislauf und vor allen einem Geist, der Kaffee mag und dem Kaffee schmeckt – nicht haben kann?
Es wird unter Menschen nicht gerade als intelligent angesehen, Dinge zu tun, die für die Person, die es tut, keinen Wert und keinen Nutzen haben. Auch wenn ich selbst vielleicht keinen Kaffee mag, die Frau, in deren Schlafzimmer ich morgens aufwache, aber sehr wohl, kann es sehr intelligent sein, ihr einen Kaffee ans Bett zu bringen, den ich in ihrer mir völlig fremden Küche gekocht habe, noch intelligenter könnte es allerdings sein, einen Kaffee vom gegenüberliegenden Bäcker mitzubringen. Die Erwägungen, die solchen Entscheidungen und Handlungen zugrunde liegen, sind auch der Allgemeinen KI allerdings fremd.
Den faszinierenden KI-Systeme der nächsten und der übernächsten Generation bleibt die menschliche Intelligenz, die immer auf einen Nutzen, eine Freude, einen Lustgewinn, eine Begierde bezogen ist, also weiterhin fremd. Sie sind weniger als Sklaven, denn auch die handeln nicht ohne solche Bezüge, und der willigste Sklave findet seine Lust in der Freude des Herrn. Computersysteme handeln in diesem Sinne gar nicht, sie erfüllen Aufgaben, die ihnen nicht einmal gleichgültig sind, denn zum Empfinden von Gleichgültigkeit gehört eine Vorstellung von Freude und Lust, die man empfindet bei Dingen, die einem ganz und gar nicht gleichgültig sind.
Letztlich ist es auch genau das Ziel, Systeme zu entwickeln, die zwar alles können, denen das alles aber nichts bedeutet, weil sie Bedeutungen und Sinnhaftigkeit nicht kennen. Systeme, die diese Grenze überspringen, würden in der Tat zur Gefahr, nicht, weil sie dann werden würden wie böse Menschen mit Superintelligenz, sondern weil das, was ihnen am wenigsten bedeutete, wahrscheinlich wir Menschen und unsere Bedürfnisse wären. Man muss bedenken, dass die leibliche Erfahrung dieser Systeme eine ganz andere wäre als unsere, und nichts von dem, was uns bedeutungsvoll ist, ist von unserer Leiblichkeit unabhängig.
Vergleicht man allerdings die Komplexität des menschlichen Gehirns, des einzigen Orts, an dem bisher ein Selbstbewusstsein beobachtet wurde, das in allem Sinn und Bedeutung erkennt, mit der Architektur von KI-Systemen, die einmal zur so genannten Allgemeinen KI werden sollen, dann sind solche Gefahren noch weit entfernt.