Red Maw

Obwohl es an Metaphern nicht mangelt, unterschätzen wir ihren Einfluss auf die Architektur unserer Systeme. Niemand würde Einspruch erheben, wenn ich das menschliche Gehirn mit einem Computer vergleichen würde. Spräche ich dagegen lernenden Maschinen (also “AI”, künstliche Intelligenz) die Funktionsfähigkeit ab, weil sie keinen Körper haben, würde ich Stirnrunzeln ernten. In unserer Wahrnehmung sind Computer körperlose Wesen, letztlich also reine Software (die Abstraktionen durch Cloud, Voice etc. verstärken diesen Trend, haben ihn aber nicht ausgelöst).

Das ist allerdings nicht selbstverständlich: Auf der konzeptionellen AI-Ebene wurde über die Frage der Körperlichkeit schon vor Jahrzehnten gestritten,  vor allem im Kontext der Selbsterkenntnis. Wie kann eine kybernetisches Wesen sein eigenes Wesen (im Sinne von “das bin ich”) verstehen und sich damit auch in Relation zu anderen Wesen mit anderen Eigenschaften und Interessen setzen, wenn ihm die Körperlichkeit fehlt? Diese Körperlichkeit, die wir Menschen stets spüren, ist ja nicht zuletzt untrennbar verbunden mit unserer Angst vor dem Tod, die unser Handeln maßgeblich bestimmt.

Ist also ein Wesen, das weder Selbstreferenz noch Wissen um die eigene Vergänglichkeit hat, zu Emotionen fähig, die nicht nur ein Werkzeug sind, um ein Resultat zu erreichen (ähnlich den emotionalen Manipulationen, die Kleinkinder bei ihren Eltern einsetzen, sobald sie deren Reaktionsstruktur erkennen)? Wenn die Antwort “nein” lautet, würde selbst die am meisten entwickelte “künstliche Intelligenz” letztlich nur eine bessere Version jener (auf Verhaltenspsychologie basierenden) lernenden Spielautomaten sein, wie sie im Kern von Social-Media-Software und den UX-Konzepten der auf Aufmerksamkeit optimierten Apps bereits vorhanden sind.

Facebooktwitterredditlinkedin