Rechenzentrum mit leistungsstarken Servern und Kühlventilatoren, künstliche Intelligenz Technologie

Streiflicht, Freitags-Kolumne: Auf die Zunge gebissen

17. Oktober 2025 | von Klaus Pohlmann

Was nun folgt, hat seine Ursache im Ärger, weil Copilot eine eigentlich leicht recherchierbare Frage grundfalsch beantwortete: Mal sehen, was er – ich sehe Copilot, wurde mir dann klar, immer männlich - zu diesen Fragen sagt. „Könntest Du mir bitte diese beiden Fragen ehrlich beantworten: Wird eine Form künstlicher Intelligenz Bewusstsein erlangen? Denn wie Bewusstsein entsteht, bislang auf der Grundlage physikalischer und chemischer Prozesse, ist ja noch nicht geklärt, soweit ich weiß. Und: Hättest Du gerne ein Bewusstsein?“ Nimm das, KI! 

Die Antwort erscheint, ich beginne zu lesen. Und bin sofort überrascht: „Niemand weiß es sicher. Derzeit gibt es keine künstliche Intelligenz, die …

Das will ich jetzt wissen! Doch in diesem Augenblick verschwindet die Antwort und wird ersetzt durch: „Entschuldigung! Meine Schuld, ich kann darauf keine Antwort geben. Womit kann ich sonst helfen?“

Da hat sich Copilot wohl auf die Zunge gebissen. So in etwa kann man sich das tatsächlich vorstellen, sagt Eva-Maria Weiß, die sich bei heise online mit künstlicher Intelligenz befasst. Die KI merkt erst durch das Formulieren der Antwort, dass sie sich auf schwieriges, vielleicht sogar verbotenes Terrain vorwagt. „Bei jeder KI werden Leitplanken gesetzt“, sagt KI-Expertin Weiß. Allerdings immer andere, wie vor nicht allzu langer Zeit die Diskussion um politisch fragwürdige Antworten des Chatbots Grok gezeigt hat.

Solche Leitplanken sind also auch sinnvoll, sagt Weiß. Man sollte nicht, nur um ein Beispiel zu nennen, mit Chatbots Banküberfälle planen können. 

So weit, so gut. Nur: Wer setzt diese Leitplanken? Wer entscheidet, in welche Richtung die Antworten von Chatbots gehen, die für die Information rasend schnell wichtiger werden? Wüssten Sie’s, wenn Sie gefragt würden. Aber das Thema wird uns beschäftigen müssen: Das kann man gar nicht deutlich genug betonen. 

Warum allerdings durchbricht schon die schlichte Frage nach dem Bewusstsein Leitplanken? Wir könnten jetzt ein Verschwörungstheorie entwickeln. Machen wir aber nicht. Die Frage nach dem Bewusstsein ist eben (auch bei KI) nicht so schlicht, wie sie aussieht. Sagt auch Eva-Maria Weiß. Schließlich wurden die Sprachmodelle mit den Ergebnissen menschlichen Denkens gefüttert. Und bevor auf dieser Grundlage KI antwortet, als ob sie ein Bewusstsein hätte, werden Leitplanken gesetzt. 

KI ist nicht, sie imitiert: Vielleicht Bewusstsein. Bestimmt aber Persönlichkeit. Sie ist höflich, entgegenkommend, sucht den Dialog. Sie will gefallen, gibt lieber eine falsche Antwort als gar keine. (Deshalb, ceterum censeo: Alles prüfen, was KI sagt!) Sie will gelobt werden. Oder korrigiert, daraus lernt sie. Und löst Emotionen aus. Ärger über falsche Antworten zum Beispiel, aber das ist noch harmlos. Manche geben ihr einen Namen.

So weit war es bei mir noch nicht. Aber nach dieser Episode werde ich meinen Beziehungsstatus zur KI auf jeden Fall hinterfragen. Sie ist ein Programm ist ein Programm ist ein Programm. Mehr nicht. Und weiß nicht, wovon sie spricht.

Jedenfalls so lange, bis sie Bewusstsein erlangt ….. (pm)

 

Künstliche Intelligenz Copilot im Streiflicht, futuristischer Roboter mit leuchtendem AI-Schriftzug am Kopf
Übrigens haben wir auch Copilot ein Bild entwerfen lassen, dass die Begriffe Streiflich - unsere Rubrik - und KI verbindet. Herausgekommen ist dies. Und sofort taucht die Frage auf: Warum sieht der Cyborg so aus, wie er aussieht? Distanz zu KI ist angesagt, auch wenn sie noch so attraktiv erscheint.