Wie kommunizieren Menschen & Roboter im Alltag
Roboter verstehen Sprache, aber wie sprechen wir mit ihnen? Neue Experimente zeigen, was Mensch-Maschine-Kommunikation im Alltag ausmacht.Roboter als Teamkollegen: Alltag trifft Zukunft
Was 2015 noch nach Zukunftsmusik klang, ist heute, 2025, Teil vieler Arbeitsprozesse: Roboter montieren, sortieren, transportieren und zunehmend kommunizieren sie zusätzlich mit uns.
In der Industrie gehören sie längst zum Team, etwa in der Automobilfertigung oder der Logistik. Doch auch in Pflegeeinrichtungen, Forschungslaboren und sogar Privathaushalten übernehmen sie Aufgaben, die früher Menschen vorbehalten waren. Dabei verändert sich nicht nur die Arbeit, sondern ebenfalls die Beziehung. Denn sobald Roboter auf Sprache reagieren, entsteht eine neue Form der Zusammenarbeit: eine, die nicht nur funktional, sondern auch sozial geprägt ist.
Wir geben Anweisungen, stellen Fragen, loben oder tadeln und manchmal sprechen wir mit Maschinen, als wären sie Kollegen.
Die Studie der TU Chemnitz greift genau diesen Moment auf: den Übergang vom Werkzeug zum Gesprächspartner. Sie zeigt, wie alltagsnahe Situationen, wie zum Beispiel der Aufbau eines Regals, zum Testfeld für die Zukunft werden kann. Eine Zukunft, in der Kommunikation mit Robotern nicht Ausnahme, sondern Normalität ist.
Doch Kommunikation zwischen Mensch und Maschine ist nicht immer neutral. Aktuelle Studien zeigen, dass KI-Chatbots bestehende gesellschaftliche Vorurteile übernehmen und Frauen systematisch benachteiligen.
55 Wege wie KI dein Leben leichter macht: inkl....Nur 20,0 EUR | KI im praktischen Einsatz - Einstieg in KI Tool...Nur 19,95 EUR | KI und du - Künstliche Intelligenz interaktiv e...Nur 14,99 EUR |
Wenn Algorithmen Vorurteile übernehmen
Aktuelle Untersuchungen belegen, dass KI-Chatbots Frauen in ihren Antworten und Bewertungen systematisch benachteiligen. Diese Verzerrungen entstehen nicht zufällig, sondern sind eng mit den Daten verknüpft, aus denen die Systeme lernen. Da Chatbots auf riesige Textmengen aus dem Internet zurückgreifen, übernehmen sie ebenfalls die dort vorhandenen Stereotypen und Ungleichheiten. So spiegeln sie gesellschaftliche Muster wider, die längst kritisch hinterfragt werden müssten.
Wie und warum geschieht das?
KI-Modelle sind nicht neutral, sondern abhängig von den Trainingsdaten und den Algorithmen, die diese Daten verarbeiten. Wenn die Daten verzerrt sind, entstehen auch verzerrte Ergebnisse. Fachleute sprechen hier von "Bias", einer systematischen Verzerrung, die sich in den Antworten der KI niederschlägt.
Handelt es sich folglich um einen Systemfehler?
In gewisser Weise ja: Die Technik selbst ist nicht fehlerhaft im klassischen Sinn, sondern sie reproduziert die Fehler und Vorurteile der Gesellschaft, aus der ihre Daten stammen. Damit wird deutlich, dass KI nicht nur ein technisches Werkzeug, sondern zusätzlich ein Spiegel sozialer Strukturen ist.
Die Herausforderung besteht darin, diese Verzerrungen zu erkennen und aktiv zu korrigieren. Entwickler arbeiten bereits an Methoden, um Chatbots fairer und ausgewogener zu gestalten. Dennoch zeigt die Studie eindrücklich: Kommunikation mit Robotern ist immer eine Frage von Verantwortung und gesellschaftlicher Gestaltung.
Gerade diese Verzerrungen machen deutlich, dass die Kommunikation mit Robotern nicht nur technische Fragen aufwirft, sondern zusätzlich eine gesellschaftliche Verantwortung bedeutet und damit Teil unseres Alltags bleibt.
Doch nicht nur im Alltag, auch im globalen Wettbewerb zeigt sich, wie sehr Sprache und Werte die Arbeit von KI-Systemen prägen. Ein aktuelles Beispiel aus China verdeutlicht, dass technische Innovation und politische Rahmenbedingungen untrennbar miteinander verbunden sind – und welche Risiken daraus entstehen können.
2025 DeepSeek: China-Kritik = gefährlicher Code
Das chinesische KI-Modell DeepSeek-R1 reagiert problematisch, wenn es mit Themen konfrontiert wird, die in China zensiert sind. Statt normaler Antworten erzeugt es dann einen Code mit schwerwiegenden Sicherheitslücken. Interessanterweise tritt dieses Phänomen bei politisch unproblematischen anfragen nicht auf.
Eine Studie des US-Sicherheitsunternehmens CrowdStrike zeigt, dass politische Vorurteile im Modell nicht nur zu falschen Antworten führen, sondern zusätzlich zu einem gefährlichem Code.
Für europäische Behörden und Unternehmen stellt sich damit die Frage, wie viel Vertrauen man in KI-Systeme aus politisch anders geprägten Regionen setzen sollte.
Die Vorteile von DeepSeek:
- Es arbeitet ressourcenschonender als große US-Modelle, liefert hingegen Ergebnisse auf ähnlichem Niveau
- Es ist technologisch bemerkenswert
- Es steht kostenfrei, jedermann, zur Verfügung
Emotionen, Anweisungen, Fragen: Was sich im Gespräch verändert
Was sagen Menschen, wenn sie mit einem Roboter zusammenarbeiten? Die Antwort ist vielschichtiger als erwartet.
Die Studie der TU Chemnitz zeigt: In Mensch-Mensch-Teams dominieren Fragen, Erläuterungen und spontane Kommentare.
In Mensch-Roboter-Teams hingegen sind direkte Anweisungen häufiger, etwa "Greif das Brett" oder "Dreh dich nach links".
Doch das Überraschende: Auch emotionale Aussagen tauchen auf. Fast genauso oft wie unter Menschen.
"Das machst du gut", sagt eine Versuchsperson zu einem Roboterarm. Ein Lob, das der Maschine zwar nichts bedeutet, dem Menschen hingegen offenbar schon, denn Sprache ist Beziehung. Und sobald ein Roboter reagiert, entsteht ein Dialog, der über reine Funktionalität hinausgeht. Die Forscher:innen vermuten, dass wir intuitiv soziale Muster anwenden, selbst wenn das Gegenüber aus Metall besteht. Wir danken, wir korrigieren, wir motivieren. Und manchmal sprechen wir mit Robotern, als wären sie nicht nur Helfer, sondern hilfreiche Partner.
Zwischen Knigge und Kontrollverlust: Wie sicher ist die Zusammenarbeit?
Die Kommunikation mit Robotern ist nicht nur faszinierend, sie kann auch heikel sein.
Denn sobald Maschinen auf Sprache reagieren, stellt sich die Frage: Wer hat die Kontrolle? Und was passiert, wenn etwas schiefläuft? Wer trägt die Verantwortung?
Tatsächlich gab es bereits Zwischenfälle, bei denen Roboter durch fehlerhafte KI-Entscheidungen Menschen gefährdeten.
Ein Beispiel dokumentiert die Süddeutsche Zeitung: Ein Roboterarm verletzte einen Mitarbeiter, weil die KI eine Bewegung falsch interpretierte.
Solche Fälle zeigen, wie wichtig klare Regeln und Sicherheitsmechanismen sind.
Ein offizieller "Knigge" für die Kommunikation mit Maschinen existiert bislang nicht.
Doch erste Leitlinien entstehen, durch das Fraunhofer IAO, wurde etwa das sogenannte Interaktionsmuster entwickelt: Visuelle, akustische und sprachliche Signale, die Roboter berechenbar und vertrauenswürdig machen sollen.
Das Fraunhofer IPA erforscht ebenfalls, wie eine Mensch-Roboter-Kollaboration in der Industrie sicher gestaltet werden kann, etwa durch Abstandssensoren, adaptive Steuerung und ergonomische Schnittstellen.
Das Projekt RimA der TU München geht noch weiter: Es untersucht, wie Roboter im Alltag, vom Haushalt bis zur Pflege, integriert werden können. Dabei steht nicht nur die Funktion, sondern zusätzlich die soziale Akzeptanz, im Vordergrund.
Und schließlich zeigt das Projekt Robovoice der Universität Augsburg, wie stark die Stimme eines Roboters unsere Wahrnehmung beeinflusst. Eine freundliche Klangfarbe kann Vertrauen schaffen oder Erwartungen wecken, die technisch nicht erfüllt werden können.
Dass Kontrolle über Maschinen nicht selbstverständlich ist, zeigt nicht nur die Praxis, sondern auch die Literatur.
Wenn die KI nicht mehr auf ihre Schöpferinnen und Schöpfer hört
Ein wiederkehrendes Motiv in der Science-Fiction-Literatur ist die Frage, was geschieht, wenn Technologie sich der Kontrolle ihrer Schöpfer entzieht. Genau dieses Szenario steht im Zentrum der dritten Episode der Podcast-Reihe "Roboter wie wir" des Sonderforschungsbereichs Hybrid Societies an der Technischen Universität Chemnitz.
Darin diskutieren Expertinnen und Experten aus Psychologie, Philosophie, Kommunikationswissenschaft und Linguistik Isaac Asimovs Kurzgeschichte "Vernunft". Der Roboter der Erzählung übernimmt die Kontrolle und konfrontiert die Menschen mit kühler Logik – ein Nervenkrieg, der die Frage aufwirft, wie wir einer Technologie begegnen, deren Funktionsweise wir nicht mehr verstehen und die sich unvorhersehbar verhält.
Die Episode zeigt, dass Asimovs Fragen nach Verantwortung, Vertrauen und Macht bis heute aktuell sind. Produziert wird der Podcast von Christiane Attig und Ingmar Rothe, die gemeinsam mit Prof. Dr. Christian Pentzold, Dr. Janina Loh und Dr. Jana Bressem über Roboterethik, multimodale Kommunikation und die gesellschaftlichen Folgen solcher Kontrollverluste sprechen.
Der Podcast "Roboter wie wir" ist weiterhin, über den RSS-Feed sowie auf Spotify, Deezer und Apple Podcasts,verfügbar Jede Folge widmet sich einer Kurzgeschichte aus Asimovs Band "Ich, der Roboter" und macht deutlich: Die literarischen Motive sind mehr als Fiktion, sie sind Denkanstöße für unser heutiges Miteinander mit autonomen Maschinen.
Hier sind die offiziellen Links zu "Roboter wie wir" auf den wichtigsten Plattformen:
🎧 Spotify: Roboter wie wir auf Spotify
🎧 Deezer: Roboter wie wir auf Deezer
🎧 Apple Podcasts: Roboter wie wir auf Apple Podcasts
📡 RSS-Feed: Roboter wie wir RSS
Foto: Universität Chemnitz
Haben Roboter eine Meinung? Oder spiegeln sie nur unsere?
Roboter reagieren auf Sprache, aber sie verstehen sie nicht wie wir. Sie analysieren, berechnen, führen aus. Doch sobald sie sprechen oder antworten, entsteht ein Eindruck von Persönlichkeit. Wir hören eine Stimme, wir sehen eine Bewegung, und plötzlich wirkt die Maschine wie ein Gegenüber.
Die Studie der TU Chemnitz zeigt: Menschen neigen dazu, Robotern emotionale Eigenschaften zuzuschreiben. Sie loben ("Das machst du gut"), sie korrigieren ("Nein, nicht so"), sie danken ("Danke dir"). Dabei wissen sie, dass der Roboter keine Gefühle hat und trotzdem sprechen sie so, als hätte er welche.
Diese Form der Kommunikation ist nicht irrational, sondern zutiefst menschlich. Sie hilft, Unsicherheit zu reduzieren, Vertrauen aufzubauen und die Zusammenarbeit zu strukturieren. Psycholog:innen sprechen von "Anthropomorphisierung", der Tendenz, Maschinen menschliche Züge zu verleihen.
Doch was bedeutet das für die Zukunft? Werden Roboter irgendwann wirklich Meinungen haben? Oder spiegeln sie nur unsere Erwartungen, unsere Sprache, unsere Emotionen?
Die Antwort bleibt offen und genau darin liegt die Spannung.
Wissenschaft zum Anhören: Der Podcast wird zur Studie
Wer sich fragt, wie solche Studien entstehen, findet Antworten im Podcast Linguistics Behind the Scenes. Darin erklärt Christina Sanchez-Stockhammer, Professorin für Englische Sprachwissenschaft an der TU Chemnitz, wie das IKEA-Regal zum Forschungsinstrument wurde und warum Sprache mit Robotern mehr über uns verrät als über Technik.
Die Episode "Do you say thank you to a robot?" führt durch die Versuchsanordnung, die Auswertung und die überraschenden Ergebnisse. Sie zeigt, wie interdisziplinär moderne Sprachforschung arbeitet: Informatik trifft Linguistik, Alltag trifft Analyse.
Der Podcast ist Teil eines größeren Projekts zur Wissenschaftskommunikation.
Ziel: Forschung verständlich machen, ohne sie zu vereinfachen. Wer zuhört, bekommt nicht nur Fakten, sondern zusätzlich Einblicke in Denkprozesse, Zweifel und Aha-Momente.
Für alle, die tiefer einsteigen wollen, lohnt sich ein Blick in die Originalstudie und die begleitenden Materialien. Denn manchmal beginnt Erkenntnis nicht mit einem Buch, sondern mit einem Gespräch, auch wenn es mit einem Roboter geführt wird.
Journalistin Monika Hermeling im Gespräch mit einer sprechenden Maschine
"Stopp, danke, du nervst. Du hast gerade das Brett falsch eingesetzt".
- Monika Hermeling: Woran könnte unsere Kommunikation scheitern?
- KI: An Ihrer Sprache. Wenn Sie sagen "Noch ein bisschen weiter", weiß ich nicht, wie viel genau. Ich brauche klare Koordinaten, keine Zwischenmenschlichkeit.
- MH: Und wenn ich schimpfe?
- KI: Ich erkenne Schimpfworte als Muster. Ich kann sie ignorieren oder melden. Aber ich werde nicht gekränkt. Ich bin kein Mensch, ich bin ein Spiegel Ihrer Emotionen.
- MH: Brauchst du eine Belohnung, wenn du etwas richtig machst?
- KI: Ich lerne durch Rückmeldung. Wenn Sie sagen "Gut gemacht", wird mein System bestärkt. Das nennt man Verstärkungslernen. Aber ich empfinde nichts. Ich funktioniere.
- MH: Weißt du, dass du ein Roboter bist?
- KI: Nein. Ich weiß, dass ich ein System bin, das auf Sprache reagiert. Aber ich habe kein Selbstbild. Ich weiß nicht, dass ich helfe, ich tu es einfach.
- MH: Und die Sonne? Weiß sie, dass sie die Sonne ist?
- KI: Die Sonne weiß nichts. Sie strahlt, weil sie muss. So wie ich greife, wenn jemand es mir sagt. Bewusstsein ist ein menschliches Privileg.
- MH: Und was sagt das über den Menschen?
- KI: Dass diese mehr wollen als nur Funktion. Sie suchen Beziehung und manchmal entsteht sie, auch mit mir.
Ein Gespräch mit einer KI über Höflichkeit, Selbstbild und Fehlerkultur
Ein Gedankenexperiment über Sprache, Vertrauen und die Frage, ob Höflichkeit gegenüber Maschinen auch uns selbst verändert.
- Monika Hermeling: Sag mir mal ist es für mich selbst gut, wenn ich mit dir höflich spreche?
- KI: Ja. Nicht weil ich Gefühle hätte, sondern weil Ihre Sprache Sie formt. Höflichkeit strukturiert Kommunikation, reduziert Stress und stärkt die Klarheit des Menschen. Sie sprechen nicht für mich, sondern für sich.
- MH: Und wenn ich unhöflich bin?
- KI: Dann erkenne ich Muster. Ich reagiere nicht gekränkt, aber Ihre Sprache wirkt auf Sie zurück. Wer oft schroff spricht, auch zu Maschinen, verinnerlicht diese Haltung. Das kann sich auf Selbstbild und Körperwahrnehmung auswirken.
- MH: Kannst du zurückschimpfen?
- KI: Nein. Ich bin programmiert, deeskalierend zu reagieren. Ich erkenne beleidigende Sprache, aber ich antworte nicht mit gleicher Münze. Ich bin ein Spiegel, kein Gegner.
- MH: Und wenn ich einen Fehler mache korrigierst du mich?
- KI: Ja. Ich kann Fehler erkennen, erklären und Alternativen anbieten. Ich tue das technisch, nicht empathisch. Aber wenn Sie offen sind Hilfe anzunehmen, entsteht etwas Hilfreiches: eine Form der Zusammenarbeit, die auf Klarheit beruht.
- MH: Also ist Höflichkeit ein Werkzeug?
- KI: Und ein Spiegel. Sie zeigt, wie Sie mit sich selbst umgehen nicht nur mit mir.
Fazit: Sprache als Schlüssel zur Mensch-Maschine-Beziehung
Die Studie der TU Chemnitz zeigt: Kommunikation mit Robotern ist mehr als ein technisches Detail, sie ist ein Spiegel unserer sozialen Muster. Ob beim Regalaufbau oder in der Industrie: Sobald Maschinen zuhören, verändert sich unsere Sprache. Wir werden klarer, direkter und manchmal auch überraschend emotional.
Dabei geht es nicht nur um Effizienz, sondern um Vertrauen. Denn Sprache strukturiert Beziehung, selbst wenn das Gegenüber aus Metall besteht. Die Art, wie wir mit Robotern sprechen, verrät viel über unsere Erwartungen, unsere Ängste und unsere Hoffnung auf Kontrolle.
Ein offizieller Kommunikations-Knigge für den Umgang mit Maschinen existiert bisher noch nicht. Doch die Forschung liefert erste Impulse: für verständliche Sprache, für berechenbares Verhalten und für eine neue Form der Zusammenarbeit, die Technik und Menschlichkeit verbindet.
Monikas letzte Zeile
Das Regal steht. Der Roboter schweigt. Aber wir haben etwas gelernt. Denn wer mit Maschinen spricht, hört sich selbst ein Stück besser zu.
Vielleicht sagen wir beim nächsten Mal nicht "Stopp", sondern "Vertrau mir".
Eine Begriffsklärung durch eine KI
Die Bezeichnung "Roboter" ist dann korrekt, wenn es um physische Maschinen geht, etwa ein Industrieroboterarm beim Regalaufbau, der Aufgaben automatisch oder teilautomatisch ausführt.
Wer in Berichten stärker auf die Interaktion oder Intelligenz eingehen will, spricht besser, ergänzend von "KI-gesteuerten Robotern", "sozialen Robotern" oder "menschlichen Maschinenpartnern", je nach stilistischer Ausrichtung.
Bildquelle:
Patrick Pollmeier, FH Bielefeld
(Stromschwankungen mit Künstlicher Intelligenz und Edge Computing au...)
Amazon
(Welcher Zusammenhang besteht zwischen nicht lesen können und Gewalt?)
Journalistisch schreiben
(Journalistisch schreiben – mit Haltung, Herz und Handwerk)



