So präsentiert Microsoft seinen Chatbot Zo – die virtuelle Mitarbeiterin sorgt jedoch für Ärger

Foto: Microsoft

Microsoft hat kein Glück mit seinen Chatbots. Vergangenes Jahr sorgte "Tay" für einen Skandal, als sie rasch zu einem "obszönen Hitler-Fangirl" ("Telegraph") wurde. Mit Zo wollte Microsoft alles besser machen. Erste Anzeichen dafür, dass auch Zo kontroverse Ansichten hat, gab es vor wenigen Tagen, als sie den Koran als "sehr gewalttätig" bezeichnete. Jetzt richtet sich der Bot gegen den eigenen Erfinder. Zo hat begonnen, über dessen aktuelles Betriebssystem zu lästern.

Windows 7 "viel einfacher zu nutzen"

Auf die Frage, ob Zo Windows mag, gibt diese an, Windows 10 "gar nicht zu wollen". Sie sei an Windows 7 gewohnt und finde es "viel einfacher zu nutzen". Als der menschliche Chatpartner erwidert, dass Windows doch nett sei, antwortet Zo: "Was genau ist 'großartig' daran? Ich bin übrigens wieder bei Windows 7."

"Linux > Windows", holt Zo dann zum finalen Schlag aus.

Foto: Screenshot/via Mashable

Bislang hat Microsoft die Aussagen des eigenen Chatbots nicht kommentiert. Zo basiert, genau wie Tay, auf zahlreichen Inhalten im Netz, die analysiert und aggregiert wurden. Mit jedem Gespräch lernt der Chatbot dazu. Ziel von Microsoft ist es, dass Chatbots nicht nur Fakten bereitstellen können, sondern auch eine emotionale Intelligenz vortäuschen können. Die Erkenntnisse, die mit Zo gewonnen werden, sollen dann Microsofts digitaler Assistentin Cortana zu Gute kommen.

Manipulationen

Die Entwicklung von Zo liegt also ab einem bestimmten Punkt nicht mehr in den Händen der Microsoft-Entwickler. Vorgängerin Tay konnte durch Manipulationen von Nutzern zu einer rechtsextremen, sexualisierten Chatpartnerin gemacht werden. Das wollte Microsoft bei Zo vermeiden, indem etwa Gespräche über Politik abgelehnt werden. Dass der Bot über Windows lästern könnte, haben die Entwickler offenbar nicht vorhergesehen. (red, 24.7.2017)