„Ein Frisörtermin ist kein Turing-Test“

Beim Thema Ethik steht künstliche Intelligenz (KI) vor dem Henne-Ei-Problem: folgt die Technologie dem Training der Menschen – oder entwickelt sie bereits ein eigenes Ethik-Verständnis? Matthias Schulz, Manager Collaboration and Talent Solutions bei IBM, klärt im Interview mit WYZE Projekts Vorurteile auf.

WYZE: Herr Schulz, kürzlich feierte CIMON seinen Einstand auf der ISS, der erste autonom agierende Astronauten-Assistent mit einer Künstlichen Intelligenz (KI) im Weltall. Auf der Erde hingegen hat KI offenbar Startschwierigkeiten: je nach Lesart ist die Technologie die „größte Bedrohung unserer Zeit“, eine „Chance, bei der die deutsche Wirtschaft den Anschluss verpasst“ oder auch für Digital-Chefs „kaum interessant“. Was läuft falsch in unserem Verhältnis zur KI?

Matthias Schulz: Falsch läuft nichts. Diese Orientierungsphase gab und gibt es bei allen technologischen Innovationen, die neue ‚Gravitationszentren‘ für gesellschaftliche Veränderungen darstellen. Anders als bei der Dampfmaschine, der Eisenbahn oder dem Fernsehen wird KI heute von vielen Akteuren global entwickelt und diskutiert. Was wiederum den Wunsch nach einer „richtigen“ Bewertung bzw. Einordnung verstärkt. Der nachzujagen, ist aber illusorisch.

WYZE: Welche Herangehensweise empfehlen Sie?

Matthias Schulz: Ein guter Ansatzpunkt ist das Rollenverständnis, was wir von KI bzw. AI haben. Für mich steht das ‚A‘ in ‚AI‘ momentan noch weniger für ‚Artificial‘ als für ‚Augmented‘. D.h., künstliche Intelligenz übernimmt erst einmal die Rolle einer Assistenzfunktion, eines technologischen Helfers im Hintergrund. CIMON ist ein gutes Beispiel, aber eben in einem besonderen Kontext: die KI soll in diesem Fall Gesprächspartner sein, Musik abspielen und Experimente dokumentieren. Das klingt im Vergleich zu KI-Anwendungen auf der Erde trivial, ist in den extrem ausbalancierten Systemen der ISS und zukünftiger Raumfahrtmissionen aber ein wichtiger Faktor.

WYZE: Ob und wie KI funktioniert, hängt also auch immer von ihrem jeweiligen Einsatzfeld ab?

Matthias Schulz: Richtig. Bei KI-Tools im Personalwesen oder der Finanzbuchhaltung gelten Maßstäbe und Ziele, die Ihnen im Falle einer KI-unterstützten Vernetzung in der ‚Smart Factory‘ wenig weiterhelfen. Dieser Punkt wird in der Diskussion um ‚die‘ KI ebenfalls schnell übersehen: wir sprechen eben nicht über die lineare Entwicklung einer, sondern vieler unterschiedlicher KI-Varianten.
KI wächst also an vielen Stellen nach und nach in die Gesellschaft hinein. Also bleibt auch genug Zeit um zu entscheiden, welche KI-Anwendungen Assistenten bleiben – und welche mehr Autorität, Verantwortung übernehmen dürfen. Das erleben wir ja sehr konkret beim Thema ‚Autonomes Fahren‘: Niemand würde heute einer KI die volle Kontrolle über ein Fahrzeug geben. Aber teilautonome Systeme sorgen ja bereits für mehr Sicherheit und retten Leben. Warum sollten wir also in absehbarer Zeit nicht das Gefühl haben, dass die Maschine besser fährt?

WYZE: Ein solcher Vertrauensaufbau funktioniert doch sicherlich besser, wenn man mit KI flüssig sprechen könnte. Anwendungen wie Alexa, Siri oder die Sprachnavigation im Auto sind in dieser Hinsicht aber eher auffallend ‚künstlich‘ als ‚intelligent‘ …

Matthias Schulz: Ja, aber wir stehen ja auch noch am Anfang der Reise. Die Beherrschung von Sprache ist ohne Frage eine der großen Grenzen für KI. Google Duplex hat sehr eindrucksvoll gezeigt, dass KI-Software am Telefon als Mensch durchgehen kann. Ein Frisörtermin ist aber kein Turing-Test. Sobald Sie abrupt das Thema wechseln und das Muster durchbrechen, in dem sich die KI sicher bewegt, muss es an irgendeinem Punkt zu Phrasen oder Wiederholungen kommen. Und schon ist die Illusion gebrochen.

WYZE: Vielleicht muss sich ja eine Mensch-KI Gesprächskultur entwickeln, die eben nicht rein technisch oder rein menschlich bestimmt ist – sondern etwas ganz Neues darstellt. Diese Richtung scheint IBM mit der KI-Applikation Watson Debate einzuschlagen …

Matthias Schulz: Watson Debate diskutiert ethische und politische Fragestellungen mit uns anhand von unterschiedlichen Pro/Contra-Positionen, die er zum Beispiel zum Thema ‚sollten gewalttätige Computerspiele verboten werden?‘ im Internet findet. Die KI trifft dazu aber keine Entscheidung, sondern debattiert die in Sekundenbruchteilen recherchierten Vor- und Nachteile aus allen möglichen Onlinequellen, Studien, Fachartikel, Meinungen usw.
Es geht immer darum, mindestens zwei Themenpositionen objektiv zu diskutieren – auf die Watson Debate wohlgemerkt im Vorfeld eben nicht trainiert wurde. Das ist ein sehr interessantes ‚intuitives‘ Element. Nicht im Sinne menschlicher Intuition, aber durch die Auswahl und Argumentationswege erscheint es uns als Diskussionsteilnehmern vielleicht so.

WYZE: Was wiederum ein großer Schritt über die genannte Grenze der Sprachbeherrschung ist …

Matthias Schulz: Ja, zumal Watson Debate nun auch einen Standpunkt in einer gesprochenen Diskussion verteidigen kann. Das ist eine komplett andere Erfahrung, als Alexa nach dem Wetter zu fragen. Nach ein paar Argumenten sind Sie so im Fluss der Diskussion, dass Sie immer mehr vergessen, mit wem Sie da eigentlich sprechen.

WYZE: Vor zwei Jahren sollte Microsofts Bot „Tay“ ebenfalls von der ‚Schwarmintelligenz‘ des Webs lernen, erwies sich dann aber als williger Twitter-Helfer bei der Verbreitung rassistischer Parolen. Gibt es einen Ethik-Algorithmus, der das bei Watson Debate verhindert?

Matthias Schulz: Wie gesagt, der Kerngedanke ist hier ja ein ganz anderer, nämlich ein Argumentationsspektrum objektiv, präzise und verständlich aufzuzeigen. Nicht, die am häufigsten geteilten Meinungen oder Keywords zu reproduzieren. Bei Tay ging es eher darum, aus der Quantität der verfügbaren Informationen eine Mehrheitsmeinung abzuleiten. Das war aber übrigens kein spezieller KI-Fehler von Tay – das passiert jeder Suchmaschine, die eine Gewichtung auf Basis der Häufigkeit vornimmt.

Watson Debate verfügt aber über eine Intelligenz, die den Inhalt versteht und abwägen kann, welche Positionen stärker oder schwächer gewichtet werden. Das begleiten wir übrigens mit einem Konsortium „Ethik in der KI“; denn natürlich geben wir Watson Debate unsere Werte mit – das kann man gar nicht verhindern. Aber gerade weil momentan viele Militär-Budgets in die KI-Entwicklung fließen, ist jetzt der richtige Zeitpunkt, diese Diskussion über KI-Ethik zu starten. Und daran kann und sollte man sich durchaus beteiligen.

WYZE: Vielen Dank für das Gespräch!

Weitere Informationen zu Watson Debate und „Ethik in der KI“ über den jeweiligen Link oder hier im Video.

Vorschau: Traktoren, die mit KI-Unterstützung vom Band laufen? Foto-Chats mit Watson, die stehende Maschinen wieder zum Laufen bringen? Dies und mehr über IBM Watson in der „Fabrik der Zukunft“ erfahren Sie im zweiten Teil des Interviews mit Matthias Schulz.

Durch die weitere Nutzung der Seite stimmst du der Verwendung von Cookies zu. Weitere Informationen

The cookie settings on this website are set to "allow cookies" to give you the best browsing experience possible. If you continue to use this website without changing your cookie settings or you click "Accept" below then you are consenting to this.

Close

Telefon: +49 (0)89-178 766 – 67
E-Mail: info@wyze.de
Haben Sie Fragen?
Dann kontaktieren Sie uns!