«Wir sollten immer wissen, wo künstliche Intelligenz drinsteckt»

Künstliche Intelligenz gilt als eine der Schlüsseltechnologien des 21. Jahrhunderts. Was ist davon zu halten, wenn Maschinen denken? Dorothea Wiesmann beschäftigt sich bei IBM Research mit den ethischen Anforderungen an künstliche Intelligenz.

Dorothea Wiesmann leitete bis Ende 2019 bei IBM Research in Rüschlikon die Abteilung Cognitive Computing. Sie ist Mitglied mehrerer Gremien, die sich mit ethischen und juristischen Aspekten der künstlichen Intelligenz befassen. Seit Januar arbeitet sie am IBM-Hauptsitz in den USA als Programmleiterin der Forschungsstrategie und persönliche Beraterin des Direktors von IBM Research Dario Gil.

Frau Wiesmann, was ist eigentlich künstliche Intelligenz (KI)?

Da halte ich mich an die Definition von Marvin Minsky. Er ist einer der Väter von KI und hat den Begriff bereits in den 60er Jahren geprägt: Künstliche Intelligenz ist, wenn Maschinen Aufgaben übernehmen oder Probleme lösen, für die man beim Menschen Intelligenz voraussetzen würde.

Was können Computer heute schon besser als der Mensch?

Zum Beispiel Bilderkennung. Bei Verkehrsschildern oder handgeschriebenen Postleitzahlen haben sie eine deutlich geringere Fehlerquote als wir. Das sind aber ganz eng umrissene Aufgaben. Die dafür verwendeten Algorithmen kann einfach Zahlen erkennen. Oder Buchstaben. Aber sonst kann er nichts weiter. Dem sagen wir enge künstliche Intelligenz, oder narrow artificial intelligence.

Ist künstliche Intelligenz nicht der falsche Begriff. Ist das nicht einfach maschinelles Lernen?

Grundsätzlich stimme ich da überein. Wir haben auch als Firma versucht, von Begriff weg zu kommen, aber Alternativen setzen sich nicht durch.

Wann wäre eine künstliche Intelligenz menschenähnlich?

Wir Menschen sind sehr flexibel. Unsere Intelligenz erlaubt uns, bei noch nie vorher gesehenen Problemen, Lösungen zu finden. Aus dem Erfahrungsschatz heraus bewältigen wir neue Aufgaben. Das nennen wir generelle Intelligenz. Und da ist unsere Prognose, dass es noch mindestens bis 2050 oder noch viel länger geht, bis Maschinen das können. Gegenwärtig forscht man daran, die sehr enge künstliche Intelligenz zu erweitern. Also zum Beispiel Sprache mit Bildern zu verknüpfen und automatische Bildunterschriften zu generieren. Oder Emotionen in Gesichtern zu erkennen und darauf zu reagieren. Oder dass Siri nicht nur Faktenfragen beantworten, sondern auch argumentieren kann.

Mit KI verbindet man gemeinhin den Computer, der einen Schachweltmeister schlägt, oder ein Assistenzsystem, das Ärzten mögliche Diagnosen vorschlägt. Sind das nicht einfach Maschinen, die sehr, sehr schnell Datenbanken durchforsten?

Nein, Künstliche Intelligenz geht weit über die Suche in einer Wissensdatenbank hinaus. Eine KI, die auf Röntgenbildern bestimmte Krankheiten erkennt, trainiert man mit Bildern, in denen abnormale Gewebeveränderungen markiert sind. Daraus abstrahiert das System ein generelles Muster und erkennt dieses dann in Bildern, die es vorher noch nie gesehen hat.

Neuronales Netzwerk: Wie erklären Sie das ihrem siebenjährigen Sohn?

Künstliche neuronale Netzwerke sind dem Gehirn nachempfunden. Da werden sehr viele Eingangsinformationen zusammengebracht in Knotenpunkten…

…das versteht Ihr Sohn nicht…

Er versteht aber, dass Information unterschiedliche Bedeutung hat, dass also das, was Mama sagt und das, was Papa sagt, unterschiedlich wiegt. Und dann kombiniert er die beiden Anweisungen seiner Eltern mit einer Gewichtung und schliesst daraus, was er tut. Das ist nichts anderes als das neuronale Netzwerk.

Dorothea Wiesmann bei Wissenschaft Persönlich
Dorothea Wiesmann räumte im Gespräch mit Beat Glogger vor Publikum mit einigen Vorurteilen über künstliche Intelligenz auf. (Winterthurer Zeitung/Michael Hotz)

Wie bringt man einer Maschine bei, dass sie Dinge tut, von denen ich ihr nicht gesagt habe, dass sie genau das tun muss.

Das System lernt, wie mein Sohn lernt: Soll er lieber auf Mama oder Papa hören? Er hat seine Erfahrungsbeispiele. Bei jedem neuen Fall spielt er die Vergangenheit durch und schaut, wie hätte er den geringsten Fehlentscheid gemacht. Das heisst: das neuronale Netz muss lernen, richtig zu gewichten. Das macht es, indem es so lange probiert, bis es für alle Beispiele aus der Vergangenheit den kleinsten Fehler macht. Die KI minimiert also durch die neuronalen Netzwerke die Fehlerrate anhand von Beispielen.

Ich denke, Menschen sollten immer darüber informiert sein, ob es eine Maschine ist oder nicht. Das hat mit Ethik zu tun.

Als heiliger Gral der KI gilt der Turing-Test: Wenn ein Mensch mit einer Maschine kommuniziert und nicht mehr merkt, dass es eine Maschine ist, dann ist es eine gut künstliche Intelligenz. Ist der heute überholt?

Das ist nach wie vor der Test, an dem sich die Entwickler messen. Es gibt ja zum Beispiel bereits Systeme, um in einem Restaurant einen Platz zu reservieren, bei denen man nicht mehr weiss, ob die Reservierung von einem Menschen oder einer Maschine aufgenommen wird. Wenn man aber eine Frage aus einem ganz anderen Bereich dazwischenwerfen würde, dann würde man es merken.

Wozu brauchen wir eine Maschine, bei der ich nicht mehr merken, dass es eine Maschine ist?

Darum geht es nicht. Ich denke, Menschen sollten immer darüber informiert sein, ob es eine Maschine ist oder nicht. Das hat mit Ethik zu tun. Aber wozu das Ganze? Es gibt verschiedenste Felder, in denen künstliche Intelligenz uns unterstützt und uns Arbeit abnimmt. Zum Teil übernimmt sie sehr monotone Tätigkeiten. Die Bilderkennung lässt sich für die Qualitätskontrolle einsetzen, statt dass ein Mensch die ganze Zeit am Fliessband steht. Auch in der Wissenschaft eröffnet KI ganz neue Horizonte. Als Wissenschaftlerin kann ich nicht alles Wissen der Welt im Kopf haben. Künstliche Intelligenz würde mir erlauben, die gesamte wissenschaftliche Vorleistung auszuwerten und so viel kreativer zu forschen.

KI schürt auch die Angst vor Jobverlust. Es stimmt zwar, dass viele Leute eine monotone Arbeit haben – aber wenigstens haben sie eine. Was sagen Sie diesen Leuten?

Natürlich haben die Angst. KI ist aber nur ein weiterer Schritt in Richtung Automatisierung, die bereits da ist und die wir auch brauchen, um uns auf Innovation zu konzentrieren. Für den Einzelnen müssen wir als Gesellschaft Sorge tragen: Wir müssen die Leute umschulen.

Das ist der Idealfall, wenn die künstliche Intelligenz monotone Arbeit ersetzt. Aber es gibt auch Beispiele, wo KI viel kreativere und bessere Lösung findet als Ingenieure oder Forschende. Also könnte KI auch hochqualifizierte Fachleute ersetzen.

Nein. Sie erlaubt uns einfach, in neue Räume zu kommen, weil sie Dinge anders kombiniert.

Aber Sie selbst werden überflüssig, Frau Wiesmann.

Das glaube ich eben nicht. Noch ein Beispiel: Bei der IBM-Forschung haben wir zusammen mit einer deutschen Firma mittels KI neue Parfum-Kreationen entwickelt. Das Resultat war sehr erstaunlich.

Das Roboter-Parfüm roch wohl nach Maschinenöl?

Man hätte es so tatsächlich nicht auf den Markt bringen können, aber es hat einen Parfüm-Designer inspiriert, ganz andere Dinge auszuprobieren.

Man muss sicherstellen, dass KI zum Beispiel fair ist: Sie darf nicht diskriminieren.

Schon heute steckt in vielen Anwendungen KI drin. Mein iPhone erkennt mein Gesicht. Ist das nicht beängstigend?

KI wird in Zukunft überall mitwirken. Deshalb müssen wir uns überlegen, wie man sie verantwortungsvoll einsetzt. IBM ist da sehr engagiert, auch in der EU, wo jetzt Richtlinien gemacht werden. Man muss sicherstellen, dass KI zum Beispiel fair ist: Sie darf nicht diskriminieren. Ausserdem muss sie sich erklären können: Wenn ich Kredit will und er aufgrund von KI abgelehnt wird, muss ich das Recht haben, zu wissen, welches Kriterium dazu führt.

Wieder: das ist der Idealfall. In China läuft Gesichtserkennung in grossen Städten an jeder Strassenecke und die Menschen werden danach sozial eingeteilt.

Wir in Europa, in der Schweiz, können das anders machen. Wir müssen dafür sorgen, dass entsprechende Richtlinien eingeführt werden. Zum Beispiel denken wir über eine Zertifizierung für KI nach.

Ein anderer Einwand gegen KI ist, dass sie Vorurteile verstärkt. Wenn KI zum Beispiel Fälle von Drogenhandel auf der Strasse analysiert und viele Täter in den ausgewerteten Beispielen waren dunkelhäutig, wird der Algorithmus schliessen: dunkle Haut gleich Drogendealer. Das ist falsch und rassistisch.

Es ist tatsächlich so, dass die KI Vorurteile verstärkt. Da muss man als Entwickler eingreifen. Das Individuum darf nicht nur noch als Teil einer Gruppe wahrgenommen werden. Der KI kann der Entwickler aber sagen, nach was beurteilt werden soll – und nach was eben nicht. Ich kann die KI abändern, sodass sie nicht mehr diskriminiert. Der erst Schritt ist deshalb, dass man die Diskriminierung erkennt.

Ein Problem für die Akzeptanz der KI ist auch, dass vieles heute noch wie eine Black Box funktioniert. Selbst die Entwickler wissen nicht, genau, wie die KI etwas lernt. Eine Black Box fördert aber nicht gerade das Vertrauen der Bevölkerung.

Das stimmt. Das schliessen wir auch in die Überlegungen für eine Zertifizierung von KI ein. Sie muss erklärbar sein, sonst werden die Menschen sie nicht akzeptieren.

Das wird auf eine Zertifizierung herauslaufen, wie das heute bei Arzneimitteln der Fall ist. Schwierig wird es bei absichtlichen Angriffen auf KI.

Dorothea Wiesmann spricht vor Publikum
Dorothea Wiesmann sprach auch über ethische Aspekte künstlicher Intelligenz. (Winterthurer Zeitung/Michael Hotz)

Wie sicher ist KI eigentlich, zum Beispiel bei autonomen Fahrzeugen? Es gibt ein Beispiel, wo die KI in einem autonomen Fahrzeug einen Handwerker, der eine riesige Glasscheibe in der Hand hält, nicht erkennt. Und in die Scheibe fährt.

Das war der Fall mit dem selbstfahrenden Auto von Uber, und da war ein Mensch im Auto, der eigentlich hätte eingreifen müssen. Vor dem Einsatz solcher Fahrzeuge muss ihre Sicherheit nachgewiesen werden. Das wird auf eine Zertifizierung herauslaufen, wie das heute bei Arzneimitteln der Fall ist. Schwierig wird es bei absichtlichen Angriffen auf KI. Wenn zum Beispiel Verkehrsschilder manipuliert werden. Das zeigt die Schwäche von KI auf: Weil sie nur aus unmanipulierten Schildern lernte, ist das manipulierte dann so weit weg vom Bekannten, dass der Entscheid der KI zufällig sein wird. Man kann ihr aber sagen: Wenn etwas kommt, das sehr weit weg ist vom Bekannten, wird kein Urteil gefällt. So kann man solche Angriffe parieren. Wie bei Hackerangriffen ist das aber etwas, wo man immer wieder dahinter muss. Wir müssen KI genauso schützen wie unsere Computer mit Antivirensoftware und Updates.

Wie entscheiden wir, ob wir die Maschine am Ende entscheiden lassen oder einen Menschen?

Genauso, wie das jetzt auch in Flugzeugen passiert. Da wollen wir auch, dass der Pilot im Zweifelsfall eingreifen kann.

Unsere Redaktion hat mal den Schriftseller Jürg Halter und einen Roboter ein Gedicht schreiben lassen. Das Publikum konnte nicht unterscheiden, welches vom Roboter war. Wie kreativ kann KI sein?

Eine der Ausprägungen der neuronalen Netzwerke sind generative Netzwerke. Die können neue Beispiele generieren. Wenn Sie die KI also mit vielen Gemälden befüllen, dann kann sie ein Gemälde kreieren. Aber das ist natürlich eine Kombination aus vielen Gemälden. Das Ziel der KI ist in diesem Fall, sich so lange zu optimieren, bis der Unterschied zwischen echtem Gemälde und generiertem nicht mehr sichtbar ist. Die KI ist also darauf trainiert, etwas nicht Unterscheidbares zu kreieren. Das ist aber nicht originell.

Wird KI irgendwann ein Bewusstsein haben?

Nicht in naher Zukunft. Das fällt für uns in die Kategorie generelle KI.

Haben Sie nicht Angst, dass Sie ein System schaffen, dass sich irgendwann selbstständig macht?

Nein. Wir arbeiten mit dem, was heute möglich ist. Zwischen dem und einer KI mit Bewusstsein liegt noch ein Grand Canyon.

Video des gesamten Gesprächs:

Teilen Sie diesen Beitrag: