Die Roboter kommen…

Über die Weihnachtsfeiertage bin ich auf folgenden – sehr lesenswerten – NYT Online Artikel gestoßen: The Robots Are Coming, and Sweden Is Fine. Die zentrale Frage, der hier nachgegangen wird, ist, warum gerade die Schweden so wenig Angst vor den Robotern haben, wenn es um ihre Arbeitsplätze geht.  

AI-NYT-Article

NYT Artikel, Online 27.12.2017

Die Autoren beziehen sich darin auf eine EU-28 Eurobarometer Studie, die im May 2017 publiziert wurde: Attitudes towards the impact of digitisation and automation on daily life. Darin wurden in allen EU Staaten neben der grundsätzlichen Einstellung zu Innovation auch die Erwartungshaltung zum Thema Künstliche Intelligenz und Automatisierung abgefragt.

In Österreich überwiegt zwar mit 55% Zustimmung die positive Sicht dazu, bleibt dabei allerdings deutlich unter dem EU Schnitt (61%). Während Skandinavien wie so oft in derartigen Rankings, wo es um Innovationsfähigkeit und Mut zur Veränderung geht, das Spitzenfeld abbildet.  

EU28-Studie-QD10

Die Studie verweist dabei auf den leicht nachvollziehbaren Zusammenhang zwischen Informationsgrad und Zustimmung. Das heißt, umso besser Menschen über neue Technologien informiert sind oder diese auch bereits nutzen, umso mehr haben sie auch eine positive Meinung und fassen Vertrauen dazu. Indirekt wird daher vielleicht dieser Blogbeitrag auch etwas positives bewirken können…

Ich kann das aber auch gut am eigenen Beispiel nachvollziehen: So besitze ich beispielsweise seit Weihnachten einen dieser intelligenten Lautsprecher, die man per Sprache („Echo, spiele Jazz“, „Echo, wie wird das Wetter morgen“, etc.) bedienen kann, mache meine ersten Erfahrungen damit, sehe auch, wie die künstliche Intelligenz der Maschine meine Kommandos immer besser umsetzt, wie selbstbewusst meine kleine Tochter damit umgeht, wie sie sich um eine besonders deutliche Aussprache bemüht, um verstanden zu werden – und merke, wie sehr sich meine eigene Sichtweise zum „Spion im Wohnzimmer“ ins Positive gedreht hat.

In der EU-Studie ist der Unterschied bei der Zustimmung zwischen den Befragten, die in den letzten 12 Monaten irgendetwas zum Thema Künstliche Intelligenz gelesen oder gehört haben und denen, die nichts dazu vernommen haben, dann auch entsprechend hoch (75% vs. 49%).    

Aber wieder zurück zum NYT Artikel, denn hier findet sich am Beispiel Schwedens ein weiterer wesentlicher Anhaltspunkt für die europaweit unterschiedlichen Sichtweisen auf das Thema Roboter bzw. Arbeitsautomatisierung: 

Und zwar der Zusammenhang zum Thema Sozialsystem bzw. soziale Absicherung!

Am Beispiel eines schwedischen Untertagebaus wird klar, dass schmutzige und schwierige Arbeit, die gesundheitliche Langzeitfolgen haben kann (Staublunge, etc.) auch gut von Maschinen übernommen werden kann. Damit werden zum einen langfristige Folgekosten für das Sozialsystem verringert. Die Arbeiter fühlen sich andererseits aber auch vom Unternehmen wie auch vom staatlichen Sozialsystem her gut abgesichert und sehen die Automatisierung generell positiv. „There will always be other work tasks“ sagt der Arbeiter, der die Vortriebs-Maschine aus einem Raum per Joystick steuert, und schließt mit „Die Company wird schon auf uns schauen“.

Der letzte Satz macht auch deutlich, dass das Vertrauensverhältnis zwischen Unternehmen und Mitarbeiter speziell in diesem Fall wohl auch eine deutlich höhere Qualität aufweist als in klassischen „hire&fire“ Strukturen, wo es ausschließlich um den Profit geht.

Und darin liegt wohl auch der Knackpunkt. Selbst der Gewerkschafter des Betriebes erklärt dazu sehr pointiert:

Ich fürchte mich nicht vor neuer Technologie. Ich fürchte mich vor alter Technologie!

Und weiter, im Hinblick auf das Angebot für ständige Weiterbildung

Wir schützen keine Jobs. Wir schützen die Arbeiter.

Das macht sehr deutlich, dass eine gute soziale Absicherung auch gut für die Innovationsfähigkeit und das Unternehmertum eines Landes ist. Oder anders ausgedrückt: wenn die Wirtschaft wirklich auch für die Menschen da ist, hat das auch positive Rückeffekte auf die Wirtschaft und den Standort. 

 

 

 

Demokratisierung der künstlichen Intelligenz

Nach über zwanzig Jahren in der IT bin ich unverändert neugierig, was wohl als Nächstes um die Ecke kommt. Welcher große Megatrend aus der Informationstechnologie wird wohl die Welt als Nächstes auf den Kopf stellen?

Für 2017 hat unser CEO bereits die Antwort gegeben: Artificial Intelligence. Die Intelligenz aus der Konserve. Die kognitiv begabte Maschine. Der Roboter, der uns die Arbeit abnimmt – im besten Fall nur die, die wir als Menschen auch gerne los haben wollen.

Microsoft-Chef Satya Nadella bei der DLD (Digital-Life-Design) Konferenz. Quelle: dpaMicrosoft-Chef Satya Nadella bei der DLD (Digital-Life-Design) Konferenz, (dpa)

Mit dem Aufmacher „Democratizing AI“ wandte sich der Microsoft Chef Anfang der Woche auf der Internet Konferenz DLD in München an das Publikum und forderte damit nicht weniger als eine Demokratisierung des Zugangs zur künstlichen Intelligenz (KI).

Ein wesentlicher Ansatz dabei ist, die Technologie dahinter breiter verfügbar zu machen, als sie es heute ist. Wie beispielsweise heute schon über den digitalen Butler in Windows 10, Cortana, der ständig dazulernt und die Wünsche des Anwenders antizipiert, bevor sie formuliert sind. Beispielsweise der Vorschlag, ob ein Termin im Kalender verschoben werden soll, weil es gerade einen Stau auf der Wegstrecke dorthin gibt.

Die Technologie-Branche müsse sich ihrer Verantwortung stellen und die Leute fit für die Zukunft machen, betonte Satya Nadella mit Blick auf die Sorge vor der Verdrängung von Jobs durch Maschinen. Künstliche Intelligenz müsse den Menschen helfen, statt sie zu ersetzen. Der Ansatz dahinter soll „augmented“ sein und den Menschen den Teil an Arbeit abnehmen, der für sie wenig attraktiv ist und gleichzeitig auch von Maschinen besser gemacht werden kann.

„Wir brauchen technologische Durchbrüche, um Wachstum über unsere Industrie hinaus anzukurbeln.“

Erst die Datenexplosion der letzten Jahre hat das Thema so richtig beflügelt. Unternehmen sitzen auf einem Berg von Daten, der ihnen gehört und aus dem sie nun die richtigen Erkenntnisse ziehen möchten. Dabei geht es nicht nur um ein besseres Verständnis der Vergangenheit. Es geht hier ebenso um Echtzeitverarbeitung der Daten und entsprechender Regelkreise wie auch die Möglichkeiten von „predictive analysis“ also der Projektion in die Zukunft.

democratizingai_close

In diesem Themenkreis rücken jedoch auch vermehrt ethische Fragen in den Fokus. Das klassische Beispiel dafür ist das selbst fahrende Auto, dessen künstliche Intelligenz im Falle eines Unfalls zwischen zwei Menschenleben, beispielsweise einem Kind und einer alten Frau, entscheiden muss. Und damit verbundene Schuld- bzw. Haftungsfragen. Ist der Programmierer schuld an allfälligen unethischen, fahrlässigen oder gar illegalen Folgen des Produkteinsatzes. Oder der Hersteller des Endprodukts? Oder der Konsument? Oder niemand?

Schwer zu sagen.

Oder wie ist zu verhindern, dass KI zu Diskriminierung führt? Beispielsweise weil der weiße und männliche Programmierer darauf vergessen hat, die Routine auf Menschen mit dunkler Hautfarbe und weiblichem Geschlecht mit anzupassen. Oder die fehlende Berücksichtigung von „Equal Pay“ in Gehaltsschemata. Und so weiter.

Das kann nicht alleine vom Markt entschieden werden. Es wird dafür vielmehr Vereinbarungen geben müssen, die sich zu mindestens über folgende vier Bereiche erstrecken werden:

  1. Gesetze
  2. Normen
  3. Technologie
  4. Markt

Diese Bedenken und Forderungen sind teilweise auch bereits bei den Anwenderunternehmen angekommen. So der deutsche Blogger Michael Kroker, der gestern auf seinem Blog die Ergebnisse einer kürzlich veröffentlichten Studie des indischen IT-Dienstleisters  Infosys publizierte, in der 62 Prozent der befragten Unternehmen angaben, dass strikte ethische Standards eingehalten werden müssen, um den Erfolg von KI sicherzustellen.

Gleichzeitig sollen zwei Drittel der Befragten die ethische Probleme, die mit künstlicher Intelligenz verbunden sind, noch nicht vollständig berücksichtigt haben. Dazu gehören laut der zitierten Studie auch Bedenken von Angestellten bezüglich Kontrollmechanismen sowie branchenspezifische Regularien und Gesetze. Insgesamt sollen 53 Prozent der Meinung sein, dass ethische Bedenken eine effektive Anwendung von KI-Technologien stark behindern.

Allerdings sieht ein Großteil der Unternehmen KI auch als langfristige strategische Priorität für Innovation an:

Für drei Viertel der Befragten ist die Technologie grundlegend für den Erfolg ihrer Unternehmensstrategie (76 Prozent); 64 Prozent sind davon überzeugt, dass die Zukunft ihres Unternehmens von einer großflächigen Adaption der KI-Technologie abhängt.

Mehr dazu und der Studie am Blog von Michael Kroker.

Nachtrag: EU-Vorstoß zu Regeln für Roboter (ORF.at, 19.1.2017)