Demokratisierung der künstlichen Intelligenz

Nach über zwanzig Jahren in der IT bin ich unverändert neugierig, was wohl als Nächstes um die Ecke kommt. Welcher große Megatrend aus der Informationstechnologie wird wohl die Welt als Nächstes auf den Kopf stellen?

Für 2017 hat unser CEO bereits die Antwort gegeben: Artificial Intelligence. Die Intelligenz aus der Konserve. Die kognitiv begabte Maschine. Der Roboter, der uns die Arbeit abnimmt – im besten Fall nur die, die wir als Menschen auch gerne los haben wollen.

Microsoft-Chef Satya Nadella bei der DLD (Digital-Life-Design) Konferenz. Quelle: dpaMicrosoft-Chef Satya Nadella bei der DLD (Digital-Life-Design) Konferenz, (dpa)

Mit dem Aufmacher „Democratizing AI“ wandte sich der Microsoft Chef Anfang der Woche auf der Internet Konferenz DLD in München an das Publikum und forderte damit nicht weniger als eine Demokratisierung des Zugangs zur künstlichen Intelligenz (KI).

Ein wesentlicher Ansatz dabei ist, die Technologie dahinter breiter verfügbar zu machen, als sie es heute ist. Wie beispielsweise heute schon über den digitalen Butler in Windows 10, Cortana, der ständig dazulernt und die Wünsche des Anwenders antizipiert, bevor sie formuliert sind. Beispielsweise der Vorschlag, ob ein Termin im Kalender verschoben werden soll, weil es gerade einen Stau auf der Wegstrecke dorthin gibt.

Die Technologie-Branche müsse sich ihrer Verantwortung stellen und die Leute fit für die Zukunft machen, betonte Satya Nadella mit Blick auf die Sorge vor der Verdrängung von Jobs durch Maschinen. Künstliche Intelligenz müsse den Menschen helfen, statt sie zu ersetzen. Der Ansatz dahinter soll „augmented“ sein und den Menschen den Teil an Arbeit abnehmen, der für sie wenig attraktiv ist und gleichzeitig auch von Maschinen besser gemacht werden kann.

„Wir brauchen technologische Durchbrüche, um Wachstum über unsere Industrie hinaus anzukurbeln.“

Erst die Datenexplosion der letzten Jahre hat das Thema so richtig beflügelt. Unternehmen sitzen auf einem Berg von Daten, der ihnen gehört und aus dem sie nun die richtigen Erkenntnisse ziehen möchten. Dabei geht es nicht nur um ein besseres Verständnis der Vergangenheit. Es geht hier ebenso um Echtzeitverarbeitung der Daten und entsprechender Regelkreise wie auch die Möglichkeiten von „predictive analysis“ also der Projektion in die Zukunft.

democratizingai_close

In diesem Themenkreis rücken jedoch auch vermehrt ethische Fragen in den Fokus. Das klassische Beispiel dafür ist das selbst fahrende Auto, dessen künstliche Intelligenz im Falle eines Unfalls zwischen zwei Menschenleben, beispielsweise einem Kind und einer alten Frau, entscheiden muss. Und damit verbundene Schuld- bzw. Haftungsfragen. Ist der Programmierer schuld an allfälligen unethischen, fahrlässigen oder gar illegalen Folgen des Produkteinsatzes. Oder der Hersteller des Endprodukts? Oder der Konsument? Oder niemand?

Schwer zu sagen.

Oder wie ist zu verhindern, dass KI zu Diskriminierung führt? Beispielsweise weil der weiße und männliche Programmierer darauf vergessen hat, die Routine auf Menschen mit dunkler Hautfarbe und weiblichem Geschlecht mit anzupassen. Oder die fehlende Berücksichtigung von „Equal Pay“ in Gehaltsschemata. Und so weiter.

Das kann nicht alleine vom Markt entschieden werden. Es wird dafür vielmehr Vereinbarungen geben müssen, die sich zu mindestens über folgende vier Bereiche erstrecken werden:

  1. Gesetze
  2. Normen
  3. Technologie
  4. Markt

Diese Bedenken und Forderungen sind teilweise auch bereits bei den Anwenderunternehmen angekommen. So der deutsche Blogger Michael Kroker, der gestern auf seinem Blog die Ergebnisse einer kürzlich veröffentlichten Studie des indischen IT-Dienstleisters  Infosys publizierte, in der 62 Prozent der befragten Unternehmen angaben, dass strikte ethische Standards eingehalten werden müssen, um den Erfolg von KI sicherzustellen.

Gleichzeitig sollen zwei Drittel der Befragten die ethische Probleme, die mit künstlicher Intelligenz verbunden sind, noch nicht vollständig berücksichtigt haben. Dazu gehören laut der zitierten Studie auch Bedenken von Angestellten bezüglich Kontrollmechanismen sowie branchenspezifische Regularien und Gesetze. Insgesamt sollen 53 Prozent der Meinung sein, dass ethische Bedenken eine effektive Anwendung von KI-Technologien stark behindern.

Allerdings sieht ein Großteil der Unternehmen KI auch als langfristige strategische Priorität für Innovation an:

Für drei Viertel der Befragten ist die Technologie grundlegend für den Erfolg ihrer Unternehmensstrategie (76 Prozent); 64 Prozent sind davon überzeugt, dass die Zukunft ihres Unternehmens von einer großflächigen Adaption der KI-Technologie abhängt.

Mehr dazu und der Studie am Blog von Michael Kroker.

Nachtrag: EU-Vorstoß zu Regeln für Roboter (ORF.at, 19.1.2017)


Hinterlasse einen Kommentar