Künstliche Intelligenz soll Welthunger bekämpfen

Über die vielen Gesichter der Künstlichen Intelligenz habe ich bereits Ende September in diesem Blog geschrieben (The Good, The Bad & The Ugly) und dabei auch auf die problematischen Seiten in der Anwendung von AI hingewiesen. Unbestritten sind dabei aber auch die Potentiale, die AI entfalten kann, wenn es um eine bessere Welt für uns alle geht. Es ist ja nicht das Stück Technik, das gut oder böse ist sondern vielmehr die Intention dahinter, die es potentiell gefährlich oder ethisch wertvoll macht.

Hier ein Beispiel für das Gute, das Hoffnung auf eine bessere Welt macht. 

„Ich möchte es schaffen, dass ab 2030 niemand mehr auf der Welt Hunger leidet“ (Jochen Moninger, Head of Innovation bei der Welthungerhilfe (WHH) „Um dieses Ziel zu erreichen, vertraue ich auch auf digitale Technologien.“

Moderne Technologie wie Künstliche Intelligenz kann bei diesem Ziel nicht nur einfach helfen sondern es ist vielmehr so, dass es ohne gar nicht mehr geht, das Ziel zu erreichen.

AI-Hunger

Weltweit hungern nach Erkenntnissen der UNO-Ernährungsorganisation FAO 821 Millionen Menschen. Jeden Tag sterben 15.000 Kinder an den Folgen von Unterernährung. Zudem leiden 22 Prozent aller Kinder unter fünf Jahren, insgesamt 151 Millionen, unter ernährungsbedingten Wachstumsverzögerungen. Dies sind erschreckende Zahlen, die es zu ändern gilt.

Gemeinsam mit der Welhungerhilfe entwickelt Microsoft daher eine mobile App, die dabei helfen soll, den Hunger auf der Welt effektiv zu bekämpfen.

Die App Child Growth Monitor hilft künftig dabei, die Mangelernährung von Kindern frühzeitig zu erkennen, sie gezielt zu versorgen und mit gleichem Mitteleinsatz mehr Bedürftigen helfen zu können. Die App wird auf der Cloud-Plattform Microsoft Azure betrieben. Zudem nutzt die mobile Anwendung, die derzeit als Prototyp in Indien getestet wird, Deep-Learning-Modelle aus den Diensten für künstliche Intelligenz (KI) von Microsoft Azure.

Die vollständige Geschichte inkl. einem Video findet Ihr im Newscenter von Microsoft Österreich.

The Good, The Bad and The Ugly – die vielen Gesichter der Künstlichen Intelligenz

A woman walks through a field for The Yield.

Microsoft hat vor wenigen Tagen ein AI Programm für humanitäre Zwecke angekündigt. AI steht hier für „Artificial Intelligene“, auf deutsch „Künstliche Intelligenz“. Das auf der Kundenmesse „Ignite“ vorgestellte neue Programm zielt darauf ab, die Technologie für Katastrophenhilfe, den Schutz von Kindern sowie für Flüchtlinge und Vertriebene einzusetzen. Das 40 Millionen Dollar-Programm wird in enger Zusammenarbeit mit ausgewählten Non-Profit- und humanitären Organisationen in die Fläche gebracht.  Das Ganze ist in einem noch größeren Programm untergebracht, das sich „AI for Good“ nennt.

Das legt nahe, dass sich AI auch für andere als gute Zwecke einsetzen lässt.

Und so ist es auch. AI ist keine Technologie für einen bestimmten Zweck sondern vielmehr eine „multi-purpose technology“, kann also in jedem Bereich zum Einsatz kommen. Was auch bereits geschieht, in der privaten Lebenswelt, der Arbeitswelt, der Wissenschaft, dem Militär, einfach überall. Und wie es halt so ist mit Technologien, ob sie für das Gute oder das Böse eingesetzt werden, liegt alleine am Menschen. Übrigens auch, ob und wie sich AI gegen die Interessen des Menschen wenden kann, wird ausschließlich von Menschen bestimmt. Wir sind da an einem interessanten und auch kritisch-wichtigen Punkt in der Entwickung von AI angelangt.

Vieles, was man heute über AI in den Zeitungen liest, ist meist in die Zukunft gerichtet und lässt vermuten, dass hier ein Tsunami in Zeitlupe auf uns zukommt, der je nach Lesart entweder in eine Art Endkampf zwischen Mensch und Roboter münden wird, der die vielbeschworene „Singularität“ Wirklichkeit werden lässt, also eine Art Super-Intelligenz, die dem Menschen so weit überlegen ist, dass eh schon alles zu spät ist oder aber zumindestens die Hälfte der Menschheit arbeitslos machen wird. Das meiste daran ist nicht nur phantasievoll sondern auch überzogen und überhöht. Aber dazu später.

Tatsache ist jedoch, dass AI nicht im Kommen ist – da sind wir uns ja alle irgendwie einig – sondern vielmehr schon längst da ist. Hier zwei Beispiele aus meiner eigenen Erfahrung.

Bessere Musik und weniger E-Mails!

Nutzen Sie gerne Spotify? Wundern Sie sich vielleicht, dass die Musikvorschläge des Onlinedienstes mit der Zeit immer besser Ihrem Musikgeschmack entsprechen? Ja. genau. Das ist bereits AI in bester Aktion. Jeder Song, den Sie hören, trägt dazu bei, dass das System sich unsere Vorlieben merkt und dazulernt, was uns noch gefallen könnte. Dabei werden auch die Musiklisten anderer Anwender herangezogen und was dem einen Latin-Jazz Liebhaber gefällt, wird vielleicht auch dem anderen gefallen, der einen ähnlichen Musikgeschmack hat. Das System lernt daher nicht nur aus ihrer eigenen Auswahl, sondern auch von der anderer. Ich finde das ziemlich genial und freue mich ehrlich gesagt im Fitness-Studio oder beim Laufen immer wieder über neue Songs, die mir Spotify in meinen wöchentlichen Mixtapes vorschlägt. Wie das Spotify macht, wird in den Artikeln „How Does Spotifiy Knows You So Well“ und in „The magic that makes Spotify’s Discover Weekly playlists so damn good“ sehr gut beschrieben.  

Ein anderes sehr alltagstaugliches Beispiele für AI ist für mich der Posteingang mit Relevanz, der Nachfolger des „Clutter“ Funktion in Outlook. Ich nutze das nun bereits seit über einem Jahr und bin schlichtweg begeistert. Während die Trefferquoten des Vorgängerdienstes Clutter noch ziemlich zu wünschen überließen und immer wieder auch wichtige Post im Clutterordner landete, erlöst mich der inzwischen in Office 365 / Outlook.com flächendeckend verfügbare Posteingang mit Relevanz vom Lesen mehrerer hundert Mails pro Woche. Ein extremer Zeit- und Produktivitätsgewinn für mich. Dank AI. Hier gibt´s für Interessierte auch ein kurzes Erklärvideo dazu.

See the source image

Auch auf dem Smartphone benutzen Sie vermutlich bereits AI. Wenn Sie etwas in Google oder Bing suchen, machen Sie das bereits in einer hochentwickelten AI Engine. Oder sie nutzen vielleicht die Speech-to-Text-Funktion, da Ihnen das Tippen zu mühsam ist? Aber auch wenn Sie tippen, antizipiert die künstliche Intelligenz Ihres Handies bereits ex-ante, welches Wort als nächstes ideal passen würde, da der Gesamtzusammenhang eines Satzes und auch mehrer Sätze bereits im Hintergrund analysiert wird.

Ihre persönliche Internet Filterblase wird mit AI Technologie erzeugt

Das waren jetzt alles schöne Beispiele für „AI for Good“ – und es gibt noch viel mehr davon, AI für bessere Krebs-Früherkennung, AI für besseres Bier u.v.m., allerdings gibt es auch Formen der AI Anwendung, die weit kontroversieller beurteilt werden können. Etwa die AI, die dafür verantwortlich ist, dass Sie beim Surfen und Ansehen von Inhalten in Facebook, Instagram & Co immer stärker in einer sog. „Filterblase“ eingefangen werden, die bereits durch das Surfen im Internet, das Suchen in der Google Suchmaschine, mit Cookies und mit Likes, Shares und Kommentaren einen Comfort-Tunnel für Sie erschafft, der Ihre Welt zwar einengt, aber attraktiver macht. Denn die Wände des Tunnels sind dekoriert mit den Angeboten, die Ihrem Gehirn besonders attraktiv erscheinen (Danke an Michael Bartz für das schöne Sprachbild).

Das Problem mit dieser Form von AI ist halt, dass der durchschnittliche Anwender sich dem kaum entziehen kann. Hier heißt es, zumindestens das Bewusstsein zu behalten, dass es eine AI Welt ist. Mein lieber Ex-Kollege Michael Bartz spricht hier in diesem Zusammenhang davon, eine Art siebten Sinn für AI und seine Konsequenzen zu entwickeln, ein siebter Sinn für die digitale Welt von heute um im Sinne von Kant der „selbst verschuldeten Unmündigkeit“ zu entkommen. Dieser Sinn oder zumindestens das Wissen darum wird eine wichtige Komponente sein, um AI zum „Human Enhancement“ zu machen, also einer mächtigen Erweiterung der Fähigkeiten des Menschen, die Welt in der er lebt zu erfahren, zu begreifen und beurteilen zu können.

The Computer Says No!

Und wenn wir noch weiter in die Abgründe des Menschseins blicken, finden sich natürlich auch die dazu passenden Anwendungsbeispiele der AI. Wie etwa in der Militärtechnik, wo fliegende Drohnen mutmassliche Feinde über einen Algorithmus gesteuert auswählen und automatisiert töten könnten. Oder in Diktaturen, wo AI dabei helfen kann, potentielle Staatsfeinde aufgrund ihrer social media Aktivitäten zu identifizeren. Oder nicht gar so abgründig: Intelligente Algortithmen, die bei Versicherungen und Banken automatisch darüber entscheiden, ob Sie einen Vertrag bzw. Kredit bekommen oder nicht. Besonders perfide wäre es, wenn das nicht transparent passiert und Sie niemals erfahren, warum sie nicht zum Zug gekommen sind.

Das bringt uns endgültig auf das Feld der Ethik. Ein sehr weites Feld. Und eine sehr weite Diskussion, da es nicht nur einfach eine Ethik auf dieser Welt gibt. Was in Asien ethisch vertretbar ist, muss es nicht zwangsläufig auch in den USA oder in Europa sein.

Als Forscher des MIT 2014 Media Lab ihre Moral Machine ins Netz stellten, hätten sie wahrscheinlich nie gedacht, dass das Experiment zu einer der weltweit größten Informationsquellen über ethische und moralische Wertvorstellungen werden würde. Sie wollten schlicht eine spielerische Plattform schaffen, auf der Menschen erleben können, welche Entscheidungen bei der Programmierung selbstfahrender Autos möglichweise eine Rolle spielen.

Vier Jahre nach dem Start der Moral Machine haben Millionen von Menschen in 233 Ländern mehr als 40 Millionen Einzelentscheidungen getroffen. Diese Daten wurden jetzt ausgewertet und ergeben deutliche regionale Unterschiede, so ein Bericht der MIT Technology Review. So würden Chinesen im Extremfall eher das Leben der Passagiere, Japaner eher das der Fußgänger schützen. Europäer würden eher junge Menschen, Asiaten eher ältere Menschen retten. Die Autoren der Studie betonen allerdings, dass die Ergebnisse nicht als Vorlage für eine Regulierung von KI dienen sollen, sondern vor allem zu weiteren Diskussionen über die Ethik von KI auch über selbstfahrende Autos hinaus anregen sollen. Die Moral Machine ist jedenfalls weiterhin online. Ein Selbstversuch konfrontiert uns vor allem mit unseren ganz persönlichen moralischen Werten.

Trotzdem gibt es so etwas wie eine universelle Ethik des Menschen, unabhängig von Kulturen und Traditionen. Und die muss die Richtschnur sein für das, was der Mensch mit seinem Werkzeug AI anstellen darf und was nicht. Aber auch unter welchen Bedingungen das passiert – beispielsweise volle Transparenz derartiger Robot-Dienste zum Menschen hin. Das ist auch das, was Microsoft unter „Democratizing AI“ versteht und versucht, mit anderen großen AI Anbietern der Welt wie Google, Facebook oder Amazon auf einen gemeinsamen Nenner zu bringen.

See the source image

Ethik ist etwas sehr Menschliches und man spricht in diesem Zusammenhang auch von „Human Centric Design“, das jeder AI Programmierung zugrunde liegen sollte. Denn dass von Menschen gemachten Maschinen und Alogrithmen auch nichts Menschliche fremd sein wird – inklusive des menschlichen Irrtums -, liegt zwar irgendwie auf der Hand, ist aber trotzdem nicht immer so offensichtlich. So kann beispielsweise ein Vorurteil eines Programmieres eines Chatbots auch dazu führen, dass die Maschine dieses übernimmt. Wenn also sagen wir mal eine Personalabteilung die Auswahl von Kandidat*innen einem AI Algorithmus überlässt, der seitens des Programmierers eine Benachteiligung oder Präferenz von Frauen oder Männern, bestimmten Rassen u.ä. enthält, wird dies in Folge auch zu einer automatisierten Diskriminierung führen.

Recht neu ist dabei die Erkenntnis, dass Maschinen auch von ganz allein Vorurteile „erlernen“ können, wie eine Untersuchung von Forschern der Universität Cardiff zeigt.

So vielversprechend diese neue Technologie ist, so wichtig ist auch die Diskussion darüber, unter welchen Bedingungen sie zum Einsatz kommen kann, um das Ziel des am Menschen orientierten Designs niemals aus den Augen zu verlieren.

Das war auch am Microsoft Data Center Summit ein großes Thema, das von Futurezone Redakteurin Barbara Wimmer in folgenden Tweet bzw. Artikel verpackt wurde:

 

Die Roboter kommen…

Über die Weihnachtsfeiertage bin ich auf folgenden – sehr lesenswerten – NYT Online Artikel gestoßen: The Robots Are Coming, and Sweden Is Fine. Die zentrale Frage, der hier nachgegangen wird, ist, warum gerade die Schweden so wenig Angst vor den Robotern haben, wenn es um ihre Arbeitsplätze geht.  

AI-NYT-Article

NYT Artikel, Online 27.12.2017

Die Autoren beziehen sich darin auf eine EU-28 Eurobarometer Studie, die im May 2017 publiziert wurde: Attitudes towards the impact of digitisation and automation on daily life. Darin wurden in allen EU Staaten neben der grundsätzlichen Einstellung zu Innovation auch die Erwartungshaltung zum Thema Künstliche Intelligenz und Automatisierung abgefragt.

In Österreich überwiegt zwar mit 55% Zustimmung die positive Sicht dazu, bleibt dabei allerdings deutlich unter dem EU Schnitt (61%). Während Skandinavien wie so oft in derartigen Rankings, wo es um Innovationsfähigkeit und Mut zur Veränderung geht, das Spitzenfeld abbildet.  

EU28-Studie-QD10

Die Studie verweist dabei auf den leicht nachvollziehbaren Zusammenhang zwischen Informationsgrad und Zustimmung. Das heißt, umso besser Menschen über neue Technologien informiert sind oder diese auch bereits nutzen, umso mehr haben sie auch eine positive Meinung und fassen Vertrauen dazu. Indirekt wird daher vielleicht dieser Blogbeitrag auch etwas positives bewirken können…

Ich kann das aber auch gut am eigenen Beispiel nachvollziehen: So besitze ich beispielsweise seit Weihnachten einen dieser intelligenten Lautsprecher, die man per Sprache („Echo, spiele Jazz“, „Echo, wie wird das Wetter morgen“, etc.) bedienen kann, mache meine ersten Erfahrungen damit, sehe auch, wie die künstliche Intelligenz der Maschine meine Kommandos immer besser umsetzt, wie selbstbewusst meine kleine Tochter damit umgeht, wie sie sich um eine besonders deutliche Aussprache bemüht, um verstanden zu werden – und merke, wie sehr sich meine eigene Sichtweise zum „Spion im Wohnzimmer“ ins Positive gedreht hat.

In der EU-Studie ist der Unterschied bei der Zustimmung zwischen den Befragten, die in den letzten 12 Monaten irgendetwas zum Thema Künstliche Intelligenz gelesen oder gehört haben und denen, die nichts dazu vernommen haben, dann auch entsprechend hoch (75% vs. 49%).    

Aber wieder zurück zum NYT Artikel, denn hier findet sich am Beispiel Schwedens ein weiterer wesentlicher Anhaltspunkt für die europaweit unterschiedlichen Sichtweisen auf das Thema Roboter bzw. Arbeitsautomatisierung: 

Und zwar der Zusammenhang zum Thema Sozialsystem bzw. soziale Absicherung!

Am Beispiel eines schwedischen Untertagebaus wird klar, dass schmutzige und schwierige Arbeit, die gesundheitliche Langzeitfolgen haben kann (Staublunge, etc.) auch gut von Maschinen übernommen werden kann. Damit werden zum einen langfristige Folgekosten für das Sozialsystem verringert. Die Arbeiter fühlen sich andererseits aber auch vom Unternehmen wie auch vom staatlichen Sozialsystem her gut abgesichert und sehen die Automatisierung generell positiv. „There will always be other work tasks“ sagt der Arbeiter, der die Vortriebs-Maschine aus einem Raum per Joystick steuert, und schließt mit „Die Company wird schon auf uns schauen“.

Der letzte Satz macht auch deutlich, dass das Vertrauensverhältnis zwischen Unternehmen und Mitarbeiter speziell in diesem Fall wohl auch eine deutlich höhere Qualität aufweist als in klassischen „hire&fire“ Strukturen, wo es ausschließlich um den Profit geht.

Und darin liegt wohl auch der Knackpunkt. Selbst der Gewerkschafter des Betriebes erklärt dazu sehr pointiert:

Ich fürchte mich nicht vor neuer Technologie. Ich fürchte mich vor alter Technologie!

Und weiter, im Hinblick auf das Angebot für ständige Weiterbildung

Wir schützen keine Jobs. Wir schützen die Arbeiter.

Das macht sehr deutlich, dass eine gute soziale Absicherung auch gut für die Innovationsfähigkeit und das Unternehmertum eines Landes ist. Oder anders ausgedrückt: wenn die Wirtschaft wirklich auch für die Menschen da ist, hat das auch positive Rückeffekte auf die Wirtschaft und den Standort. 

 

 

 

Demokratisierung der künstlichen Intelligenz

Nach über zwanzig Jahren in der IT bin ich unverändert neugierig, was wohl als Nächstes um die Ecke kommt. Welcher große Megatrend aus der Informationstechnologie wird wohl die Welt als Nächstes auf den Kopf stellen?

Für 2017 hat unser CEO bereits die Antwort gegeben: Artificial Intelligence. Die Intelligenz aus der Konserve. Die kognitiv begabte Maschine. Der Roboter, der uns die Arbeit abnimmt – im besten Fall nur die, die wir als Menschen auch gerne los haben wollen.

Microsoft-Chef Satya Nadella bei der DLD (Digital-Life-Design) Konferenz. Quelle: dpaMicrosoft-Chef Satya Nadella bei der DLD (Digital-Life-Design) Konferenz, (dpa)

Mit dem Aufmacher „Democratizing AI“ wandte sich der Microsoft Chef Anfang der Woche auf der Internet Konferenz DLD in München an das Publikum und forderte damit nicht weniger als eine Demokratisierung des Zugangs zur künstlichen Intelligenz (KI).

Ein wesentlicher Ansatz dabei ist, die Technologie dahinter breiter verfügbar zu machen, als sie es heute ist. Wie beispielsweise heute schon über den digitalen Butler in Windows 10, Cortana, der ständig dazulernt und die Wünsche des Anwenders antizipiert, bevor sie formuliert sind. Beispielsweise der Vorschlag, ob ein Termin im Kalender verschoben werden soll, weil es gerade einen Stau auf der Wegstrecke dorthin gibt.

Die Technologie-Branche müsse sich ihrer Verantwortung stellen und die Leute fit für die Zukunft machen, betonte Satya Nadella mit Blick auf die Sorge vor der Verdrängung von Jobs durch Maschinen. Künstliche Intelligenz müsse den Menschen helfen, statt sie zu ersetzen. Der Ansatz dahinter soll „augmented“ sein und den Menschen den Teil an Arbeit abnehmen, der für sie wenig attraktiv ist und gleichzeitig auch von Maschinen besser gemacht werden kann.

„Wir brauchen technologische Durchbrüche, um Wachstum über unsere Industrie hinaus anzukurbeln.“

Erst die Datenexplosion der letzten Jahre hat das Thema so richtig beflügelt. Unternehmen sitzen auf einem Berg von Daten, der ihnen gehört und aus dem sie nun die richtigen Erkenntnisse ziehen möchten. Dabei geht es nicht nur um ein besseres Verständnis der Vergangenheit. Es geht hier ebenso um Echtzeitverarbeitung der Daten und entsprechender Regelkreise wie auch die Möglichkeiten von „predictive analysis“ also der Projektion in die Zukunft.

democratizingai_close

In diesem Themenkreis rücken jedoch auch vermehrt ethische Fragen in den Fokus. Das klassische Beispiel dafür ist das selbst fahrende Auto, dessen künstliche Intelligenz im Falle eines Unfalls zwischen zwei Menschenleben, beispielsweise einem Kind und einer alten Frau, entscheiden muss. Und damit verbundene Schuld- bzw. Haftungsfragen. Ist der Programmierer schuld an allfälligen unethischen, fahrlässigen oder gar illegalen Folgen des Produkteinsatzes. Oder der Hersteller des Endprodukts? Oder der Konsument? Oder niemand?

Schwer zu sagen.

Oder wie ist zu verhindern, dass KI zu Diskriminierung führt? Beispielsweise weil der weiße und männliche Programmierer darauf vergessen hat, die Routine auf Menschen mit dunkler Hautfarbe und weiblichem Geschlecht mit anzupassen. Oder die fehlende Berücksichtigung von „Equal Pay“ in Gehaltsschemata. Und so weiter.

Das kann nicht alleine vom Markt entschieden werden. Es wird dafür vielmehr Vereinbarungen geben müssen, die sich zu mindestens über folgende vier Bereiche erstrecken werden:

  1. Gesetze
  2. Normen
  3. Technologie
  4. Markt

Diese Bedenken und Forderungen sind teilweise auch bereits bei den Anwenderunternehmen angekommen. So der deutsche Blogger Michael Kroker, der gestern auf seinem Blog die Ergebnisse einer kürzlich veröffentlichten Studie des indischen IT-Dienstleisters  Infosys publizierte, in der 62 Prozent der befragten Unternehmen angaben, dass strikte ethische Standards eingehalten werden müssen, um den Erfolg von KI sicherzustellen.

Gleichzeitig sollen zwei Drittel der Befragten die ethische Probleme, die mit künstlicher Intelligenz verbunden sind, noch nicht vollständig berücksichtigt haben. Dazu gehören laut der zitierten Studie auch Bedenken von Angestellten bezüglich Kontrollmechanismen sowie branchenspezifische Regularien und Gesetze. Insgesamt sollen 53 Prozent der Meinung sein, dass ethische Bedenken eine effektive Anwendung von KI-Technologien stark behindern.

Allerdings sieht ein Großteil der Unternehmen KI auch als langfristige strategische Priorität für Innovation an:

Für drei Viertel der Befragten ist die Technologie grundlegend für den Erfolg ihrer Unternehmensstrategie (76 Prozent); 64 Prozent sind davon überzeugt, dass die Zukunft ihres Unternehmens von einer großflächigen Adaption der KI-Technologie abhängt.

Mehr dazu und der Studie am Blog von Michael Kroker.

Nachtrag: EU-Vorstoß zu Regeln für Roboter (ORF.at, 19.1.2017)