The Good, The Bad and The Ugly – die vielen Gesichter der Künstlichen Intelligenz

A woman walks through a field for The Yield.

Microsoft hat vor wenigen Tagen ein AI Programm für humanitäre Zwecke angekündigt. AI steht hier für „Artificial Intelligene“, auf deutsch „Künstliche Intelligenz“. Das auf der Kundenmesse „Ignite“ vorgestellte neue Programm zielt darauf ab, die Technologie für Katastrophenhilfe, den Schutz von Kindern sowie für Flüchtlinge und Vertriebene einzusetzen. Das 40 Millionen Dollar-Programm wird in enger Zusammenarbeit mit ausgewählten Non-Profit- und humanitären Organisationen in die Fläche gebracht.  Das Ganze ist in einem noch größeren Programm untergebracht, das sich „AI for Good“ nennt.

Das legt nahe, dass sich AI auch für andere als gute Zwecke einsetzen lässt.

Und so ist es auch. AI ist keine Technologie für einen bestimmten Zweck sondern vielmehr eine „multi-purpose technology“, kann also in jedem Bereich zum Einsatz kommen. Was auch bereits geschieht, in der privaten Lebenswelt, der Arbeitswelt, der Wissenschaft, dem Militär, einfach überall. Und wie es halt so ist mit Technologien, ob sie für das Gute oder das Böse eingesetzt werden, liegt alleine am Menschen. Übrigens auch, ob und wie sich AI gegen die Interessen des Menschen wenden kann, wird ausschließlich von Menschen bestimmt. Wir sind da an einem interessanten und auch kritisch-wichtigen Punkt in der Entwickung von AI angelangt.

Vieles, was man heute über AI in den Zeitungen liest, ist meist in die Zukunft gerichtet und lässt vermuten, dass hier ein Tsunami in Zeitlupe auf uns zukommt, der je nach Lesart entweder in eine Art Endkampf zwischen Mensch und Roboter münden wird, der die vielbeschworene „Singularität“ Wirklichkeit werden lässt, also eine Art Super-Intelligenz, die dem Menschen so weit überlegen ist, dass eh schon alles zu spät ist oder aber zumindestens die Hälfte der Menschheit arbeitslos machen wird. Das meiste daran ist nicht nur phantasievoll sondern auch überzogen und überhöht. Aber dazu später.

Tatsache ist jedoch, dass AI nicht im Kommen ist – da sind wir uns ja alle irgendwie einig – sondern vielmehr schon längst da ist. Hier zwei Beispiele aus meiner eigenen Erfahrung.

Bessere Musik und weniger E-Mails!

Nutzen Sie gerne Spotify? Wundern Sie sich vielleicht, dass die Musikvorschläge des Onlinedienstes mit der Zeit immer besser Ihrem Musikgeschmack entsprechen? Ja. genau. Das ist bereits AI in bester Aktion. Jeder Song, den Sie hören, trägt dazu bei, dass das System sich unsere Vorlieben merkt und dazulernt, was uns noch gefallen könnte. Dabei werden auch die Musiklisten anderer Anwender herangezogen und was dem einen Latin-Jazz Liebhaber gefällt, wird vielleicht auch dem anderen gefallen, der einen ähnlichen Musikgeschmack hat. Das System lernt daher nicht nur aus ihrer eigenen Auswahl, sondern auch von der anderer. Ich finde das ziemlich genial und freue mich ehrlich gesagt im Fitness-Studio oder beim Laufen immer wieder über neue Songs, die mir Spotify in meinen wöchentlichen Mixtapes vorschlägt. Wie das Spotify macht, wird in den Artikeln „How Does Spotifiy Knows You So Well“ und in „The magic that makes Spotify’s Discover Weekly playlists so damn good“ sehr gut beschrieben.  

Ein anderes sehr alltagstaugliches Beispiele für AI ist für mich der Posteingang mit Relevanz, der Nachfolger des „Clutter“ Funktion in Outlook. Ich nutze das nun bereits seit über einem Jahr und bin schlichtweg begeistert. Während die Trefferquoten des Vorgängerdienstes Clutter noch ziemlich zu wünschen überließen und immer wieder auch wichtige Post im Clutterordner landete, erlöst mich der inzwischen in Office 365 / Outlook.com flächendeckend verfügbare Posteingang mit Relevanz vom Lesen mehrerer hundert Mails pro Woche. Ein extremer Zeit- und Produktivitätsgewinn für mich. Dank AI. Hier gibt´s für Interessierte auch ein kurzes Erklärvideo dazu.

See the source image

Auch auf dem Smartphone benutzen Sie vermutlich bereits AI. Wenn Sie etwas in Google oder Bing suchen, machen Sie das bereits in einer hochentwickelten AI Engine. Oder sie nutzen vielleicht die Speech-to-Text-Funktion, da Ihnen das Tippen zu mühsam ist? Aber auch wenn Sie tippen, antizipiert die künstliche Intelligenz Ihres Handies bereits ex-ante, welches Wort als nächstes ideal passen würde, da der Gesamtzusammenhang eines Satzes und auch mehrer Sätze bereits im Hintergrund analysiert wird.

Ihre persönliche Internet Filterblase wird mit AI Technologie erzeugt

Das waren jetzt alles schöne Beispiele für „AI for Good“ – und es gibt noch viel mehr davon, AI für bessere Krebs-Früherkennung, AI für besseres Bier u.v.m., allerdings gibt es auch Formen der AI Anwendung, die weit kontroversieller beurteilt werden können. Etwa die AI, die dafür verantwortlich ist, dass Sie beim Surfen und Ansehen von Inhalten in Facebook, Instagram & Co immer stärker in einer sog. „Filterblase“ eingefangen werden, die bereits durch das Surfen im Internet, das Suchen in der Google Suchmaschine, mit Cookies und mit Likes, Shares und Kommentaren einen Comfort-Tunnel für Sie erschafft, der Ihre Welt zwar einengt, aber attraktiver macht. Denn die Wände des Tunnels sind dekoriert mit den Angeboten, die Ihrem Gehirn besonders attraktiv erscheinen (Danke an Michael Bartz für das schöne Sprachbild).

Das Problem mit dieser Form von AI ist halt, dass der durchschnittliche Anwender sich dem kaum entziehen kann. Hier heißt es, zumindestens das Bewusstsein zu behalten, dass es eine AI Welt ist. Mein lieber Ex-Kollege Michael Bartz spricht hier in diesem Zusammenhang davon, eine Art siebten Sinn für AI und seine Konsequenzen zu entwickeln, ein siebter Sinn für die digitale Welt von heute um im Sinne von Kant der „selbst verschuldeten Unmündigkeit“ zu entkommen. Dieser Sinn oder zumindestens das Wissen darum wird eine wichtige Komponente sein, um AI zum „Human Enhancement“ zu machen, also einer mächtigen Erweiterung der Fähigkeiten des Menschen, die Welt in der er lebt zu erfahren, zu begreifen und beurteilen zu können.

The Computer Says No!

Und wenn wir noch weiter in die Abgründe des Menschseins blicken, finden sich natürlich auch die dazu passenden Anwendungsbeispiele der AI. Wie etwa in der Militärtechnik, wo fliegende Drohnen mutmassliche Feinde über einen Algorithmus gesteuert auswählen und automatisiert töten könnten. Oder in Diktaturen, wo AI dabei helfen kann, potentielle Staatsfeinde aufgrund ihrer social media Aktivitäten zu identifizeren. Oder nicht gar so abgründig: Intelligente Algortithmen, die bei Versicherungen und Banken automatisch darüber entscheiden, ob Sie einen Vertrag bzw. Kredit bekommen oder nicht. Besonders perfide wäre es, wenn das nicht transparent passiert und Sie niemals erfahren, warum sie nicht zum Zug gekommen sind.

Das bringt uns endgültig auf das Feld der Ethik. Ein sehr weites Feld. Und eine sehr weite Diskussion, da es nicht nur einfach eine Ethik auf dieser Welt gibt. Was in Asien ethisch vertretbar ist, muss es nicht zwangsläufig auch in den USA oder in Europa sein.

Als Forscher des MIT 2014 Media Lab ihre Moral Machine ins Netz stellten, hätten sie wahrscheinlich nie gedacht, dass das Experiment zu einer der weltweit größten Informationsquellen über ethische und moralische Wertvorstellungen werden würde. Sie wollten schlicht eine spielerische Plattform schaffen, auf der Menschen erleben können, welche Entscheidungen bei der Programmierung selbstfahrender Autos möglichweise eine Rolle spielen.

Vier Jahre nach dem Start der Moral Machine haben Millionen von Menschen in 233 Ländern mehr als 40 Millionen Einzelentscheidungen getroffen. Diese Daten wurden jetzt ausgewertet und ergeben deutliche regionale Unterschiede, so ein Bericht der MIT Technology Review. So würden Chinesen im Extremfall eher das Leben der Passagiere, Japaner eher das der Fußgänger schützen. Europäer würden eher junge Menschen, Asiaten eher ältere Menschen retten. Die Autoren der Studie betonen allerdings, dass die Ergebnisse nicht als Vorlage für eine Regulierung von KI dienen sollen, sondern vor allem zu weiteren Diskussionen über die Ethik von KI auch über selbstfahrende Autos hinaus anregen sollen. Die Moral Machine ist jedenfalls weiterhin online. Ein Selbstversuch konfrontiert uns vor allem mit unseren ganz persönlichen moralischen Werten.

Trotzdem gibt es so etwas wie eine universelle Ethik des Menschen, unabhängig von Kulturen und Traditionen. Und die muss die Richtschnur sein für das, was der Mensch mit seinem Werkzeug AI anstellen darf und was nicht. Aber auch unter welchen Bedingungen das passiert – beispielsweise volle Transparenz derartiger Robot-Dienste zum Menschen hin. Das ist auch das, was Microsoft unter „Democratizing AI“ versteht und versucht, mit anderen großen AI Anbietern der Welt wie Google, Facebook oder Amazon auf einen gemeinsamen Nenner zu bringen.

See the source image

Ethik ist etwas sehr Menschliches und man spricht in diesem Zusammenhang auch von „Human Centric Design“, das jeder AI Programmierung zugrunde liegen sollte. Denn dass von Menschen gemachten Maschinen und Alogrithmen auch nichts Menschliche fremd sein wird – inklusive des menschlichen Irrtums -, liegt zwar irgendwie auf der Hand, ist aber trotzdem nicht immer so offensichtlich. So kann beispielsweise ein Vorurteil eines Programmieres eines Chatbots auch dazu führen, dass die Maschine dieses übernimmt. Wenn also sagen wir mal eine Personalabteilung die Auswahl von Kandidat*innen einem AI Algorithmus überlässt, der seitens des Programmierers eine Benachteiligung oder Präferenz von Frauen oder Männern, bestimmten Rassen u.ä. enthält, wird dies in Folge auch zu einer automatisierten Diskriminierung führen.

Recht neu ist dabei die Erkenntnis, dass Maschinen auch von ganz allein Vorurteile „erlernen“ können, wie eine Untersuchung von Forschern der Universität Cardiff zeigt.

So vielversprechend diese neue Technologie ist, so wichtig ist auch die Diskussion darüber, unter welchen Bedingungen sie zum Einsatz kommen kann, um das Ziel des am Menschen orientierten Designs niemals aus den Augen zu verlieren.

Das war auch am Microsoft Data Center Summit ein großes Thema, das von Futurezone Redakteurin Barbara Wimmer in folgenden Tweet bzw. Artikel verpackt wurde:

 

Die Roboter kommen…

Über die Weihnachtsfeiertage bin ich auf folgenden – sehr lesenswerten – NYT Online Artikel gestoßen: The Robots Are Coming, and Sweden Is Fine. Die zentrale Frage, der hier nachgegangen wird, ist, warum gerade die Schweden so wenig Angst vor den Robotern haben, wenn es um ihre Arbeitsplätze geht.  

AI-NYT-Article

NYT Artikel, Online 27.12.2017

Die Autoren beziehen sich darin auf eine EU-28 Eurobarometer Studie, die im May 2017 publiziert wurde: Attitudes towards the impact of digitisation and automation on daily life. Darin wurden in allen EU Staaten neben der grundsätzlichen Einstellung zu Innovation auch die Erwartungshaltung zum Thema Künstliche Intelligenz und Automatisierung abgefragt.

In Österreich überwiegt zwar mit 55% Zustimmung die positive Sicht dazu, bleibt dabei allerdings deutlich unter dem EU Schnitt (61%). Während Skandinavien wie so oft in derartigen Rankings, wo es um Innovationsfähigkeit und Mut zur Veränderung geht, das Spitzenfeld abbildet.  

EU28-Studie-QD10

Die Studie verweist dabei auf den leicht nachvollziehbaren Zusammenhang zwischen Informationsgrad und Zustimmung. Das heißt, umso besser Menschen über neue Technologien informiert sind oder diese auch bereits nutzen, umso mehr haben sie auch eine positive Meinung und fassen Vertrauen dazu. Indirekt wird daher vielleicht dieser Blogbeitrag auch etwas positives bewirken können…

Ich kann das aber auch gut am eigenen Beispiel nachvollziehen: So besitze ich beispielsweise seit Weihnachten einen dieser intelligenten Lautsprecher, die man per Sprache („Echo, spiele Jazz“, „Echo, wie wird das Wetter morgen“, etc.) bedienen kann, mache meine ersten Erfahrungen damit, sehe auch, wie die künstliche Intelligenz der Maschine meine Kommandos immer besser umsetzt, wie selbstbewusst meine kleine Tochter damit umgeht, wie sie sich um eine besonders deutliche Aussprache bemüht, um verstanden zu werden – und merke, wie sehr sich meine eigene Sichtweise zum „Spion im Wohnzimmer“ ins Positive gedreht hat.

In der EU-Studie ist der Unterschied bei der Zustimmung zwischen den Befragten, die in den letzten 12 Monaten irgendetwas zum Thema Künstliche Intelligenz gelesen oder gehört haben und denen, die nichts dazu vernommen haben, dann auch entsprechend hoch (75% vs. 49%).    

Aber wieder zurück zum NYT Artikel, denn hier findet sich am Beispiel Schwedens ein weiterer wesentlicher Anhaltspunkt für die europaweit unterschiedlichen Sichtweisen auf das Thema Roboter bzw. Arbeitsautomatisierung: 

Und zwar der Zusammenhang zum Thema Sozialsystem bzw. soziale Absicherung!

Am Beispiel eines schwedischen Untertagebaus wird klar, dass schmutzige und schwierige Arbeit, die gesundheitliche Langzeitfolgen haben kann (Staublunge, etc.) auch gut von Maschinen übernommen werden kann. Damit werden zum einen langfristige Folgekosten für das Sozialsystem verringert. Die Arbeiter fühlen sich andererseits aber auch vom Unternehmen wie auch vom staatlichen Sozialsystem her gut abgesichert und sehen die Automatisierung generell positiv. „There will always be other work tasks“ sagt der Arbeiter, der die Vortriebs-Maschine aus einem Raum per Joystick steuert, und schließt mit „Die Company wird schon auf uns schauen“.

Der letzte Satz macht auch deutlich, dass das Vertrauensverhältnis zwischen Unternehmen und Mitarbeiter speziell in diesem Fall wohl auch eine deutlich höhere Qualität aufweist als in klassischen „hire&fire“ Strukturen, wo es ausschließlich um den Profit geht.

Und darin liegt wohl auch der Knackpunkt. Selbst der Gewerkschafter des Betriebes erklärt dazu sehr pointiert:

Ich fürchte mich nicht vor neuer Technologie. Ich fürchte mich vor alter Technologie!

Und weiter, im Hinblick auf das Angebot für ständige Weiterbildung

Wir schützen keine Jobs. Wir schützen die Arbeiter.

Das macht sehr deutlich, dass eine gute soziale Absicherung auch gut für die Innovationsfähigkeit und das Unternehmertum eines Landes ist. Oder anders ausgedrückt: wenn die Wirtschaft wirklich auch für die Menschen da ist, hat das auch positive Rückeffekte auf die Wirtschaft und den Standort. 

 

 

 

Demokratisierung der künstlichen Intelligenz

Nach über zwanzig Jahren in der IT bin ich unverändert neugierig, was wohl als Nächstes um die Ecke kommt. Welcher große Megatrend aus der Informationstechnologie wird wohl die Welt als Nächstes auf den Kopf stellen?

Für 2017 hat unser CEO bereits die Antwort gegeben: Artificial Intelligence. Die Intelligenz aus der Konserve. Die kognitiv begabte Maschine. Der Roboter, der uns die Arbeit abnimmt – im besten Fall nur die, die wir als Menschen auch gerne los haben wollen.

Microsoft-Chef Satya Nadella bei der DLD (Digital-Life-Design) Konferenz. Quelle: dpaMicrosoft-Chef Satya Nadella bei der DLD (Digital-Life-Design) Konferenz, (dpa)

Mit dem Aufmacher „Democratizing AI“ wandte sich der Microsoft Chef Anfang der Woche auf der Internet Konferenz DLD in München an das Publikum und forderte damit nicht weniger als eine Demokratisierung des Zugangs zur künstlichen Intelligenz (KI).

Ein wesentlicher Ansatz dabei ist, die Technologie dahinter breiter verfügbar zu machen, als sie es heute ist. Wie beispielsweise heute schon über den digitalen Butler in Windows 10, Cortana, der ständig dazulernt und die Wünsche des Anwenders antizipiert, bevor sie formuliert sind. Beispielsweise der Vorschlag, ob ein Termin im Kalender verschoben werden soll, weil es gerade einen Stau auf der Wegstrecke dorthin gibt.

Die Technologie-Branche müsse sich ihrer Verantwortung stellen und die Leute fit für die Zukunft machen, betonte Satya Nadella mit Blick auf die Sorge vor der Verdrängung von Jobs durch Maschinen. Künstliche Intelligenz müsse den Menschen helfen, statt sie zu ersetzen. Der Ansatz dahinter soll „augmented“ sein und den Menschen den Teil an Arbeit abnehmen, der für sie wenig attraktiv ist und gleichzeitig auch von Maschinen besser gemacht werden kann.

„Wir brauchen technologische Durchbrüche, um Wachstum über unsere Industrie hinaus anzukurbeln.“

Erst die Datenexplosion der letzten Jahre hat das Thema so richtig beflügelt. Unternehmen sitzen auf einem Berg von Daten, der ihnen gehört und aus dem sie nun die richtigen Erkenntnisse ziehen möchten. Dabei geht es nicht nur um ein besseres Verständnis der Vergangenheit. Es geht hier ebenso um Echtzeitverarbeitung der Daten und entsprechender Regelkreise wie auch die Möglichkeiten von „predictive analysis“ also der Projektion in die Zukunft.

democratizingai_close

In diesem Themenkreis rücken jedoch auch vermehrt ethische Fragen in den Fokus. Das klassische Beispiel dafür ist das selbst fahrende Auto, dessen künstliche Intelligenz im Falle eines Unfalls zwischen zwei Menschenleben, beispielsweise einem Kind und einer alten Frau, entscheiden muss. Und damit verbundene Schuld- bzw. Haftungsfragen. Ist der Programmierer schuld an allfälligen unethischen, fahrlässigen oder gar illegalen Folgen des Produkteinsatzes. Oder der Hersteller des Endprodukts? Oder der Konsument? Oder niemand?

Schwer zu sagen.

Oder wie ist zu verhindern, dass KI zu Diskriminierung führt? Beispielsweise weil der weiße und männliche Programmierer darauf vergessen hat, die Routine auf Menschen mit dunkler Hautfarbe und weiblichem Geschlecht mit anzupassen. Oder die fehlende Berücksichtigung von „Equal Pay“ in Gehaltsschemata. Und so weiter.

Das kann nicht alleine vom Markt entschieden werden. Es wird dafür vielmehr Vereinbarungen geben müssen, die sich zu mindestens über folgende vier Bereiche erstrecken werden:

  1. Gesetze
  2. Normen
  3. Technologie
  4. Markt

Diese Bedenken und Forderungen sind teilweise auch bereits bei den Anwenderunternehmen angekommen. So der deutsche Blogger Michael Kroker, der gestern auf seinem Blog die Ergebnisse einer kürzlich veröffentlichten Studie des indischen IT-Dienstleisters  Infosys publizierte, in der 62 Prozent der befragten Unternehmen angaben, dass strikte ethische Standards eingehalten werden müssen, um den Erfolg von KI sicherzustellen.

Gleichzeitig sollen zwei Drittel der Befragten die ethische Probleme, die mit künstlicher Intelligenz verbunden sind, noch nicht vollständig berücksichtigt haben. Dazu gehören laut der zitierten Studie auch Bedenken von Angestellten bezüglich Kontrollmechanismen sowie branchenspezifische Regularien und Gesetze. Insgesamt sollen 53 Prozent der Meinung sein, dass ethische Bedenken eine effektive Anwendung von KI-Technologien stark behindern.

Allerdings sieht ein Großteil der Unternehmen KI auch als langfristige strategische Priorität für Innovation an:

Für drei Viertel der Befragten ist die Technologie grundlegend für den Erfolg ihrer Unternehmensstrategie (76 Prozent); 64 Prozent sind davon überzeugt, dass die Zukunft ihres Unternehmens von einer großflächigen Adaption der KI-Technologie abhängt.

Mehr dazu und der Studie am Blog von Michael Kroker.

Nachtrag: EU-Vorstoß zu Regeln für Roboter (ORF.at, 19.1.2017)

Vertrauen muss verdient werden

“Die Welt steht auf kein’ Fall mehr lang.“
(Kometenlied, Johann Nestroy, April 1833)

Seit den Zeiten der Aufklärung hat noch jeder technologische Wandel seine Kritiker gefunden. Das ist völlig normal und auch gut so. Denn egal ob es um den Webstuhl, die Dampfmaschine, die Eisenbahn, die Elektrizität oder das Internet geht – die Veränderungen auf die Welt, die uns umgibt, auf die Gesellschaft, Wirtschaft und Politik waren und sind immens. Und in der Vergangenheit oft über Zeitspannen, die für die Dauer eines Menschenlebens alleine kaum zu übersehen waren.

Nun, heute im Internetzeitalter geht´s viel rascher voran. Der PC ist gerade mal 40 Jahre alt, das Internet ist 20 geworden und die Social Media Revolution ist etwas über 10 Jahre alt. Aber das ist alles nichts gegen die Datenrevolution, die derzeit im Gange ist:

Weiterlesen

E-Rechnung an den Bund ab 1.1.2014 Pflicht

2014 führt Österreich als zweites Land in Europa nach Dänemark die verpflichtende E-Rechnung an den Bund ein. Das heißt: Ab 1. Jänner 2014 müssen Unternehmen, die mit der Republik Österreich Geschäfte machen, auf E-Rechnung umstellen, um ihr Geld zu erhalten. Viele haben ihre IT aber noch nicht angepasst, wie die Computerwelt in einem aktuellen Artikel berichtet.

Das heißt aber auch: Ab 1. Jänner 2014 akzeptieren die Bundesdienststellen dann weder Papierrechnungen noch Rechnungen im Word- oder PDF-Format, da beides nicht für die automatische Weiterverarbeitung geeignet ist.

Die Wirtschaftskammer (WKO) schätzt, dass etwa 77.000 heimische Unternehmen davon betroffen sein werden.

Soweit die Bedrohungslage.

Nun die gute Nachricht: Den vielen eher kleineren Unternehmen, die Microsoft Word für die Rechnungslegung benutzen, kann relativ einfach geholfen werden. Weiterlesen

Eine Geschichte voller Missverständnisse

So oder so ähnlich könnte man die wechselvolle Beziehung zwischen Microsoft und Open Source über die letzte Dekade hinweg bezeichnen. Was gab es da nicht alles an Ideologiek(r)ämpfen, rhetorische Scharmützel, PR Stunts und taktische Ausbremsmanöver – auf beiden Seiten und auf verschiedensten Ebenen.

Nun, heute, mit dem weisen Blick aus der Gegenwart, mutet vieles davon geradezu lächerlich an. Die Dinge haben sich weitgehend versachlicht und Software bzw. deren Entwicklungsprozesse folgen nun weitgehend dem Diktat der Zweckmäßigkeit. Das ist gut so. Und wenn auch nicht mehr ganz so amüsant für die Beobachter, ist es doch weit stärker im Interesse der gemeinsamen Kunden und des gesamten IT Marktes.

Aber man muss auch konstatieren, dass diese ganzen Diskussionen und Auseinandersetzungen letztlich die beiden Lager auch sukzessive näher bringen und gerade auch Microsoft stark verändern konnten, welches sich heute deutlich offener präsentiert als noch vor 10 Jahren.

imageDie Microsoft Auskennerin Mary Jo Foley von ZDNet hat dazu kürzlich einen sehr interessanten Artikel auf ihrem Blog veröffentlicht, der Microsoft nun einen durchwegs ernsthaften Zugang zum Thema Open Source attestiert.

Mein Kollege Hans Berndl hat dies zum Anlass genommen, diese 10 “proof points” seinerseits zu kommentieren und dies auf dem deutschsprachigen “businessreadyblog” veröffentlicht. 

image

Und, eine Meinung dazu?

Ich freue mich über jeden Kommentar.

Unser Leben in der Filterblase


Wer glaubt, dass jeder bei Google oder Facebook bei gleichen Eingaben auch dasselbe sieht, irrt!

Your filter bubble is your own personal, unique universe of information that you live in online. What’s in your filter bubble depends on who you are, and it depends on what you do. But you don’t decide what gets in — and more importantly, you don’t see what gets edited out.” (Eli Pariser)

9 Minuten, die sich auszahlen.