Die Ära der KI-Copiloten

Das größte Hindernis für ein klares Sehen ist der Glaube, dass man bereits klar sieht.

– Ilya Sutskever, Chefwissenschaftler, OpenAI 

Jeder hat inzwischen die Breite der jüngsten KI-Nachrichten aufgenommen – das neue Bing, GPT-4, neue Produktivitätsfunktionen in Microsoft 365 und andere Ankündigungen – und hat wahrscheinlich genau beobachtet, was in den letzten Monaten mit KI-Produkten wie ChatGPT passiert ist. Hoffentlich hatten Sie Zeit, all diese Veränderungen und die möglichen Auswirkungen nicht nur für das eigene Unternehmen zu reflektieren, sondern auch darüber nachzudenken, was sie für jeden von Ihnen und Ihre Teams bedeuten könnten. Die Energie des Augenblicks ist leicht zu spüren, wenn man einfach die Reaktionen auf diese neuen KI-Produkte und die Technologien, die sie antreiben, beobachtet. Wie Microsoft CEO Satya Nadella gesagt hat, könnte dies der bedeutendste technologische Umschwung unseres Lebens sein, und einer, der dazu beitragen wird, nicht nur die Technologiebranche zu definieren, sondern auch, wie die Welt in den kommenden Jahrzehnten funktioniert.

Im Jahr 1842 schrieb die Lady Ada Lovelace das erste Programm der Welt. Lange bevor es Computer oder Software gab. Das Programm sollte Bernoulli-Zahlen auf Charles Babbages Analytical Engine berechnen, einem programmierbaren Rechengerät, das Babbage aber letztlich nie gebaut hat. Dieses Programm und die Art und Weise, wie es geschrieben wurde, haben die Art und Weise festgelegt, wie wir seitdem komplexe Verhaltensweisen aus Computergeräten herausgeholt haben. Ein menschliches Wesen – ein Informatiker, ein Programmierer, ein Softwareingenieur etc. – verbringt Zeit damit, die Fähigkeiten und Grenzen eines Computergeräts und den Katalog der verfügbaren Softwareabstraktionen, die Menschen im Laufe der Zeit entwickelt haben, zu verstehen. Und dann übersetzt dieser Programmierer einen Ausdruck eines Problems, das gelöst werden muss, in ein Programm, das eine Maschine ausführen kann, um zu einer Lösung zu gelangen.

In diesen mehr als 180 Jahren sind die Computer sicherlich leistungsfähiger geworden, ebenso wie die Software-Abstraktionen, um sie zu programmieren. Aber im Grunde programmieren wir Computer heute noch so, wie wir sie in der ersten Hälfte des 19. Jahrhunderts programmiert haben: Wenn Sie möchten, dass ein Computer Sie bei einer Aufgabe unterstützt, die Sie erledigen möchten, müssen Sie entweder gut im Programmieren werden, oder Sie müssen hoffen, dass Programmierer Ihre Bedürfnisse möglichst gut vorhergesehen haben und bereits ein Programm geschrieben haben, das Sie verwenden können.

Bei den großen Revolutionen in der Datenverarbeitung in den letzten 50 Jahren ging es im Grunde immer um zwei Dinge: Rechenleistung für jeden auf der Welt zugänglicher zu machen und diese Rechenleistung nutzbar zu machen, indem die Programme entwickelt werden, die die Welt braucht, um diese allgegenwärtige Rechenleistung zu nutzen. Auch bei der PC-Revolution ging es um diese beiden Dinge: Das Mooresche Gesetz half uns, billige Rechenleistung in die Welt zu bringen, und Windows und sein Ecosystem an Anwendungen lieferten die Software, um die Leistungsfähigkeit dieser Rechenleistung zu nutzen. Bei der Internet-Revolution ging es ebenso um diese beiden Dinge: die Aggregation von billiger, handelsüblicher Rechenleistung in der Cloud und eine neue Kategorie verteilter Anwendungen, die durch die Suche entdeckt und sofort überall auf der Welt an Milliarden von Benutzern bereitgestellt werden konnten. Und bei der Smartphone-Revolution ging es ebenfalls um diese beiden Dinge: einen leistungsstarken, ständig verfügbaren Computer in die Tasche zu stecken, der mit einer expandierenden Cloud verbunden ist, und eine neue Kategorie von Apps, die für echte Allgegenwart und allgegenwärtige Konnektivität konzipiert sind.

Im Jahr 2023 stehen wir am Beginn einer vierten Revolution. Wie bei jeder der vorangegangenen Revolutionen, geht es auch hier um das Zusammenfließen neuer Technologien, die zum ersten Mal etwas Neues und unglaublich Überzeugendes möglich machen. Wie die vorherigen Revolutionen wird es von Rechenleistung angetrieben, obwohl es sich in der Form von dem unterscheidet, was die meisten von uns gewohnt sind. Im Gegensatz zu diesen früheren Revolutionen wird es bei der Art und Weise, wie Menschen die Rechenleistung nutzen, viel mehr um ihre individuellen Bedürfnisse und Vorlieben gehen und viel weniger davon abhängen, dass wir alles für sie antizipieren und dabei hoffen, dass sie die von uns geschaffene Komplexität bewältigen können, um Lösungen für ihre Probleme zu schaffen.

Zum ersten Mal seit fast zwei Jahrhunderten wird es für jeden Menschen eine Möglichkeit geben, seine Absicht auf eine sehr natürliche Weise gegenüber einem Computergerät auszudrücken, ohne dass irgendjemand jemals darüber nachdenken und kodieren musste, wie diese Absicht in eine nützliche Antwort übersetzt werden kann. Diese Art der Interaktion erfordert weder die Fähigkeiten eines Programmierers noch, dass ein Programmierer die spezifischen Bedürfnisse des Benutzers vorhergesehen und ein Programm zur Lösung des Benutzerproblems vorgefertigt hat. Es wird sich für die Benutzer in vielerlei Hinsicht anders anfühlen, zumindest zutiefst persönlich, flexibler und möglicherweise natürlicher als die Software, an die sie sich gewöhnt haben. Und vielleicht am bemerkenswertesten ist, dass die Bandbreite der Probleme, die wir auf diese Weise für die Nutzer lösen können, bereits sehr breit ist und sich in den nächsten Jahren in atemberaubendem Tempo weiter ausweiten wird.

Dies ist die Ära des KI-Copiloten. 

Die Grundlagenmodelle

Die einzige Möglichkeit, die Grenzen des Möglichen zu entdecken, besteht darin, sich ein wenig über sie hinaus ins Unmögliche zu wagen.

– Arthur C. Clarke

Unser KI-Moment beginnt in erster Linie mit der Entwicklung einer leistungsfähigen, allgemeinen KI. Viele Etiketten wurden auf diese Systeme angewendet, mit jüngsten Proklamationen, dass dies das Zeitalter der generativen KI oder die Ära der Large Language Models (LLMs) ist. Unabhängig von der Bezeichnung sehen wir eine Klasse von KI-Modellen, die seitens Microsoft als Foundation-Modelle bezeichnet werden, die auf und mit verblüffenden Daten- und Rechenmengen trainiert wurden und die mit zunehmender Skalierung allgemeiner und leistungsfähiger werden. Mit dieser Allgemeingültigkeit und Leistungsfähigkeit können wir diese Foundation-Modelle als Plattformen für die Entwicklung anderer Software behandeln.

Wir wissen aus unserer doch schon recht langen Firmengeschichte recht gut, was es heißt, der Welt Computerplattformen zur Verfügung zu stellen, die es über einer Milliarde Menschen ermöglicht, diese auch produktiv zu nützen und damit entlang unseres Firmenmottos „mehr zu erreichen“. Im Jahr 2023 würde daher auch niemand ernsthaft auf den Gedanken kommen, dass er jede Software entwickeln muss, die eine Anwendung ermöglicht. Wir nutzen die uns zur Verfügung stehenden Compiler, Debugger, Betriebssysteme, Datenbanken, Softwarebibliotheken und Frameworks, Clouds und Cloud-Dienste sowie andere Plattformkomponenten, um schnell und effizient leistungsstarke Anwendungen für unsere Nutzer zu erstellen. Foundation-Modelle sind jetzt eine weitere Komponente in unserer Plattform, mit der wir die leistungsstarke Software der Zukunft entwickeln können.

Neben der Beschleunigung der Entwicklung von Software und der Erschließung neuer Fähigkeiten für die Entwickler dieser Software bieten uns diese Art von Plattformen einen leistungsstarken Mechanismus zur Trennung von Problemen, und richtig aufgebaut, ermöglichen sie die Entstehung von Netzwerkeffekten. Für Anwendungsentwickler bedeutet dies, dass sie sich auf das konzentrieren können, was Sie für Ihre Benutzer erreichen möchten, ohne sich um das Innenleben und die potenziell hohe Komplexität der Plattformkomponenten kümmern zu müssen, von denen die Anwendung abhängt. Für die Plattformentwickler ermöglicht es wiederum, sich auf Leistung, Kosten, allgemeinen Nutzen, Qualität und Sicherheit der Infrastruktur zu konzentrieren, die Sie für andere erstellen. Und je mehr Menschen Ihre Plattform nutzen, desto besseres Feedback erhalten sie und erfahren laufend mehr darüber, wie sie diese weiter verbessern können um zu einer immer besseren Qualität der Anwendung zu kommen.

Was bedeutet es also, wenn ein Foundation-Modell eine Plattform ist? Im Wesentlichen bedeutet dies, dass ein Entwickler oder ein Team nicht herausfinden muss, wie ein Modell für seine Anwendung von Grund auf neu trainiert und optimiert werden kann, sondern vielmehr über standardisierte Schnittstellen (APIs) Aufrufe an eine in der Cloud vorgehaltene Version eines Foundation-Modells direkt aus seiner Anwendung heraus ausführen kann. Dies ist eine sehr große Veränderung in der Art und Weise, wie Teams die Leistungsfähigkeit von KI in ihre Anwendungen integrieren werden, ähnlich wie in den 1960er und 1970er Jahren der Wechsel vom Single-Purpose-Computing zum Time-Sharing. Auf der Infrastrukturseite ermöglicht uns diese Verschiebung, mit den monströsen Kosten und der wachsenden Komplexität der Erstellung von Foundation-Modellen umzugehen, so dass wir unsere Computerressourcen und Kenntnisse sorgfältig darauf konzentrieren können, Dinge zu entwickeln, die im Laufe der Zeit für alle, die sie verwenden, vielfältiger, leistungsfähiger, kostengünstiger und sicherer werden. Es ermöglicht uns auch, mit Problemen umzugehen, die dieser neuen Art des Rechnens innewohnen, mit denen sich noch nie jemand zuvor befassen musste: wie das Erstellen eines konsistenten Verhaltens aus etwas, das von Natur aus stochastisch ist.

Das vielleicht Wichtigste, das bei großen Foundation-Modellen zu beachten ist, ist, dass sie immer leistungsfähiger werden. Die aktuelle Generation von Modellen kann Code schreiben und verändern, komplexe Pläne formulieren, eine Vielzahl von qualitativ hochwertigen Inhalten generieren, komplexe Informationen zusammenfassen und eine Vielzahl anderer kognitiver Aufgaben ausführen. Die nächste Generation wird bei diesen Aufgaben noch fähiger sein als die jetzige Generation, und wie bei früheren Generationen werden dabei neue Fähigkeiten entstehen. Die Geschwindigkeit des Wandels mag dabei für viele atemberaubend sein. Und es wird dabei auch sehr verlockend sein, die Vorhersagen darüber, was sich in Zukunft verbessern wird, mit Skepsis zu betrachten und die Fähigkeiten der vorliegenden Modelle eher mit einem gewissen Maß an Unglauben zu betrachten. Während wir gut beraten sind, lieber auf dem Boden zu bleiben, möchte ich hier noch einmal Arthur C. Clarke zitieren, diesmal mit einer Umschreibung seines Dritten Gesetzes:

Wenn Experten sagen, dass etwas möglich ist, haben sie mit ziemlicher Sicherheit Recht.

Wenn sie sagen, dass etwas unmöglich ist, liegen sie sehr wahrscheinlich falsch.

Arthur C. Clarke

Es ist oft so, dass Menschen einen Fehler in der aktuellen Generation von Modellen betrachten und diesen dann zu einer Behauptung extrapolieren, dass eine Art von Modell oder die gesamte moderne KI auf eine Weise grundlegend fehlerhaft ist, die nicht behoben werden kann. Aus der Beobachtung mehrerer Generationen von Verbesserungen des Foundation-Modells geht allerdings hervor, dass diese Behauptungen mehrheitlich falsch sind. So haben wir etwa in letzter Zeit beobachtet, wie Leute anekdotische Fehler in ChatGPT aufzeigen, um Behauptungen zu stützen, dass dies ohnehin nie funktionieren wird. Aber noch während diese Leute diese Behauptungen aufgestellt haben, hatten wir bereits Zugang zu leistungsfähigeren, unveröffentlichten Modellen, in denen diese anekdotischen Fehler bereits behoben wurden. Wie es beispielsweise in der ersten Woche nach Veröffentlichung der preview zu bing chat der Fall war.

Es spricht ja nichts dagegen, skeptisch zu sein. Aber wenn Sie skeptisch sind, fragen Sie sich auch, warum, und wozu dient diese Skepsis? Fragen Sie nicht nur: „Warum nicht?“ – Fragen Sie besser „Was wäre, wenn?“

Copiloten

Die Frage, die Sie sich stellen müssen, wenn Sie Foundation-Modelle haben, die als Plattformen fungieren, ist: Was sollten wir mit ihnen bauen? Das Schöne an derartigen Plattformen ist, dass es dafür keine eindeutige Antwort gibt. Es ist nun unsere Aufgabe das herauszufinden! Aber eine Sache, von der wir uns immer sicherer sind, ist, dass Foundation Models eine brandneue Kategorie von Software schaffen werden, vielleicht die wichtigste Kategorie, die jemals geschaffen wurde: den Copiloten.

Ein Copilot macht genau das, was der Name vermuten lässt. Es dient als fachkundiger Helfer für einen Benutzer, der versucht, eine komplexe Aufgabe zu erfüllen. Ein Copilot hat eine Handvoll definierender Eigenschaften:

  1. Copiloten verfügen über eine dialogorientierte Benutzeroberfläche. Benutzer interagieren mit natürlicher Sprache auf die gleiche Weise, wie sie es tun würden, wenn sie mit einem Experten sprechen. Die Standarderwartung eines Benutzers an seinen Copiloten ist, dass er in der Lage ist, ihm bei der Lösung seines Problems zu helfen, egal wie komplex oder schlecht definiert es ist. In gewisser Weise kann eine Interaktion mit einem Copiloten damit sogar noch reichhaltiger sein als eine mit einem Experten. Denn der Copilot ist keine Autorität, die immer recht hat und den Benutzer bevormundet. Der Copilot hilft dem Benutzer vielmehr, seine Aufgaben in den meisten Fällen erfolgreich und meist auch schneller zu erledigen, so dass der Benutzer sukzessive versteht, wo er sich auf die Fähigkeiten des Copiloten verlassen kann. Der Copilot hilft dem Benutzer dabei auch zu verstehen, worauf zu vertrauen ist und gleichzeitig auch, wo die Grenzen seiner Fähigkeiten liegen.
  2. Copiloten basieren auf Grundlagenmodellen: entweder großen Sprachmodellen (LLM) oder großen multimodalen Modellen (LMM). Die Modelle sind das Herzstück sowohl der Konversationsfähigkeiten eines Copiloten als auch seiner Fähigkeit, Benutzer bei komplexen Aufgaben zu unterstützen. Copiloten hängen von den gleichen zugrunde liegenden Basismodellen ab, was bedeutet, dass jeder Copilot diese Vorteile erbt, wenn die grundlegenden Modelle leistungsfähiger, schneller und billiger werden.
  3. Wenn die Fähigkeiten des LLM oder LMM des Copiloten nicht ausreichen, um eine Aufgabe zu lösen, können seine Fähigkeiten um Fähigkeiten (Skills) erweitert werden. Skills können programmierter Code sein oder auch nur Aufrufe an andere Modelle oder beides. Skills sollten einfach zu erstellen, zu verteilen, zu entdecken und in einen Copiloten zu integrieren sowie zwischen Copiloten austauschbar sein. Der Copilot verwendet dabei Grundlagenmodelle, um zu entscheiden, welche Skills verwendet werden sollen, um die jeweilige Anforderung des Benutzers zu verarbeiten.
  4. Er hat einen Umfang. Der Umfang eines Copiloten kann eine Aktivität sein, mit der wir bereits vertraut sind, vielleicht eine, mit der bereits eine Reihe von Produkten und Arbeitsprozesse verbunden sind. GitHub Copilot ist ein Copilot für Coding. Bing Chat ist ein Copilot für die Suche. Copiloten wie etwa der in Office 365 können auch einen Umfang haben, der ziemlich breit gefächert ist oder nicht genau in bestehende Produktkategorien oder Geschäftsmodelle passt. In der Tat können Copiloten so einfach zu erstellen und zu verwenden sein, dass sie zum neuen Äquivalent des „Dokuments“ werden, etwas, das von Benutzern mannigfaltig erstellt werden kann, um zu helfen, eine große Vielfalt und einen breiten Umfang von Aufgaben zu erfüllen. ChatGPT etwa ist ein breit angelegter Copilot, obwohl zu jedem Zeitpunkt das, wofür ein Benutzer ChatGPT verwendet – einen Aufsatz schreiben, Code umgestalten, Fragen beantworten usw. – einen engeren Umfang hat. Das vielleicht Wichtigste, wenn wir über den Copilot-Umfang nachdenken, ist, dass wir, solange Copilots das gleiche Modell und die gleiche Skill-Plattform verwenden, unglaublich flexibel sein können, wenn es darum geht, deren Umfang an die Präferenzen und Bedürfnisse der Benutzer anzupassen.

Einen Copiloten zu bauen sollte einfach sein, vielleicht so einfach, dass jeder Mensch auf dem Planeten beliebig viele davon erstellen kann. Wie Andrej Karpathy kürzlich sagte: „Die heißeste neue Programmiersprache ist Englisch (bzw. für uns hierzulande Deutsch).“ Wir sind schon nah dran, aber bald könnte es möglich sein, einen Copiloten zu „programmieren“, indem man sich einfach iterativ mit dem Copiloten selbst unterhält und ihm Feedback gibt. Genau wie wir es mit Menschen tun, werden wir damit sukzessive Vertrauen aufbauen, indem wir unsere immer komplexeren Aufgaben erforschen und testen.

Lessons Learned

Unser Vertrauen in diesen Ansatz basiert auf den Erfahrungen, die wir in den letzten vier Jahren gemacht haben. Da wir unsere Ressourcen auf die Entwicklung und Skalierung von Grundlagenmodellen konzentriert haben, haben wir immer wieder gesehen, wie viel Fortschritt wir machen können, und darüber hinaus, dass sich die Fortschritte referentiell zu verstärken beginnen. Wir haben vor mehr als zwei Jahren mit der Entwicklung unseres ersten Copiloten, eines GitHub-Codierungsassistenten, begonnen und haben jetzt zwei weitere Copiloten mit ChatGPT und Bing Chat im Betrieb. Von diesen Produkteinführungen wissen wir, dass die Benutzer diese neue Produktkategorie sehr schätzen, dass wir einen echten Mehrwert für die Benutzer schaffen können und dass wir wissen, wie wir Copiloten mit all den Kosten-, Leistungs-, Qualitäts- und Sicherheitsüberlegungen arbeiten lassen können, die mit dem Service für eine große Anzahl von Benutzern einhergehen.

Wir haben viel Zeit damit verbracht, das, was wir gelernt haben, in eine Reihe von Prinzipien zu destillieren, die uns bei den Entscheidungen helfen, die wir in den kommenden Monaten und Jahren treffen werden.

  1. Denken wir nicht inkrementell. Diese Technologie schafft die Möglichkeit für sehr wertvolle Produkte und Möglichkeiten, die noch vor wenigen Monaten undenkbar gewesen wären. Es ist in Ordnung, einige Zeit damit zu verbringen, unsere bestehenden Produkte und Dienstleistungen mit unseren neuen KI-Tools zu optimieren, aber wir sollten uns mehr darauf konzentrieren, die Produkte und Services zu entwickeln, die es noch nicht gibt.
  2. Die KI Disruption wird mit oder ohne uns passieren. So wie jede neue Technologieplattform zu einer enormen Menge an Innovation und Disruption geführt hat, werden dies auch die KI Grundlagenmodelle und Copiloten tun. Wir haben zwei realistische Möglichkeiten: Disruptive Dinge zu schaffen, dabei vielleicht auch Dinge, die uns selbst verändern, oder anderen dabei zuzusehen, wie sie die Welt verändern.
  3. Es gibt keine Burggräben. Der Mechanismus, mit dem Grundlagenmodelle funktionieren, ist nicht gleichbedeutend mit einem Burggraben gegenüber anderen Marktteilnehmern, ebenso wenig wie der Zugang zu einer primären Quelle von Wahrheit als Daten für Trainingsmodelle. Es wird einen Wettbewerb um den Bau von Grundlagenmodellen geben. Und wenn überhaupt, werden die Grundlagenmodelle selbst und das App-Modell, das sie zulassen, eher bedeuten, dass das Speichern der „Quelle der Wahrheit“ -Daten von jemandem anderen gar nicht so vorteilhaft ist, wie es jetzt vielleicht scheint. Ein reichhaltiges Copilot- und Copilot-Ökosystem hat auch das Potenzial für Netzwerkeffekte, da mehr Copiloten mit interoperableren Fähigkeiten auch bedeuten, dass alle Copiloten und die gesamte Plattform für alle besser werden.
  4. Nutzung von Grundlagenmodellen als Plattformen für reale Anwendung. Der einfachste Weg, KI-Anwendungen mit einem Basismodell zu erstellen, besteht darin, ein vorhandenes Modell über eine unserer Programmierschnittstellen (APIs) zu nutzen. Am zweiteinfachsten ist es, eine unserer Feinabstimmungs-APIs zu verwenden, um ein vorhandenes Modell an Ihre Bedürfnisse anzupassen. Die dritteinfachste Sache – die überhaupt nicht einfach ist – besteht darin, ein Grundlagenmodell zu verfeinern oder neu zu trainieren, um Leistungsmerkmale zu erreichen, die Sie auf keine andere Weise erreichen können. Dies wird nur möglich sein, wenn diese Leistungsverbesserungen auch Hunderte von Millionen oder Milliarden Dollar an Wert freisetzen können (entweder durch Kosteneinsparungen oder neue Umsatzmöglichkeiten) und hoffentlich zur Verbesserung aller Modelle im Ökosystem beitragen.
  5. Die Modelle werden immer leistungsfähiger. Wo wir jetzt stehen, ist nur ein einzelner Zeitpunkt entlang der gesamten Entwicklung. Die Modelle sind heute wesentlich leistungsfähiger als die, zu denen wir noch vor wenigen Monaten Zugang hatten. Wir haben gesehen, wie aus jeder Generation von Modellen neue Fähigkeiten hervorgegangen sind und sich die Leistung in allen Bereichen in teilweise atemberaubender Geschwindigkeit weiter verbessert. Wir sollten davon ausgehen, dass sich dies fortsetzt. Beschränken Sie Ihre Ambitionen also nicht auf das, was Sie gerade sehen: Was jetzt teuer ist, wird bald billig sein. Was jetzt fehlerhaft ist, wird morgen behoben werden. Was jetzt unmöglich ist, wird möglich sein, bevor Sie es erfahren.
  6. Kompromisslos Prioritäten setzen. Wir werden viel mehr Möglichkeiten haben, Dinge zu tun, viel mehr Ideen, die wir ausprobieren können, und viel mehr Begeisterung, um zu experimentieren, als wir die Kapazitäten dafür haben werden. Wir müssen daher sehr gut priorisieren und nur in die Dinge investieren, die die größtmögliche Wirkung haben. Das bedeutet, dass viele gute und interessante Dinge unerledigt bleiben, was in Ordnung ist. Wir sollten nur die größten und strategisch wichtigsten Dinge finanzieren, anstatt unsere Kapazitäten über zu viele Dinge hinweg zu verzetteln. Das Wichtigste für alle wird sein, darüber nachzudenken, wie sie selbst Chancen und Erfolg charakterisieren und messen, damit wir möglichst gut die richtigen Prioritäten setzen können.
  7. Das Potenzial von Copilots ist enorm. Es zeichnet sich jetzt schon recht klar ab, dass die Benutzer Copilots wertvoll finden und dass die Konversationsschnittstellen von Copiloten allein manchmal auch weniger leistungsfähige Modelle sehr relevant machen können (eine wichtige Lektion aus ChatGPT), aber das Potenzial von Copilots ist wahrscheinlich noch größer, als sich jeder von uns derzeit vorstellt. Wenn interoperable Copiloten einfach zu erstellen sind, wird ein einzelner Benutzer wahrscheinlich über so viele Copiloten verfügen, wie er derzeit über Dokumente verfügt, die alle unabhängig oder gemeinsam arbeiten, um den Benutzer bei jedem Aspekt seiner Arbeit und seines Privatlebens zu unterstützen.
  8. Sicherheit und Verantwortung sind entscheidend. Es mag für einige den Anschein haben, dass wir uns zu schnell bewegen, aber alles, was wir jetzt tun, hat Jahre gedauert. Wir sind an dem heutigen Punkt angelangt, an dem wir diese Produkte entwickeln und bereitstellen können, weil wir viele Jahre damit verbracht haben, in verantwortungsvolle KI-Praktiken zu investieren, so dass wir die Systeme wie unsere „Responsible AI“ Standards und das AETHER-Komitee in Microsoft Research eingerichtet haben. Wir wissen, dass wir nicht alles richtig machen werden, aber wir haben strenge Prozesse, um Risiken zu testen und zu beseitigen, bevor wir diese Produkte auf den Markt bringen, und wenn wir Probleme in unseren Produkten entdecken, verfolgen wir einen klar auf Prinzipien gestützten Ansatz, um sie zu beheben.

Schlussbemerkungen

Dieses Beitrag ist keineswegs als eine umfassende Beschreibung der KI-Architektur von Microsoft gedacht, sondern mehr als ein allgemeiner Überblick über die wichtigsten Aspekte dieser Architektur. Mit einer Art von gemeinsamem Vokabular für die Teile dieser neuen Art von Anwendungen, die gerade im Entstehen sind.

Ich selbst bin jetzt seit über 30 Jahren in der IT-Branche unterwegs und ich muss sagen, dass ich noch nie einen Moment in meiner Karriere erlebt habe, in dem sich in meinem Bereich so viel so schnell verändert hat und in dem die Möglichkeiten, sich neu vorzustellen, was möglich ist, so präsent gewesen wären. Und stellt damit auch eine ziemlich steile Lernkurve für mich dar. Ich habe gesehen, wie sich die PC-Revolution entfaltete, und wie die Computerbranche durch die Internet-Revolution und die Smartphone-Revolution geprägt wurde. Was nun vor mir liegt, fühlt sich für mich noch aufregender und wundersamer an.

»Das kann ich nicht glauben!« sagte Alice.

»Kannst du nicht?« fragte die Königin mitleidig. „Versuch es noch einmal, atme tief durch und schließe die Augen.“

Alice lachte. „Es hat keinen Sinn, es zu versuchen“, sagte sie. „Man kann unmögliche Dinge nicht glauben.“

„Ich wage zu behaupten, dass Du nicht viel Übung hast“, sagte die Königin. „Als ich in deinem Alter war, habe ich es immer eine halbe Stunde am Tag gemacht. Manchmal habe ich vor dem Frühstück an bis zu sechs unmögliche Dinge geglaubt.“

Alice und die Herzkönigin, Alice im Wunderland, Lewis Carroll

[Inspiriert vom Microsoft Memo „The era of AI“, April 2023]


2 Gedanken zu “Die Ära der KI-Copiloten

  1. Schon erstaunlich, was ziemlich zeitnahe auf uns zukommt. Absolut lesenswert.
    Dennoch bleibe ich immer noch dem „inkrementellen Denken“ ein wenig verhaftet.

Hinterlasse einen Kommentar