
In Reid Hoffmans neuem Buch Superagency: Was könnte mit unserer KI-Zukunft möglicherweise richtig sein, macht der Mitbegründer von LinkedIn geltend, dass KI die menschliche Handlungsfähigkeit erweitern kann - indem sie uns mehr Wissen, bessere Arbeitsplätze und verbesserte Leben bringt - anstatt sie zu reduzieren.
Das bedeutet nicht, dass er die potenziellen Nachteile der Technologie ignoriert. Tatsächlich beschreibt Hoffman (der das Buch mit Greg Beato geschrieben hat) seinen Ausblick auf KI und Technologie im Allgemeinen als einen, der sich auf \"intelligentes Risikomanagement\" konzentriert, anstatt auf blinden Optimismus.
\"Alle, im Allgemeinen gesprochen, konzentrieren sich viel zu sehr darauf, was schiefgehen könnte, und nicht ausreichend darauf, was gut gehen könnte\", sagte Hoffman mir.
Und obwohl er sagte, dass er \"intelligente Regulierung\" unterstützt, argumentierte er, dass ein \"iterativer Einsatz\"-Prozess, der KI-Tools in die Hände aller bringt und dann auf ihr Feedback reagiert, noch wichtiger ist, um positive Ergebnisse zu gewährleisten.
\"Einer der Gründe, warum Autos heute schneller fahren können als bei ihrer ersten Herstellung, ist ... dass wir eine Reihe von Innovationen rund um Bremsen, Airbags, Stoßstangen und Sicherheitsgurte gefunden haben\", sagte Hoffman. \"Innovation ist nicht nur unsicher, sie führt tatsächlich zu Sicherheit.\"
In unserem Gespräch über sein Buch diskutierten wir auch die Vorteile, die Hoffman (der auch ehemaliges Vorstandsmitglied von OpenAI, derzeitiges Vorstandsmitglied von Microsoft und Partner bei Greylock) bereits von KI sieht, den potenziellen Klimaeinfluss der Technologie und den Unterschied zwischen einem KI-Pessimisten und einem KI-Grübler.
Dieses Interview wurde aus Gründen der Kürze und Klarheit bearbeitet.
Du hattest bereits ein anderes Buch über KI geschrieben, Impromptu. Mit Superagency, was wolltest du sagen, das du nicht schon gesagt hattest?
Also, Impromptu versuchte größtenteils zu zeigen, dass KI [die] relativ einfache Verstärkung [der] Intelligenz bieten könnte, und zeigte es auch, indem es über verschiedene Vektoren erzählte. Superagency dreht sich viel mehr um die Frage, wie eigentlich unsere menschliche Handlungsfähigkeit stark verbessert wird, nicht nur durch Superkräfte, was offensichtlich ein Teil davon ist, sondern durch die Transformation unserer Branchen, unserer Gesellschaften, da wir alle von diesen neuen Technologien diese Superkräfte bekommen.
Der allgemeine Diskurs über diese Dinge beginnt immer mit einem hohen Pessimismus und verwandelt sich dann in - nennen wir es einen neuen erhöhten Stand der Menschheit und Gesellschaft. KI ist nur die neueste disruptive Technologie in diesem Bereich. Impromptu hat die Bedenken nicht so sehr angesprochen ... den Weg zu dieser menschlicheren Zukunft zu gehen.

Du beginnst damit, die verschiedenen Sichtweisen auf KI in diese Kategorien zu unterteilen - Grübler, Pessimisten, Optimisten, Aufblüher. Wir können uns mit jedem von ihnen befassen, aber wir werden mit einem Aufblüher beginnen, da du dich selbst als solchen klassifizierst. Was ist ein Aufblüher und warum betrachtest du dich als einen?
Ich denke, ein Aufblüher ist von Natur aus technologieoptimistisch und [glaubt] daran, dass der Aufbau von Technologien sehr, sehr gut für uns als Einzelpersonen, Gruppen, Gesellschaften, als Menschheit sein kann, aber das [bedeutet] nicht, dass alles, was du bauen kannst, großartig ist.
Also sollte man mit intelligentem Risikomanagement navigieren, aber nicht mit blindem Risikomanagement, und in einen Dialog und Interaktion eintreten, um zu lenken. Ein Grund, warum wir im Buch viel über iterativen Einsatz sprechen, ist, weil die Idee ist, dass du mit vielen Menschen durch iterativen Einsatz in dieses Gespräch eintreten kannst. Du lenkst das, um zu sagen: \"Oh, wenn es diese Form hat, ist es für alle viel, viel besser. Und es begrenzt diese schlechten Fälle sowohl in ihrer Prävalenz als auch in ihrem Einfluss.\"
Und wenn du über Lenkung sprichst, dann gibt es Regulierung, über die wir noch sprechen werden, aber du scheinst zu glauben, dass das größte Versprechen darin liegt, solche Art von iterativem Einsatz, insbesondere im großen Maßstab. Glaubst du, dass die Vorteile einfach eingebaut sind - also, wenn wir KI in die Hände der meisten Menschen legen, ist es im Wesenskern demokratisch? Oder denkst du, dass die Produkte so gestaltet werden müssen, dass die Menschen Einfluss nehmen können?
Nun, das könnte von den verschiedenen Produkten abhängen. Aber eines der Dinge, die wir im Buch veranschaulichen wollen, ist zu sagen, dass einfach über das Produkt zu sprechen - einschließlich Verwendung, Nichtverwendung, Verwendung auf bestimmte Weise -, das ist tatsächlich ein Interagieren und Helfen beim Formen [des Produkts], oder nicht? Denn die Menschen, die sie bauen, betrachten dieses Feedback. Sie schauen sich an: Hatst du dich beteiligt? Hast du dich nicht beteiligt? Sie hören sich die Leute online und in der Presse und allem anderen an, sagen: \"Hey, das ist großartig.\" Oder: \"Hey, das ist echt Mist.\" Das ist eine große Lenkung und ein großes Feedback von vielen Menschen, getrennt von dem, was du durch meine Daten, die in der Iteration enthalten sein könnten, oder was ich wählen oder auf irgendeine Weise direktes, direktionales Feedback ausdrücken könnte, bekommst.
Ich versuche zu verstehen, wie diese Mechanismen funktionieren, weil, wie du im Buch feststellst, insbesondere bei ChatGPT, es unglaublich beliebt geworden ist. Also, wenn ich sage, \"Hey, ich mag diese Sache an ChatGPT nicht\" oder \"Ich habe diese Einwände dagegen und werde es nicht verwenden\", wird das von so vielen Menschen, die es benutzen, einfach untergehen.
Ein Teil davon ist, dass Hunderte Millionen von Menschen teilnehmen, bedeutet nicht, dass du jede Einwände von jedem beantwortest. Einige Leute könnten sagen: \"Kein Auto sollte schneller als 20 Meilen pro Stunde fahren.\" Nun, schön, dass du das denkst.
Es ist die Summe [des Feedbacks]. Und in der Summe, wenn du beispielsweise etwas äußerst, das eine Herausforderung oder eine Unsicherheit oder eine Verschiebung ausdrückt, und dann fangen andere Leute auch an, das auszudrücken, dann ist es wahrscheinlicher, dass es gehört und geändert wird.
Und ein Teil davon ist, dass zum Beispiel OpenAI mit Anthropic konkurriert und umgekehrt. Sie hören ziemlich genau zu, nicht nur was sie jetzt hören, sondern ... zielen auf wertvolle Dinge ab, die die Menschen wollen, und weichen auch von herausfordernden Dingen ab, die die Menschen nicht wollen.
Wir wollen vielleicht als Verbraucher von diesen Tools profitieren, aber sie können potenziell in Weisen schädlich sein, die mir als Verbraucher nicht unbedingt sichtbar sind. Ist dieser iterative Einsatzprozess etwas, das auch andere Bedenken, vielleicht gesellschaftliche Bedenken, angehen wird, die für einzelne Verbraucher nicht sichtbar sind?
Nun, ein Teil der Grund, warum ich über das Buch Superagency geschrieben habe, ist, dass die Leute tatsächlich auch den Dialog über gesellschaftliche Bedenken führen sollen. Zum Beispiel sagen Menschen, \"Nun, ich denke, KI wird dazu führen, dass die Menschen ihre Handlungsfähigkeit aufgeben und Entscheidungen über ihr Leben aufgeben.\" Und dann gehen die Menschen und spielen mit ChatGPT und sagen, \"Nun, ich habe diese Erfahrung nicht.\" Und wenn sehr wenige von uns tatsächlich den Verlust dieser Agentur erleben, dann ist das das Quasi-Argument dagegen, nicht wahr?
Du sprichst auch über Regulierung. Es klingt so, als ob du für Regulierung in einigen Kontexten offen bist, aber du machst dir Sorgen, dass Regulierung möglicherweise die Innovation ersticken könnte. Kannst du mehr darüber sagen, wie du sinnvolle KI-Regulierung aussiehst?
Also, es gibt ein paar Bereiche, weil ich tatsächlich positiv auf intelligente Regulierung bin. Ein Bereich ist, wenn du wirklich spezifische, sehr wichtige Dinge verhindern möchtest - Terrorismus, Cyberkriminalität, andere Arten von Dingen. Du versuchst, im Grunde genommen dieses wirklich schlechte Ding zu verhindern, aber eine breite Palette anderer Dinge zuzulassen, sodass du darüber diskutieren kannst: Was sind die Dinge, die sich auf diese spezifischen Ergebnisse ausreichend eng konzentrieren?
Darüber hinaus gibt es ein Kapitel darüber [wie] Innovation auch Sicherheit ist, weil, wenn du Innovationen schaffst, schaffst du auch neue Sicherheits- und Alignmentsfunktionen. Und es ist wichtig, dorthin zu kommen, weil ein Teil des Grundes, warum Autos heute schneller fahren können als bei ihrer Erstherstellung, ist, dass wir eine Reihe von verschiedenen Innovationen um Bremsen, Airbags, Stoßstangen und Sicherheitsgurte gefunden haben. Innovation ist nicht nur unsicher, sie führt tatsächlich zu Sicherheit.
Was ich Menschen, insbesondere in einer schnelllebigen und iterativen Regierungsumgebung, ans Herzen lege, ist, ihr spezifisches Anliegen als etwas zu artikulieren, das messbar ist, und dieses dann anzufangen zu messen. Denn dann, wenn du siehst, dass diese Messung auf eine starke oder besorgniserregende Weise wächst, kannst du sagen, \"OK, lass uns das erkunden und sehen, ob es Dinge gibt, die wir tun können.\"
Es gibt noch eine Unterscheidung, die du machst, zwischen den Grüblern und den Pessimisten - die Pessimisten sind diejenigen, die sich mehr um das existenzielle Risiko der Superintelligenz sorgen, während die Grübler sich mehr um die kurzfristigen Risiken in Bezug auf Arbeitsplätze, Urheberrechte, eine Vielzahl anderer Dinge sorgen. Die Teile des Buches, die ich gelesen habe, scheinen sich mehr darauf zu konzentrieren, die Kritikpunkte der Grübler anzusprechen.
Ich würde sagen, ich versuche, das Buch für zwei Gruppen zu adressieren. Eine Gruppe sind alle, die zwischen KI-skeptisch - was auch die Grübler einschließt - und KI-neugierig sind.
Und die andere Gruppe sind Technologen und Innovatoren, die sagen, \"Schau, ein Teil dessen, was den Menschen wirklich wichtig ist, ist menschliche Handlungsfähigkeit. Also, lasst uns das als Designlinse in Bezug auf das, was wir für die Zukunft bauen, nehmen. Und indem wir das als Designlinse nehmen, können wir auch helfen, noch bessere, die Agentur fördernde Technologien zu bauen.\"
Was sind einige aktuelle oder zukünftige Beispiele dafür, wie KI die menschliche Handlungsfähigkeit erweitern könnte, statt sie zu reduzieren?
Ein Teil dessen, was das Buch versuchte zu tun, ein Teil von Superagency, ist, dass die Leute dazu neigen, dies auf \"Welche Superkräfte bekomme ich?\" zu reduzieren, aber sie erkennen nicht, dass Superagentur dann entsteht, wenn viele Menschen Superkräfte bekommen, davon profitiere auch ich.
Ein klassisches Beispiel sind Autos. Oh, ich kann an andere Orte gehen, aber wenn andere Menschen an andere Orte gehen, kann ein Arzt zu dir nach Hause kommen, wenn du nicht weg kannst, und einen Hausbesuch machen. Also erhaltet ihr kollektiv Superagenz, und das ist heute wertvoll.
Ich denke, wir haben bereits mit den heutigen KI-Tools eine Menge Superkräfte, die Fähigkeiten zum Lernen beinhalten können. Ich weiß nicht, ob du das gemacht hast, aber ich ging hin und sagte, \"Erkläre die Quantenmechanik einem Fünfjährigen, einem Zwölfjährigen, einem Achtzehnjährigen.\" Es kann nützlich sein - man zeigt die Kamera auf etwas und sagt, \"Was ist das?\", um z.B. einen Pilz oder einen Baum zu identifizieren.
Aber dann gibt es natürlich eine ganze Reihe von verschiedenen Sprachaufgaben. Wenn ich Superagency schreibe, bin ich kein Technologiehistoriker, sondern ein Technologe und Erfinder. Aber wenn ich diese Dinge recherchiere und schreibe, frage ich mich dann, \"OK, was würde ein Technologiehistoriker zu dem sagen, was ich hier geschrieben habe?\"
Wenn du über einige dieser Beispiele im Buch sprichst, sagst du auch, dass, wenn wir neue Technologien bekommen, manchmal alte Fähigkeiten wegfallen, weil wir sie nicht mehr brauchen, und wir neue entwickeln.
Und in der Bildung macht es vielleicht diese Informationen für Menschen zugänglich, die sie sonst nie bekommen hätten. Andererseits hört man diese Beispiele von Menschen, die von ChatGPT trainiert und akklimatisiert wurden, einfach eine Antwort von einem Chatbot zu akzeptieren, anstatt tiefer in verschiedene Quellen einzutauchen oder sogar zu erkennen, dass ChatGPT falsch liegen könnte.
Das ist definitiv eine der Ängste. Und übrigens gab es ähnliche Ängste mit Google und der Suche und Wikipedia, es ist keine neue Diskussion. Und wie bei all dem müssen wir lernen, wo wir darauf vertrauen können, wo wir das überprüfen sollten, welches das Niveau der Wichtigkeit der Überprüfung ist, und all das sind gute Fähigkeiten, die man erlernen kann. Wir wissen, dass Menschen einfach Wikipedia zitiert haben oder andere Dinge, die sie im Internet gefunden haben, zitiert haben, richtig? Und das sind ungenaue Dinge, und es ist gut, das zu lernen.
Nun, jetzt, da wir diese Agenten trainieren, um immer nützlicher zu sein und ein höheres Maß an Genauigkeit zu haben, könntest du einen Agenten haben, der Kreuzüberprüfungen durchführt und sagt: \"Hey, es gibt eine Reihe von Quellen, die diesen Inhalt in Frage stellen. Bist du neugierig darauf?\" Diese Art der Präsentation von Informationen erhöht deine Agentur, weil sie dir eine Menge Informationen gibt, um zu entscheiden, wie tief du darin eintauchst, wie viel du recherchierst, auf welchem Sicherheitsniveau du stehst. Das sind alles Teile dessen, was wir bekommen, wenn wir iterativen Einsatz betreiben.
In dem Buch sprichst du darüber, wie die Menschen oft fragen: \"Was könnte schiefgehen?\" Und du sagst: \"Nun, was könnte richtig gehen? Das ist die Frage, die wir häufiger stellen müssen.\" Und es scheint mir, dass beide Fragen wertvoll sind. Du willst nicht die guten Ergebnisse ausschließen, aber du willst dich gegen die schlechten Ergebnisse schützen.
Ja, das ist ein Teil dessen, was ein Aufblüher ist. Du bist sehr optimistisch darüber, was richtig laufen könnte, aber es bedeutet nicht, dass du nicht im Dialog mit dem stehst, was schiefgehen könnte. Das Problem ist, dass alle, im Allgemeinen gesprochen, sich viel zu sehr darauf konzentrieren, was schiefgehen könnte, und nicht ausreichend darauf, was richtig gehen könnte.
Ein weiteres Thema, über das du in anderen Interviews gesprochen hast, ist das Klima, und ich glaube