Diese Woche in der KI: Ehemalige Mitarbeiter von OpenAI fordern Sicherheit und Transparenz

Hi zusammen und herzlich willkommen beim ersten KI-Newsletter von TechCrunch. Es ist wirklich aufregend, diese Worte zu tippen - dies war lange geplant und wir freuen uns, es endlich mit Ihnen teilen zu können.

Mit dem Start des KI-Newsletters von TC stellen wir 'Diese Woche in der KI', die bisherige Kolumne unter dem Namen Perceptron, ein. Aber Sie finden hier all die Analysen, die wir bei 'Diese Woche in der KI' und mehr gebracht haben, inklusive einem Fokus auf bemerkenswerte neue KI-Modelle.

In dieser Woche in der KI braut sich wieder Ärger für OpenAI zusammen.

Eine Gruppe ehemaliger Mitarbeiter von OpenAI sprach mit Kevin Roose von der New York Times über das, was sie als gravierende Sicherheitsmängel innerhalb der Organisation empfinden. Sie - wie auch andere, die OpenAI in den letzten Monaten verlassen haben - behaupten, dass das Unternehmen nicht genug tut, um zu verhindern, dass seine KI-Systeme potenziell gefährlich werden, und beschuldigen OpenAI, rücksichtslose Taktiken einzusetzen, um zu verhindern, dass Mitarbeiter Alarm schlagen.

Die Gruppe veröffentlichte am Dienstag einen offenen Brief, in dem sie führende KI-Unternehmen, einschließlich OpenAI, aufforderten, eine größere Transparenz und mehr Schutz für Whistleblower zu schaffen. 'Solange es keine effektive staatliche Aufsicht über diese Unternehmen gibt, gehören aktuelle und ehemalige Mitarbeiter zu den wenigen Personen, die sie der Öffentlichkeit gegenüber zur Rechenschaft ziehen können', heißt es in dem Brief.

Nennen Sie mich pessimistisch, aber ich glaube, dass die Forderungen der ehemaligen Mitarbeiter auf taube Ohren stoßen werden. Es ist schwer vorstellbar, dass KI-Unternehmen nicht nur zustimmen, eine 'Kultur offener Kritik zu unterstützen', wie die Unterzeichnenden empfehlen, sondern auch darauf verzichten, Nondisparagement-Klauseln durchzusetzen oder sich nicht gegen aktuelle Mitarbeiter zu rächen, die sich entscheiden, ihre Meinung zu äußern.

Beachten Sie, dass OpenAI's Sicherheitskommission, die das Unternehmen kürzlich als Antwort auf die anfängliche Kritik an seinen Sicherheitspraktiken geschaffen hat, ausschließlich mit Unternehmensinsidern besetzt ist - einschließlich CEO Sam Altman. Und bedenken Sie, dass Altman, der zu einem Zeitpunkt behauptete, von OpenAIs restriktiven Nondisparagement-Vereinbarungen keine Kenntnis zu haben, selbst die Gründungsdokumente unterzeichnet hat, die sie festlegen.

Sicher, die Dinge bei OpenAI könnten sich morgen ändern - aber ich halte nicht den Atem an. Und selbst wenn sie es täten, würde es schwer sein, darauf zu vertrauen.

Neuigkeiten

KI-Apokalypse: OpenAIs KI-gestützte Chatbot-Plattform ChatGPT - zusammen mit Anthropics Claude und Googles Gemini und Perplexity - brachen alle heute Morgen zur etwa gleichen Zeit zusammen. Alle Dienste wurden inzwischen wiederhergestellt, aber die Ursache für ihre Ausfallzeit bleibt unklar.

OpenAI erforscht Fusion: OpenAI führt Gespräche mit dem Fusionsstartup Helion Energy über einen Deal, bei dem das KI-Unternehmen große Mengen Strom von Helion kaufen würde, um Strom für seine Rechenzentren bereitzustellen, so der Wall Street Journal. Altman hat einen Anteil von 375 Millionen Dollar an Helion und sitzt im Vorstand des Unternehmens, aber Berichten zufolge hat er sich von den Deal-Gesprächen zurückgezogen.

Die Kosten für Trainingsdaten: TechCrunch wirft einen Blick auf die teuren Datenlizenzverträge, die in der KI-Industrie zunehmend üblich werden - Vereinbarungen, die die KI-Forschung für kleinere Organisationen und akademische Einrichtungen untragbar machen.

Hassvolle Musikgeneratoren: Böswillige Akteure missbrauchen KI-gesteuerte Musikgeneratoren, um homophobe, rassistische und propagandistische Lieder zu erstellen - und veröffentlichen Anleitungen, wie auch andere dies tun können.

Geld für Cohere: Laut Reuters hat Cohere, ein auf Unternehmen ausgerichtetes generatives KI-Startup, in einer neuen Tranche 450 Millionen Dollar von Nvidia, Salesforce Ventures, Cisco und anderen eingesammelt, die Cohere mit 5 Milliarden Dollar bewerten. Mit der Angelegenheit vertraute Quellen berichten TechCrunch, dass auch Oracle und Thomvest Ventures - beide zurückkehrende Investoren - an der Runde teilgenommen haben, die noch offen war.

Forschungspapier der Woche

In einem Forschungspapier aus dem Jahr 2023 mit dem Titel 'Schritt für Schritt überprüfen', das OpenAI kürzlich auf seinem offiziellen Blog hervorgehoben hat, behaupteten Wissenschaftler von OpenAI, das allgemeine generative KI-Modell des Startups, GPT-4, so feinabgestimmt zu haben, dass es eine bessere Leistung bei der Lösung von mathematischen Problemen erzielte als erwartet. Die Herangehensweise könnte zu generativen Modellen führen, die weniger dazu neigen, aus der Bahn zu geraten, sagen die Mitautoren des Papiers - weisen jedoch auf mehrere Einschränkungen hin.

In dem Papier erläutern die Mitautoren, wie sie Belohnungsmodelle trainierten, um Halluzinationen zu erkennen, oder Fälle, in denen GPT-4 seine Fakten und/oder Antworten auf mathematische Probleme falsch hatte. (Belohnungsmodelle sind spezialisierte Modelle zur Bewertung der Ausgaben von KI-Modellen, in diesem Fall mathematische Ausgaben von GPT-4.) Die Belohnungsmodelle 'belohnten' GPT-4 jedes Mal, wenn es einen Schritt eines mathematischen Problems richtig machte, eine Herangehensweise, die die Forscher als 'Prozessüberwachung' bezeichnen.

Die Forscher geben an, dass die Prozessüberwachung die Genauigkeit von GPT-4 in mathematischen Problemen im Vergleich zu früheren Techniken des 'Belohnens' von Modellen verbesserte - zumindest in ihren Benchmark-Tests. Sie geben jedoch zu, dass GPT-4 immer noch Problemschritte falsch gemacht hat. Und es ist unklar, inwieweit sich die Form der Prozessüberwachung, die die Forscher untersucht haben, über den Mathematikbereich hinaus verallgemeinern lässt.

Modell der Woche

Das Wetter vorherzusagen mag sich nicht nach einer Wissenschaft anfühlen (zumindest wenn man, wie ich gerade, im Regen steht), aber das liegt daran, dass es um Wahrscheinlichkeiten und nicht um Gewissheiten geht. Und wie könnte man Wahrscheinlichkeiten besser berechnen als mit einem probabilistischen Modell? Wir haben bereits gesehen, wie KI bei der Wettervorhersage auf Zeitskalen von Stunden bis Jahrhunderten eingesetzt wird, und jetzt macht auch Microsoft mit. Das neue Modell Aurora des Unternehmens bringt den Ball in diesem schnelllebigen Bereich der KI-Welt voran und bietet globale Vorhersagen mit einer Auflösung von ~0,1° (denken Sie an 10 km²).

Bild Credits: Microsoft

Trainiert auf über einer Million Stunden Wetter- und Klimasimulationen (nicht das echte Wetter? Hmm...) und feinabgestimmt auf verschiedene wünschenswerte Aufgaben, übertrifft Aurora herkömmliche numerische Vorhersagesysteme um mehrere Größenordnungen. Noch beeindruckender ist, dass es Google DeepMinds GraphCast in seinem eigenen Spiel schlägt (obwohl Microsoft das Feld gewählt hat), und genauere Vorhersagen der Wetterbedingungen im Bereich von ein bis fünf Tagen liefert.

Unternehmen wie Google und Microsoft haben natürlich ein eigenes Interesse an der Sache, beide bemühen sich um Ihre Online-Aufmerksamkeit, indem sie versuchen, das personalisierteste Web- und Sucherlebnis zu bieten. Genaue, effiziente Wettervorhersagen in Eigenregie werden dabei eine wichtige Rolle spielen, zumindest solange wir aufhören, nach draußen zu gehen.

Random

In einem Gedankenstück letzten Monat in Palladium äußerte Avital Balwit, Chefin des Stabes beim KI-Startup Anthropic, die Vermutung, dass die nächsten drei Jahre möglicherweise die letzten sein könnten, in denen sie und viele Wissensarbeiter dank der schnellen Fortschritte bei generativen KI-Technologien arbeiten müssen. Dies sollte eher als ein Grund zur Freude denn als Grund zur Sorge angesehen werden, sagt sie, da es '[zu] einer Welt führen könnte, in der Menschen ihre materiellen Bedürfnisse erfüllt haben, aber keinen Bedarf mehr zum Arbeiten haben.'

'Ein renommierter KI-Forscher hat mir einmal erzählt, dass er sich auf [diesen Wendepunkt] vorbereitet, indem er Aktivitäten aufnimmt, in denen er nicht besonders gut ist: Jiu-Jitsu, Surfen und so weiter, und das Tun genießt, auch ohne Exzellenz', schreibt Balwit. 'So können wir uns auf unsere Zukunft vorbereiten, in der wir Dinge aus Freude tun müssen und nicht aus Notwendigkeit, wo wir nicht mehr die Besten darin sind, aber immer noch wählen müssen, wie wir unsere Tage füllen.'

Das ist sicherlich die optimistische Sichtweise - aber eine, die ich nicht teilen kann.

Sollten generative KI-Instrumente in den nächsten drei Jahren die meisten Wissensarbeiter ersetzen (was mir angesichts der vielen ungelösten technischen Probleme der KI unrealistisch erscheint), könnte ein wirtschaftlicher Zusammenbruch durchaus bevorstehen. Wissensarbeiter machen einen großen Teil der Arbeitnehmerschaft aus und neigen dazu, hohe Einkünfte zu erzielen - und damit Großverdiener zu sein. Sie treiben die Räder des Kapitalismus voran.

Balwit macht Anspielungen auf Konzepte wie bedingungsloses Grundeinkommen und andere große soziale Sicherheitsnetzprogramme. Aber ich habe nicht viel Vertrauen darauf, dass Länder wie die USA, die es nicht einmal schaffen, grundlegende bundesweite KI-Gesetzgebung umzusetzen, in absehbarer Zeit bedingungslose Grundeinkommen einführen werden.

Mit etwas Glück liege ich falsch.