Sam Altman hat einen Blogpost geschrieben, der sich fast wie eine Techdemo für eine AI-Zusammenfassung liest. chatGPT, bitte fasse diesen Post doch mal zusammen:
Sam Altman reflektiert über den Werdegang von OpenAI und beschreibt das rasante Wachstum des Unternehmens seit der Einführung von ChatGPT. Dabei hebt er nicht nur den unerwarteten Erfolg hervor, sondern auch die Herausforderungen, einschließlich seiner vorübergehenden Absetzung als CEO. Er betont die Bedeutung einer starken Unternehmensführung und spricht seinen Dank an das Team, die Partner und alle Unterstützer aus, die OpenAI in einer kritischen Phase begleitet haben. Der Text beleuchtet zudem die ambitionierte Vision von OpenAI für die Zukunft der Künstlichen Intelligenz, insbesondere die Entwicklung von Superintelligenz. Insgesamt bietet er einen persönlichen und professionellen Einblick in die Bewältigung eines dynamischen und risikoreichen technologischen Wandels.
Zwei Absätze gegen Ende des Beitrags fand ich besonders interessant:
We are now confident we know how to build AGI as we have traditionally understood it. We believe that, in 2025, we may see the first AI agents “join the workforce” and materially change the output of companies. We continue to believe that iteratively putting great tools in the hands of people leads to great, broadly-distributed outcomes.
We are beginning to turn our aim beyond that, to superintelligence in the true sense of the word. We love our current products, but we are here for the glorious future. With superintelligence, we can do anything else. Superintelligent tools could massively accelerate scientific discovery and innovation well beyond what we are capable of doing on our own, and in turn massively increase abundance and prosperity.
Tja, was soll ich sagen? Das AGI-Thema klingt visionärer, als es tatsächlich ist. Schon heute übertreffen Modelle in einigen Bereichen menschliche Fähigkeiten oder sind zumindest ebenbürtig. Die letzten Jahre waren in diesem Kontext ein einziges Rückzugsgefecht: Immer, wenn die Systeme unsere selbstgesteckten Maßstäbe für „menschliche Intelligenz“ erreicht oder übertroffen haben, hieß es: „Jaaa, aber schau mal hier … das da drüben kann das System noch nicht.“
Fakt ist: AGI bleibt ein schwammiges Konzept. Das Einzige, was diese Systeme niemals erreichen werden, ist „Mensch-Sein“. Glücklicherweise haben wir einige tausend Jahre Philosophiegeschichte, in denen wir selbst daran scheitern, zu definieren, was das genau sein soll. Heißt also: AI wird da nie rankommen. Wir sind sicher! Yey!
Der zweite Punkt ist die Superintelligenz – also KI-Systeme, die unsere Fähigkeiten in allen Belangen übertreffen sollen. Wenn schon unklar ist was genau AGI sein soll und wann die erreicht ist, dann ist natürlich die Idee von SI noch schwammiger. Außerdem darf man natürlich fragen wofür diese SI letztlich eingesetzt werden wird. Sam Altman erwartet daraus „more abundance and prosperity“. Klingt schon mal gut, enthält aber auch ein paar Denkfehler.
Denn im Grunde haben wir doch schon heute genug. Wir könnten alle Menschen auf diesem Planeten ernähren, und es gibt mehr Menschen denn je, denen es an nichts mangelt. Es existieren also bereits „Abundance and Prosperity“, also Überfluss und Wohlstand. Der ist nur unfair verteilt. Altman will mehr davon, und das klingt wunderbar altruistisch – bis man die kleine Frage „Für wen?“ hinzufügt. Für die westliche Welt? Für Amerika? Für die Reichen? Für Unternehmen? Selbst wenn Sam (und das bezweifle ich) tatsächlich alle Menschen meint, halte ich das für unrealistisch. Ressourcen werden weiterhin ungerecht verteilt bleiben wie schon heute, und die Reichen – ob Individuen oder Nationen – werden ihre Vorteile nutzen, um sich noch mehr zu sichern. Würden wir die Resourcen dieser Welt schon heute exklusiv für das Wohl aller einsetzen statt sie in Waffen, Pornos und Katzenvideos zu investieren – wir hätten ein Paradies. Ergo: Mehr davon ist nicht automatisch eine bessere Welt. Es ist einfach nur mehr von allem, potentiell auch mehr Ungleichheit.
Außerdem ignoriert diese Vision einen alten Trugschluss: die Idee unendlicher Ressourcen. KI wird denselben physikalischen Grenzen unterliegen wie wir. Um diese mythische Zukunft des Überflusses zu erreichen, werden wir mehr und mehr Ressourcen in KI stecken müssen und in Erwartung zukünftiger „Sprunginnovationen“ werden wir begründen warum es temporär in Ordnung, ja sogar zwingend ist über unsere Verhältnisse zu leben. Dabei werden die Mächtigen dieser Welt weiterhin ihre Möglichkeiten nutzen, um sich den Zugang zu diesen Ressourcen zu sichern, statt sie dem Wohl aller zur Verfügung zu stellen. Am Ende könnten wir in einer Welt leben, in der KI-Systeme, die Katzenvideos und andere Unterhaltung auf Zuruf generieren und Werbung verteilen, mehr Energie verbrauchen dürfen als Produktionsstätten für Impfstoffe. Grenzsicherung, Militär und Waffenforschung werden Priorität erhalten, um genau diese Welt abzusichern.
Das Resultat? Ein „race to the bottom“, bei dem wir nur hoffen können, diese mythische Zeit des Überflusses für alle zu erreichen, bevor wir auf dem harten Boden der Realität aufschlagen. Währenddessen wird KI weder wirklich AGI noch SI werden, wir werden aber immer kurz davor sein (fast schon AGI, demnächst SI) während die Systeme aber unzweifelhaft immer mächtiger und stärker als Menschen sein werden. Der Abstand zwischen Gewinnern und Verlierern wird sich weiter vergrößern und unser Planet und unser sozialer Frieden werden darunter leiden.
Zu zynisch? Zu skeptisch? Vielleicht. Hoffentlich. Ich würde mich über eine rosige Zukunft freuen, die sicherlich möglich ist. Doch basierend auf dem, was ich in den Nachrichten sehe und in Geschichtsbüchern lese, habe ich Zweifel, die ich gern loswerden würde.
Nachdem ich diesen Blogpost geschrieben hatte fragte ich übrigens chatGPT was ich noch verbessern könnte und das System meinte mein doch eher dunkler Abschluss könnte doch noch durch alternative Zukunftsvisionen und Argumente ergänzt werden. Mal sehen, vielleicht ein anderes mal, heute gibt’s erst mal doom and gloom, rosa Brille dann vielleicht beim nächsten mal…
Neueste Kommentare