Die Wahrheit über die Lust im Silicon Valley, sich auf den Weltuntergang vorzubereiten
HeimHeim > Blog > Die Wahrheit über die Lust im Silicon Valley, sich auf den Weltuntergang vorzubereiten

Die Wahrheit über die Lust im Silicon Valley, sich auf den Weltuntergang vorzubereiten

Sep 28, 2023

Laut Silicon Valley könnte KI apokalyptisch sein. So verhält es sich nicht.

Wenn Sie nach einem Grund suchen, warum die Welt plötzlich untergehen wird, ist es nicht schwer, einen zu finden – vor allem, wenn es Ihre Aufgabe ist, Menschen davon zu überzeugen, dass sie Dinge kaufen müssen, um sich auf die Apokalypse vorzubereiten. „Dritter Weltkrieg, China, Russland, Iran, Nordkorea, Joe Biden – Sie wissen schon, alles, was auf der Welt durcheinander ist“, sagte mir Ron Hubbard, der CEO von Atlas Survival Shelters. Sein in Texas ansässiges Unternehmen verkauft Bunker mit kugelsicheren Türen und Betonwänden an Menschen, die bereit sind, mehrere Tausend – und bis zu Millionen – Dollar auszugeben, um bei möglichen katastrophalen Ereignissen beruhigt zu sein. In letzter Zeit boomt das Interesse an seinen unterirdischen Bunkern. „Als der Krieg in der Ukraine ausbrach, klingelte mein Telefon etwa zwei Wochen lang alle 45 Sekunden“, sagte er.

Viele seiner Kunden arbeiten im Technologiebereich: Obwohl die Prepper-Bewegung in Amerika die Ober- und Mittelschicht, die Linke und die Rechte umfasst, ist das Silicon Valley in den letzten Jahren zu ihrem Epizentrum geworden. In seinem Buch „Survival of the Richest: Escape Fantasies of the Tech Billionaires“ befasst sich Douglas Rushkoff mit dem, was er „The Mindset“ nennt – der Idee unter den Untergangsvorbereitern des Silicon Valley, dass „gewinnen“ bedeutet, genug Geld zu verdienen, um dem Schaden zu entgehen, der allen anderen widerfährt . Im Jahr 2018 berichtete Bloomberg, dass sieben Technologieunternehmer Bunker in Neuseeland gekauft hatten. Und ein New Yorker-Profil von Sam Altman aus dem Jahr 2016 zitierte den OpenAI-CEO mit den Worten, er habe „Waffen, Gold, Kaliumjodid, Antibiotika, Batterien, Wasser, Gasmasken der israelischen Streitkräfte und ein großes Stück Land in Big Sur, das ich kann.“ fliegen zu“ im Falle von superansteckenden Viren, Atomkrieg und KI, „die uns angreift.“

Extreme Vorhersagen darüber, was KI für die Welt bedeuten könnte, sind seitdem bei einer lautstarken Minderheit derjenigen, die in diesem Bereich arbeiten, lauter geworden. Anfang dieses Monats gab der Pionierforscher Geoffrey Hinton seine Position bei Google auf und warnte vor den Gefahren der KI. „Schauen Sie sich an, wie es vor fünf Jahren war und wie es jetzt ist“, sagte er der New York Times. „Nehmen Sie den Unterschied und verbreiten Sie ihn weiter. Das ist beängstigend.“ Andere Leute sind noch weiter gegangen. „Wenn wir damit weitermachen, werden alle sterben“, schrieb Eliezer Yudkowsky, der leitende Forschungsmitarbeiter am Machine Intelligence Research Institute, „einschließlich der Kinder, die sich nicht dafür entschieden und nichts falsch gemacht haben.“

Dies sollte also ein Moment für KI-Vorbereiter für den Weltuntergang sein, in dem erschöpfte Silicon-Valley-Millionäre enorme Geldsummen ausgeben, um sich vor allem zu schützen, was KI uns allen antut. Aber es ist nicht. Ich fragte Hubbard, ob ihm irgendjemand KI als Motiv für den Kauf eines Bunkers genannt habe. „Ich glaube nicht, dass eine einzige Person die KI angesprochen hat“, sagte er. Dieser KI-Freakout enthüllt, was schon seit langem über die Weltuntergangsvorbereiter im Silicon Valley wahr ist: Eine katastrophensichere Anlage rettet vielleicht nicht die reichsten Technologiemogule, aber vielleicht war das nie der springende Punkt.

Hubbard, einer der größten Namen in der kommerziellen Vorbereitung, erzählte mir, dass sein typischer Kunde ein 60-jähriger Mann sei, der kürzlich sein Unternehmen für 30 Millionen Dollar verkauft, eine Ranch gekauft habe und nun einen Bunker haben möchte. Selbst der Tech-Milliardär, mit dem er kürzlich zusammengearbeitet hat, brachte KI nicht als Anlass zur Sorge. „Was zählt, sind Atomwaffen, Yellowstone und Meteore“, sagte Hubbard.

Niemand, mit dem ich in der Welt der Weltuntergangsvorbereitungen gesprochen habe, hat die KI im Vergleich zu all den anderen Bedrohungen, die er wahrnimmt, sehr ins Schwitzen gebracht. JC Cole, der ein Vorbereitungsunternehmen namens American Heritage Farms leitet, skizzierte 13 „Gray Swan“-Ereignisse, die seiner Meinung nach sowohl unmittelbar bevorstehen als auch äußerst zerstörerisch sind. „Um KI mache ich mir im Moment keine Sorgen“, sagte er, „weil ich denke, dass wir dort nicht ankommen werden.“ Er ist sich ziemlich sicher, dass die USA irgendwann im nächsten Jahr in den Krieg gegen Russland und China ziehen werden. Er macht sich Sorgen über Hyperinflation („die gerade passiert“), Kreditzusammenbruch, verschiedene Naturkatastrophen und elektromagnetische Impulse von Atombomben, biologischen Waffen oder Sonnenstürmen, die das Stromnetz zerstören. „Bevor die KI hereinkommt und als Terminator auftaucht“, sagte er, „werden wir meiner Meinung nach einfach einen Bankencrash erleben.“ Im Vorgriff auf diese Grauen Schwäne entwickelt er Bio-Bauernhöfe und unterirdische Unterkünfte, die dazu beitragen können, eine Handvoll zahlender Mitglieder zu retten.

Ein Grund dafür, dass KI-Vorbereitungen auf den Weltuntergang keine große Rolle zu spielen scheinen, liegt darin, dass es immer noch schwierig ist, sich die genauen Mechanismen einer KI-Bedrohung vorzustellen. Zuerst fallen einem bekannte Methoden der Zerstörung ein, allerdings mit einem KI-Twist: Schurken-KI feuert Atomwaffen ab, bombardiert das Stromnetz und inszeniert Cyberangriffe. Die Unterkünfte, die Hubbard anbietet, bieten ausdrücklich Unterstützung für solche Situationen. Ganz gleich, ob die Atomwaffe von einem instabilen ausländischen Führer oder von einem schlecht funktionierenden oder böswilligen Roboter geschickt wird, eine Bombe ist immer noch eine Bombe. Menschen, die bereits über diese Bedrohungen besorgt waren, werden sich vorbereiten, hätten es aber trotzdem getan.

Menschen, die sich besonders auf das zerstörerische Potenzial der KI konzentrieren, haben einen anderen Grund, keinen Bunker zu bauen. „Die Bedrohung, über die wir uns Sorgen machen, besteht darin, dass wir weitaus intelligentere KI-Systeme bauen als Menschen, die ressourcenhungrig sind und daher jedes Atom der Materie auf jedem Planeten des Sonnensystems ernten“, sagt Forschungsleiter Rob Bensinger Kommunikation am Machine Intelligence Research Institute. „Es gibt keine ‚Vorbereitung‘, die durchgeführt werden kann, um sich physisch vor dieser Art von Bedrohung zu schützen.“ Yudkowsky sagte mir in einer E-Mail, dass niemand, von dem er annimmt, dass er sich mit KI auskennt, sich auf den Weltuntergang vorbereitet; es macht wenig Sinn. „Persönlich“, schrieb er, „verwende ich nicht viel mentale Energie darauf, mir über relativ milde Katastrophenszenarien Sorgen zu machen, bei denen es Überlebende geben würde.“ Der beste Weg, sich auf einen KI-Weltuntergang vorzubereiten, besteht also darin, die Weiterentwicklung der Technologie zu bekämpfen, bevor sie zu mächtig wird. „Wenn man einer Superintelligenz gegenübersteht, hat man bereits verloren“, sagte Yudkowsky. „Der Bau eines aufwändigen Bunkers würde bei einer Katastrophe der Superintelligenz, die ich für realistisch halte, nicht im Geringsten helfen, selbst wenn der Bunker auf dem Mars wäre.“

Der auffällige Mangel an Vorbereitungen für den Weltuntergang in einer für die KI so bedeutsamen Ära deutet auf etwas anderes hin: dass Bunker und Unterkünfte bei den Superreichen im Silicon Valley einfach nicht mehr so ​​beliebt sind wie früher. Rushkoff erzählte mir, dass der Hype um die Bunker am Ende der Welt nachgelassen habe und dass einige Leute die Dummheit des Unternehmens erkannt hätten. Für Weltuntergangsjäger, die sich wirklich Sorgen über die unwahrscheinlichsten und verheerendsten Szenarien machen, wird die traditionelle Vorbereitung nicht viel nützen. „Es ist mir egal, wie isoliert die Technik in Ihrem Bunker ist“, sagte er. „Die KI-Nanos werden in der Lage sein, in Ihren Bunker einzudringen … Sie können ihnen nicht entkommen.“ Eine KI-Übernahme wäre die letzte Phase der disruptiven Geschichte des Silicon Valley – nach Taxis und Lebensmittellieferungen die gesamte Menschheit.

Aber Rushkoff bezweifelt wirklich, dass sich viele ultrareiche Prepper wirklich auf den Weltuntergang vorbereiten. Was sie wollen, glaubt er, ist eine autarke Inselfantasie – mehr White Lotus als The Last of Us. Wenn dieser KI-Moment – ​​in dem Tag für Tag apokalyptische Warnungen aufzutauchen scheinen – keinen Vorbereitungsboom auslöst, steckt hinter all dem teuren Gehabe vielleicht nicht viel Substanz. Egal in welcher Lage die Welt ist, Vorbereitung war schon immer eine auffällige Wahl des Lebensstils. „Es spielt keine Rolle, ob es eine Katastrophe gibt oder nicht“, sagte Rushkoff. „Die Apokalypse war nur der Vorwand, diese Dinge zu bauen.“