Nick Bostrom (*1973
im schwedischen Helsingborg) ist ein Philosoph und Zukunftsforscher. Er gilt
als einer der prominentesten Vertreter des Transhumanismus.
Er ist einer der am meisten zitierten Philosophen dieser
Welt. Er war Professor an der Oxford University, wo er als Founding Director
des Future of Humanity Institute von 2005 bis 2024.
He is currently the founder and Director of Research of
the Macrostrategy Research Initiative. Bostrom ist Autor von mehr als 200
Publikationen, wie Anthropic Bias (2002), Global Catastrophic Risks (2008),
Human Enhancement (2009), and Superintelligence: Paths, Dangers, Strategies
(2014).
Er ist für seine Forschungen und
Veröffentlichungen auf den Gebieten der Bioethik und der
Technikfolgenabschätzung bekannt, insbesondere zum existentiellen Risiko,
anthropischen Prinzip, zu ethischen Aspekten der technischen Verbesserung des
menschlichen Körpers und zu Risiken der Superintelligenz.
Dabei setzt er oft Mittel der formalen Epistemologie ein,
die bei der Analyse und Entwicklung von Argumenten auf Formalisierungen und
Erkenntnisse der Statistik und der Entscheidungstheorie zurückgreift.
Gemeinsam mit Toby Ord entwickelte er den Reversal
Test als Heuristik zur Neutralisierung des status quo bias.
Bostrom äußert sich regelmäßig in
angelsächsischen Medien zu Themen wie Ethik, Politik, Zukunftsforschung
und Transhumanismus.
Ausbildung
Bostrom schloss 1994 sein Studium an der Universität
Göteborg ab und erlangte anschließend bis 1996 Masterabschlüsse
in Philosophie und Physik der Universität Stockholm und
Computational Neuroscience des Kings College London.
Seinen Doktorgrad (Ph.D.) erwarb Bostrom 2000 an der
London School of Economics. Er betätigte sich zwischenzeitlich als
Stand-up-Comedian. (!)
Karriere
Im Jahr 1998
gründete Bostrom mit David Pearce die World Transhumanist
Association.
2004 gründete er mit James Hughes das Institute for
Ethics and Emerging Technologies. Zurzeit ist er bei keiner dieser
Organisationen beschäftigt.
Im Jahr 2005 wurde er Direktor des neu geschaffenen
Oxford Future of Humanity Institute (FHI). Als Teil der Bewegung des
effektiven Altruismus verfolgte das FHI das Ziel, durch seine Forschung auf
lange Sicht eine möglichst hohe positive Wirkung für die Menschheit
zu erzielen.
Im Jahr 2024 wurde das FHI von der Universität
Oxford geschlossen und Bostrom verließ die Universität.
Er erhielt 2009 den Eugene R. Gannon Award und
steht auf der Liste Top 100 Global Thinkers von Foreign Policy. Dank ihrer
Erwähnung durch Elon Musk und Bill Gates wurden Bostroms Arbeiten zur
Superintelligenz auch einer breiteren Öffentlichkeit bekannt.
Musk gehört gemeinsam mit Bostrom sowie Stephen
Hawking, Max Tegmark, Martin Rees zu den Unterzeichnern eines Manifests des
Future of Life Institute, das die Erforschung von Superintelligenz und
ihrer ungefährlichen Nutzbarmachung zu einem wichtigen und dringenden
Forschungsthema erklärt.
Existentielle Risiken
Bostrom ist für seine Forschung über
existentielle Risiken bekannt, also Ereignisse, die in der Lage sind, das auf
der Erde entstandene intelligente Leben auszulöschen oder in seiner
Entwicklung drastisch und permanent einzuschränken.
Superintelligenz
Bostrom prägte die Behandlung des Themas
Superintelligenz in den letzten Jahren maßgeblich mit, unter
anderem in seinem Buch Superintelligenz: Szenarien einer
kommenden Revolution.
Dabei betrachtet er künstliche Intelligenzen, die der
menschlichen weit überlegen wären, sowohl als Schritt zum
Transhumanismus als auch als existentielles Risiko.
Bostrom hält einen schnellen Übergang zu einer
Intelligenzexplosion für wahrscheinlicher als einen gemäßigten
und viel wahrscheinlicher als einen langsamen Übergang.
Ein solch schneller Takeoff birgt nach Bostrom die Gefahr,
dass der Mensch die Kontrolle über die Technik verliere, die ihn in der
Folge nicht mehr benötige. Das könnte das Ende der Menschheit
bedeuten.
Seit 2024 widmet sich Bostrom der
feingranuläreren Ausgestaltung einer von fortgeschrittener
künstlicher Intelligenz bestimmten Welt.
Anthropic Reasoning
In seinen Arbeiten
über das anthropische Prinzip diagnostiziert er für die
vorangegangenen Debatten eine auf Beobachtereffekte zurückzuführende
kognitive Verzerrung, den observer selection bias.
Die Auswahl und Bewertung verschiedener
Antwortmöglichkeiten auf eine Frage, zu deren Beantwortung oder
Entscheidung nur unvollständige Informationen vorliegen, wird dabei durch
die Tatsache, dass es jemanden gibt, der in der Lage ist, die Frage zu stellen,
beeinflusst.
Jeder Beobachter würde demnach Ereignisse oder
Ereignisalternativen, die seine eigene Existenz unwahrscheinlich machen, selbst
für unwahrscheinlich halten oder vernachlässigen.
In der Kosmologie führt das auf der Basis des
anthropischen Prinzips zu unschlüssigen oder falschen Annahmen über
die Wahrscheinlichkeit der Gültigkeit kosmologischer Modelle.
Bostrom formuliert verschiedene Maximen für Argumente
und Überlegungen mit anthropischen Prinzipien:
- Self Sampling Assumption (SSA): Man sollte so
schlussfolgern, als ob man eine zufällige Auswahl aus der Menge aller
Beobachter in seiner Referenzklasse wäre.
- Strong Self Sampling Assumption (SSSA): Man
sollte so schlussfolgern, als ob der gegenwärtige Beobachtungszeitpunkt
eine zufällige Auswahl aus der Menge aller Beobachtungszeitpunkte in
seiner Referenzklasse wäre.
- Self Indication Assumption (SIA): Man sollte so
schlussfolgern, als ob man eine zufällige Auswahl aus der Menge aller
möglichen Beobachter wäre.
Link
Nick Bostroms Homepage
https://nickbostrom.com/ |
Nick Bostrom
(2014). Foto. Wikipedia.
.
Die
Simulationshypothese |
In einem auch in der
Populärwissenschaft häufig rezipierten Denkmodell beschäftigt
sich Bostrom mit der Simulationshypothese.
Dieser zufolge könnte eine höher
entwickelte, posthumane Zivilisation in der Lage und Willens sein,
die Wirklichkeit inklusive des gesamten Universums mit Computertechnologie zu
simulieren; dies könnte sogar bereits geschehen sein...
Die Möglichkeit, dass unser Universum eine
simulierte Realität und alle Lebewesen folglich Bestandteil dieser
Simulation seien, ist eine der drei folgenden Alternativen, von denen nach
Bostrom mindestens eine wahr sei.
Bostrom vergleicht drei Szenarien:
- Die Wahrscheinlichkeit, dass eine Zivilisation
eine posthumane Entwicklungsstufe erreicht, geht gegen Null.
- Fast keine posthumane Zivilisation
ist daran interessiert, Vorgängerwesen des Menschen zu simulieren.
- Es besteht eine hohe Wahrscheinlichkeit, dass
wir in einer simulierten Realität leben. Sollten die Annahmen 1 und 2
falsch sein, so müsse von einer hohen Wahrscheinlichkeit ausgegangen
werden, dass auch unser Universum tatsächlich eine Simulation sei
(Simulationshypothese).
Er geht davon aus, dass es eine Vielzahl solcher
Zivilisationen geben müsste, sofern es sie geben kann.
Daraus folgert Bostrom, dass entweder die
Menschheit niemals in der Lage sein werde, das notwendige technologische Niveau
zu erreichen, um eine Simulation unseres gegenwärtigen Zustands zu
realisieren oder wir mit hoher Wahrscheinlichkeit in einer solchen Simulation
lebten.
. |
.
Bücher von Nick Bostrom
Nick Bostroms Veröffentlichungsliste umfasst
mehr als 200 Titel. Einschließlich des New-York-Times- Bestsellers
Superintelligence. Paths, Dangers, Strategies und Anthropic
Bias.
Deep Utopia. Life and Meaning in a
Solved World. Ideapress Publishing, 2024, ISBN 978-1-64687-164-3.
Die verwundbare Welt. Eine Hypothese.
Suhrkamp Verlag, Berlin 2020, ISBN 978-3-518-58754-6.
Superintelligence. Paths, Dangers,
Strategies. Oxford University Press, Oxford 2013, ISBN 978-0-19-967811-2.
Deutsch: Superintelligenz Szenarien einer
kommenden Revolution. Suhrkamp, Berlin 2014, ISBN 978-3-518-58612-9
(englisch: Superintelligence. Übersetzt von Jan-Erik Strasser).
mit Julian Savulescu: Human Enhancement.
Oxford University Press, 2011, ISBN 978-0-19-959496-2.
mit Milan M. Cirkovic: Global Catastrophic
Risks. Oxford University Press, 2011, ISBN 978-0-19-960650-4.
Anthropic Bias. Observation Selection
Effects in Science and Philosophy. Routledge, New York 2002, ISBN
0-415-93858-9. Artikel (Auswahl)
The Vulnerable World Hypothesis. In: Global Policy.
Band 10, 2019, S. 455476, (englisch, archive.org [PDF]).
Existential Risk Prevention as Global Priority. In:
Global Policy. 1. Auflage. Band 4, 2013, S. 1531 (archive.org).
Infinite Ethics. In: Analysis and Metaphysics. 9.
Auflage. Band 10, 2011 (archive.org [PDF]).
mit Toby Ord: The Reversal Test: Eliminating Status
quo Bias in Applied Ethics. In: Ethics. Band 116, Nr. 4, 2006,
S. 656679, doi:10.1086/505233 (englisch, nickbostrom.com [PDF]).
Are We Living in a Computer Simulation? In: The
Philosophical Quarterly. 211. Auflage. Band 53, 2003,
S. 243255, doi:10.1111/1467-9213.00309 (englisch, archive.org
[PDF]).
Astronomical Waste: The Opportunity Cost of
Delayed Technological Development. In: Utilitas. 3. Auflage. Band 15.
Cambridge University Press, 2003, S. 308314, (archive.org
[PDF]).
· |