Epigramm: >*Ano koro to kurabe Mae ni susumeta?* *Kotae wa NO ja nai Dakedo tarinai* *Ijiwaru na „Kami“ ga Bokura tamesunda* *Kuuseki wo umete Tsugi no suteeji e mukaou -* [“-OZONE-” – Vistlip](https://www.youtube.com/watch?v=XELbqXeydRw) > >Übersetzt: > >*Bist du im Vergleich zu damals vorangekommen?* *Die Antwort ist nicht NEIN, aber es ist nicht genug,* *Einige Der sadistische „Gott“ stellt uns auf die Probe* *Lassen Sie uns den freien Platz füllen und zur nächsten Stufe übergehen* **Zusammenfassung** Dieser Beitrag bezieht sich auf den Futurismus, da er darauf hinweist, dass Elite- oder Superforecaster oft bescheidene und banale Vorhersagen für die Zukunft haben Zukunft, während Domänenexperten völlig andere Zukunftsaussichten prognostizieren. Ich frage mich, ob wir den Experten oder Elite-Prognostikern mehr Vertrauen schenken sollten. Ich glaube, dass die skeptischen Elite-Prognostiker überzeugende Argumente vorbringen und ihr Verständnis der technologischen Entwicklung auf ihre Prognosen anwenden. Darüber hinaus soll dieser Beitrag keine „doomeristischen“ pessimistischen Vorhersagen bestätigen, da die Elite-Prognostiker geringere Wahrscheinlichkeiten für Katastrophenszenarien einschätzen als die Experten. **Enttäuschung über den technologischen Fortschritt** Ich stimme der geäußerten Meinung zu [here](https://www.reddit.com/r/Futurology/comments/12acs5r/what_really_changed_between_2008_and_today/) dass sich seit Mitte der 2000er Jahre nichts wirklich geändert hat. Ich habe ständig Enttäuschung darüber erlebt, dass Schlüsseltechnologien ihre jeweiligen Branchen nicht revolutionieren konnten: Es dauert viel länger, bis erneuerbare Energien in großem Maßstab eingesetzt werden; Anti-Angiogenese-Medikamente können Krebs nicht heilen; selbstfahrende Autos sind den Herausforderungen auf der Straße nicht gewachsen; Fusionskraft schafft es nicht, auch nur einen funktionierenden Prototyp (wie ITER) zu bauen. Themen im Zusammenhang mit „Futurismus“ und neuen Technologien lösen eine traumatische emotionale Reaktion aus, weil sie das Gefühl der ständigen Enttäuschung hervorrufen, dass ich beschlossen habe, diesen Sub selten zu lesen, weil die meisten geposteten Dinge nur Vaporware und Hype sind, die niemals aus einem Labor hervorgehen werden. Ich bin fest davon überzeugt, dass die Menschheit nicht an der „Schwelle“ einer technologischen Revolution steht; Die Dinge verbessern sich in den nächsten ein oder zwei Jahrzehnten bestenfalls schrittweise. Am wichtigsten ist, dass ich trotz aller Bitterkeit und Voreingenommenheit behaupte, dass eine solch pessimistische Einstellung nicht nur durch die eigenen Erfahrungen gerechtfertigt ist, sondern auch durch die Wertschätzung dafür, wie sich Technologien entwickeln und reifen. Es wird beispielsweise allgemein beobachtet, dass bei jedem schwierigen Projekt die letzten 10 Prozent der Leistung 90 Prozent des Entwicklungsaufwands erfordern würden, daher sollte man nicht zu optimistisch sein, was eine „erfolgreiche“ „Proof of Concept“-Demonstration angeht, da die eigentliche Herausforderung besteht sorgt dafür, dass dies im realen Zustand und Maßstab umgesetzt wird. Außerdem stehe ich jedem vorgeschlagenen medizinischen Durchbruch skeptisch gegenüber, weil ich weiß, dass nur 10 Prozent der Medikamentenkandidaten in Phase I eine Zulassung erhalten. Es ist diese Zahl, die für mich das Wichtigste ist: Ich habe viele Arzneimittel mit vielversprechenden Wirkmechanismen in klinischen Studien scheitern sehen, daher glaube ich nicht einmal mehr, dass der Mechanismus für Prognosen wichtig ist, weil wir die Komplexität der Molekülbiologie, die das Arzneimittel möglicherweise unwirksam machen kann, immer noch nicht begreifen oder seinen Wirkungsmechanismus untergraben; Entscheidend ist der Basiszinssatz. **Erwartungen von Prognostikern und Experten an den KI-Fortschritt** Was mich dazu inspiriert hat, dies zu schreiben, ist das Lesen [this](https://time.com/6556168/when-ai-outsmart-humans/) *Time*-Artikel über die Frage, wann künstliche Intelligenz den Menschen überlisten würde. Der Artikel beginnt mit der Proklamation von Herbert Simons aus dem Jahr 1965, dass „Maschinen innerhalb von 20 Jahren in der Lage sein werden, jede Arbeit zu verrichten, die ein Mensch verrichten kann.“ Basierend auf der Realität im Jahr 2024 ist das offensichtlich eine Fehlprognose. Derzeit gehen viele KI-Experten davon aus, dass in kurzer Zeit, beispielsweise in weniger als einem Jahrzehnt, künstliche allgemeine Intelligenz entwickelt werden wird, doch ihr oberflächlicher Optimismus scheint die Geschichte der gescheiterten Vorhersagen früherer KI-Experten außer Acht zu lassen. Die aktuellen „KI-Experten“ zeichneten sich durch die Veröffentlichung „peer-reviewter Forschungsergebnisse in renommierten KI-Zeitschriften und Konferenzen im letzten Jahr“ aus. Auch wenn diese Experten nicht so optimistisch sind wie Tech-Führungskräfte, sagen sie Folgendes voraus: >Unter anderem wurden die Experten gefragt, wann sie an „maschinelle Intelligenz auf hohem Niveau“ denken, definiert als Maschinen, die „jede Aufgabe besser und kostengünstiger erledigen können als …“ menschliche Arbeitskräfte“ ohne Hilfe wäre machbar. Obwohl die einzelnen Vorhersagen stark schwankten, deutet der Durchschnitt der Vorhersagen auf eine Wahrscheinlichkeit von 50 % hin, dass dies bis 2047 geschehen würde, und eine Wahrscheinlichkeit von 10 % bis 2027. (*Zeit*, Henshall 2024) Im Gegensatz dazu stellt Henshall fest, dass dies historisch gesehen eine Domäne ist Experten haben in ihrem jeweiligen Bereich keine besseren Vorhersagen gemacht als der Zufall, und je berühmter der Experte, desto ungenauer sind seine Vorhersagen. Es gibt jedoch „Superforecaster“, die durchweg Vorhersagen treffen, die etwa 30 Prozent genauer sind als Geheimdienstanalysten mit Zugang zu geheimen Daten, aber diese Superforecaster haben ihr Können bei Prognosewettbewerben unter Beweis gestellt, bei denen sie Vorhersagen für Phänomene mit einer Zeitspanne von zwei Jahren machten von weniger. Dennoch 31 Superprognosen im Existential Risk Persuasion Tournament im Jahr 2022 [have later predictions of the arrival of “advanced AI”](https://static1.squarespace.com/static/635693acf15a3e2a14a56a4a/t/64f0a7838ccbf43b6b5ee40c/1693493128111/XPT.pdf#page=643) (S. 642) als die Domänenexperten, da die überarbeiteten Vorhersagen der Superforecaster für das Jahr 2060 sprechen (50. Perzentil), während die Domänenexperten das Jahr 2046 (50. Perzentil) vorhersagen. („Advanced AI“ kann einen zweistündigen kontradiktorischen Turing-Test zuverlässig bestehen, verfügt über ein hohes Maß an Kompetenz bei der Beantwortung von Fragen aus verschiedenen Bereichen, kann Interviewprobleme im APPS-Benchmark beantworten und *Montezumas Rache* in weniger als 100 Stunden real spielen Hier ist ein Team von Superforecastern, das auf die Ironie hinweist, dass die „Expertise“ von KI-Experten Forschern dabei hilft, Demonstrationen durchzuführen, die besser auf die Stärken der aktuellen KI-Technologie abgestimmt sind, da sie sich ihrer aktuellen Fähigkeiten und Schwächen genau bewusst sind : >„Prognostiker stellen außerdem fest, dass einige der Benchmarks, die den größten Fortschritt gezeigt haben (wie ImageNet), beliebt sind und häufig von KI-Forschern ins Visier genommen werden.“ Dies kann der Fall sein, wenn KI-Forscher sich für erreichbarere Ziele entscheiden, die besser zu den KI-Fähigkeiten passen, und es könnte auch der Fall sein, dass einige dieser Aufgaben nicht so interessant sind oder für KI-Forscher weniger wahrscheinlich Beachtung finden.“ (S. 648-650) Darüber hinaus könnte Godharts Gesetz für die „Verschiebung der Zielvorgaben“ verantwortlich sein, denn wenn die KI eine bestimmte Leistung vollbringt, neigen die Skeptiker dazu, die Zielvorgaben zu verschieben, da die KI-Forscher ihre Demonstrationen auf computerfreundliche Bereiche stützen werden ( es sei denn natürlich, der Skeptiker benennt tatsächlich einen schwierigen realen Maßstab, der normalerweise die Interaktion mit der physischen Welt beinhaltet, genauso wie die Ausführung einer wirtschaftlich wertvollen Aufgabe wie das Verschreiben von Medikamenten oder das Fahren eines Autos in großem Maßstab und zu erschwinglichen Kosten. >„Das Interesse geht von der Metaculus-Frage selbst aus, die die Entwicklung der KI selbst und des Godhart-Gesetzes beeinflussen könnte („Wenn eine Maßnahme zum Ziel wird, hört sie auf, eine gute Maßnahme zu sein“) \[8\]. Das heißt, die Bemühungen in der KI-Community könnten sich auf die Erreichung fortgeschrittener KI (wie in dieser Frage definiert) konzentrieren.“ Die zitierte Referenz lautet [https://en.wikipedia.org/wiki/Goodhart%27s\_law](https://en.wikipedia.org/wiki/Goodhart%27s_law). – (S. 648) Andere Begründungen daraus sind viel prosaischer und berufen sich auf gängige Trends wie das Gesetz der sinkenden Erträge: >„Ein Phänomen, das wir beispielsweise bei selbstfahrenden Autos beobachtet haben, ist, dass die ersten ~90 % der …“ Das Problem nimmt etwa 10 % der Arbeit in Anspruch, wobei der Ertrag pro Arbeitseinheit abnimmt, je näher man 100 % kommt. Die Eingabeaufforderung würde nicht unbedingt 100 % bei jedem dieser Tests erfordern, aber sie könnte nahe genug sein, dass ein herkömmlicher Prognoseansatz möglicherweise nicht in der Lage ist, den am Ende des Projekts erforderlichen Arbeitsaufwand zu erfassen.“ 337, „Von der Anwendung des maschinellen Lernens auf den spezifischen Bereich der Materialwissenschaften \[7\]Eine mögliche Schlussfolgerung ist, dass viele der jüngsten Fortschritte als Proof of Concept oder als „Low-Hanging Fruit“ eingestuft werden können. Sofern sich dies auf andere Bereiche übertragen lässt, ist mit einer Abschwächung zu rechnen.“ Die zitierte Referenz lautet [https://www.nature.com/articles/s41524-022-00734-6](https://www.nature.com/articles/s41524-022-00734-6). (S. 650) Bezüglich der maximalen Rechenmenge, die zum Trainieren eines KI-Systems (in einem bestimmten Jahr) verwendet wird, gaben die 31 Superforecaster eine Schätzung ab, dass 700 Millionen PetaFLOP-Tage Rechenleistung im intensivsten KI-Experiment im Jahr 2050 verwendet werden. während die beiden Experten 2,5 Billionen PetaFLOP-Tage an Rechenleistung vorhersagen. Erneut äußern die Superforecaster die banale Sorge über das Ende des Mooreschen Gesetzes, um mehr Rechenleistung bereitzustellen: >339: „Das Hauptargument für unsere Prognosen ist, dass Hardware-Einschränkungen die Verdoppelung der Zeit in der Zukunft erheblich einschränken werden, was eine Extrapolation von jeder vorherigen Basis erschwert.“ als gefährlich eingestuft.“ Siehe auch 337, „Endgültiges Ende des Mooreschen Gesetzes: Wir erreichen derzeit Transistoren mit einer Lücke von 2 Nanometern und der Durchmesser eines Siliziumatoms beträgt etwa 0,2 bis 0,4 Nanometer.“ Es gibt jedoch möglicherweise andere Möglichkeiten, mehr Transistoren unterzubringen. Daher ist nicht klar, wann dieser Trend enden wird oder wie er sich verlangsamen wird.“ (S. 656) Eine weitere Prognose mit großer Divergenz zwischen Experten und Superforecastern ist die Frage, ob das weltweite BIP ein Jahr lang um 15 Prozent steigen würde, wobei die Superforecaster eine Wahrscheinlichkeit von 2,75 Prozent prognostizieren, während die Experten sagen, dass die Wahrscheinlichkeit bei 25 Prozent liegt (S. 705). (Dies kann nicht passieren, wenn KI dazu dient, menschliche Arbeitskräfte zu ersetzen, da diese menschlichen Arbeitskräfte keine Waren und Dienstleistungen mehr kaufen und nicht mehr zum BIP beitragen können.) **Katastrophales Risiko** Die Superforecaster haben geringere Vorhersagen über das katastrophale Risiko der KI und prognostizieren, dass es ein solches geben würde Die Wahrscheinlichkeit, dass „KI“ innerhalb eines Fünfjahreszeitraums bis zum Jahr 2100 die Todesursache von mehr als 10 Prozent der lebenden Menschen sein wird, liegt bei 2,13 Prozent, während die Fachexperten ein Risiko von 12 Prozent prognostizieren (S. 258–259). Bei einer ähnlichen Frage, ob Atomwaffen bis zum Jahr 2100 zu einem Rückgang der Weltbevölkerung um 10 Prozent führen würden, geben die Experten eine Prognose ab, die doppelt so hoch ist wie die der Superforscher (8 Prozent gegenüber 4 Prozent) (S. 282-283). Interessanterweise waren die Superforecaster optimistischer hinsichtlich der Vorhersage, wann Fusionsenergie 1 Prozent des gesamten Versorgungsstroms in den Vereinigten Staaten liefern würde (S. 462-463). **Metaculus zeigt das gleiche Phänomen bei Superforecastern** Auch hier soll dieser Beitrag nicht meinen eigenen Technologiepessimismus zum Ausdruck bringen, sondern lediglich die Aufmerksamkeit auf das Phänomen lenken, dass Superforecaster eher bescheidene Erwartungen an die zukünftigen Fortschritte der künstlichen Intelligenz haben. ich hatte [wrote about this](https://www.reddit.com/r/singularity/comments/1677547/metaculus_pro_predictors_reject_tony_seba_and_ray/) über eine Sammlung von Fragen von Metaculus, bei denen die „Prognostiker“ durchweg bescheidene Fortschritte in Bereichen wie Wirtschaftsproduktivität und Dekarbonisierung im Vergleich zum Allgemeinen erwarten Gemeinschaft. Die Zukunftsforscher hier spekulieren gerne über das Potenzial neuer Technologien. Natürlich gibt es ein immenses *Potenzial* für eine bestimmte Technologie: die Nutzung der [Yamanaka factors](https://en.wikipedia.org/wiki/Induced_pluripotent_stem_cell) kann pluripotente Stammzellen hervorbringen, die viele Krankheiten behandeln können; CRISPR kann viele Krankheiten heilen; Perowskit-Solarzellen können den Übergang zu erneuerbaren Energien beschleunigen; und KI auf menschlicher Ebene kann den Arbeitsmarkt revolutionieren. Ich habe das Gefühl, dass ich das nicht mehr tun kann, weil es mir psychisch schaden würde, weil ich weiß, dass sich Fortschritte nicht schnell einstellen würden. Es erübrigt sich zu erwähnen, dass es wirklich erstaunlich wäre, wenn das Potenzial dieser Dinge einfach und wirtschaftlich ausgeschöpft werden könnte, aber es scheint, dass es viele Jahrzehnte dauert, bis ihr Potenzial ausgeschöpft wird, und dass die Menschen in der Zwischenzeit aufgrund der schrittweisen und enttäuschenden Entwicklung niedergeschlagen sind Natur des Fortschritts. Da ich die eher enttäuschenden Fortschritte bei der Kommerzialisierung autonomer Fahrzeuge zu schätzen weiß, glaube ich, dass es aufgrund der begrenzten Fähigkeiten der aktuellen KI-Systeme lange dauern würde, bis KI einen wesentlichen Einfluss auf die Wirtschaft haben wird. Ich nehme an, dass die Superforecaster eine einfache Induktion verwenden: Sie wissen um den KI-Hype in der Vergangenheit und wissen, dass optimistische Prognosen nicht eingetreten sind. Da der technologische Fortschritt im letzten Jahrzehnt mittelmäßig war und der Hype selten Früchte trägt, können wir davon ausgehen, dass die Zukunft der Vergangenheit ähneln wird; Wir werden uns in einer Epoche der technologischen Stagnation nur durchwursteln. Erwarten Sie keine Durchbrüche oder Störungen, genauso wie man davon ausgeht, dass sich in einem bestimmten Jahr beim NCAA-Basketballturnier keine 16 gesetzten Spieler gegen die 1 gesetzten durchsetzen können. Tatsächlich können Ereignisse mit geringer Wahrscheinlichkeit eintreten, wie etwa UMBC (2018) oder Farleigh Dickinson (2023).

https://old.reddit.com/r/Futurology/comments/1c4eogy/elite_forecasters_predict_a_boring_future_with/

Leave A Reply