Sind Physiker die perfekten Daten-Jongleure? Wie mechanistische Modelle Katastrophen produzieren #Wired

Ingenieure und Coder sind angeblich nicht mehr die gefragtesten Mitarbeiter im Silicon Valley. „Mehr und mehr übernehmen Physiker in allen wichtigen Positionen die Führung“, schreibt Wired. Warum ist das so?

Die Bedürfnisse von Internetunternehmen und die Kompetenzen der Physiker passen wohl immer besser zusammenpassen.

Grund dafür sei der Aufstieg des Machine Learnings, bei der die Analyse von gewaltigen Datenmengen den Computern dabei hilft, neue Aufgaben zu erlernen.

„Dieser neue Trend von Datascience und KI passt einfach perfekt zu ihnen. Die Branche hat sich neuronalen Netzwerken verschrieben: Software also, die das menschliche Gehirn imitiert. Eigentlich bestehen diese neuronalen Netzwerke aber nur aus Mathematik. Am wichtigsten sind lineare Algebra und Wahrscheinlichkeitsrechnung. Computerwissenschaftler sind nicht zwangsläufig in diesen Bereichen ausgebildet, Physiker hingegen schon“, schreibt Wired.

Als beispielhaften Protagonisten für diesen Trend, erwähnt das Tech-Magazin Chris Bishop, der das Cambridge-Forschungslabor von Microsoft leitet:

„Der Wechsel zum Machine Learning ist etwas sehr Natürliches für Physiker. Natürlicher als für einen Computerwissenschaftler.“

Vor zehn Jahren seien viele Physiker in die Finanzwelt gewechselt. Dieselbe Art von Mathematik sei auch an der Wall Street extrem hilfreich für Vorhersagen über die Marktentwicklung. Eine Schlüsselmethode war das Black-Scholes-Modell, mit dem man den Wert von Finanzderivaten ermitteln kann. Als kleine Randnotiz wird dann noch erwähnt, dass dieses Modell zum großen Finanzcrash vor rund zehn Jahren beitrug. Deshalb würden sich jetzt Physiker mehr für Data Science und andere Bereiche der Computertechnologie interessieren.

Äh, was? Die Physiker haben an der Wall Street verbrannte Erde hinterlassen. Dieselbe Art von Mathematik war extrem hilfreich für Vorhersagen über die Marktentwicklung? Verehrte Freundinnen und Freunde von Wired, ich schätze Physiker ja sehr, aber bei den Prognosemodellen haben sie mit ihren mechanistischen Methoden katastrophalen Murks produziert. Wer das Black-Scholes-Modell als „Schlüsselmethode“ erwähnt, sollte die ganze Geschichte erzählen. Es sind zwei Herren, die als Symbol des Modell-Wahnsinns in Erinnerung gerufen werden sollten. Myron Scholes und Robert Merton, die für ihre „Verdienste“ sogar mit dem Nobelpreis für Wirtschaftswissenschaften ausgezeichnet wurden. Ihre theoretischen Fata-Morgana-Obsessionen setzten sie in dem Hedge Fonds „Long-Term Capital Management“ in die Praxis um.

„Die Instrumente, mit denen sie arbeiteten, waren damals nur einer Minderheit von Eingeweihten vertraut: ABCPs, Carry Trades, CDOs, Optionen, Leerverkäufe, Derivate und andere, noch exotischere ‚Produkte‘“, schreibt Hans Magnus Enzensberger in seinen „Mathematischen Belustigungen“ (edition unseld).

In den ersten Jahren erwirtschafteten sie mit einem Eigenkapital von nur vier Milliarden Dollar eine Rendite von 30 bis 40 Prozent. Das biblische Mirakel der Brotvermehrung mutet dagegen kümmerlich bescheiden an.

Die Modelle der preisgekrönten „Wissenschaftler“ beruhen allerdings auf Simplifizierungen der Wahrscheinlichkeitsrechnung. Die Gaußsche Normalverteilung widerspricht der Realität des Marktes.

„Dazu kommt noch eine weitere Fehlerquelle. Die Modelle, mit denen Händler, Banken und Versicherungen arbeiten, sind, wie der Mathematiker Yuri Manin sagt, in hohem Maße in der Software ihrer Computer codiert. Damit gängeln diese Programme als eine Art Kollektiv-Unbewusstes das Verhalten der Akteure“, führt Enzensberger aus.

Aber gerade die unerwarteten Umstände schaufelten das Spekulationsgrab, in das Scholes und Merton hineinfielen. Der Hedge Fonds LTCM kollabierte, führte zu einem Verlust von über vier Milliarden Dollar und machte einen Rettungsplan notwendig, an dem sich bekannte Namen als Samariter betätigten: Bear Stearns, Lehman Brothers, Merill Lynch, Morgan Stanley und Goldman Sachs – natürlich auch die Deutsche und Dresdner Bank. Scholes wurde zwar wegen Steuerhinterziehung in Höhe von 40 Millionen Dollar verurteilt, arbeitet aber nach wie vor als Fondsmanager. Und Merton? Er lehrt wieder Ökonomie an der Harvard Business School, wo er die Analysten der Zukunft ausbildet – mit Betonung auf Anal und wenig lyse. Für beide Spekulatius-Luschen beantrage ich die Aberkennung des Nobelpreises, wenn das überhaupt geht. Schließlich müssen auch des Dopings überführte Tour-de-France-Sieger ihre Krone wieder zurückgeben.

„Chris Bishop von Microsoft sagt, dass die Softwareentwicklung sich von handgefertigtem und auf Logik basierendem Code hin zu Algorithmen bewegt, die auf Wahrscheinlichkeit beruhen. Firmen wie Google oder Facebook beginnen damit, ihre Ingenieure auf diese neue Art des Denkens umzuschulen. Irgendwann wird auch der Rest der Computerwelt nachziehen“, resümiert Wired.

Ob das eine so gute Idee ist? Problem. Politik, Gesellschaft und Wirtschaft funktionieren nicht wie Himmelsphysik:

„Jede Betrachtung gesellschaftlicher Prozesse hat es mit Fallzahlen zu tun, die niedriger sind als die Zahl der Faktoren, die als Erklärung in Frage kommen. Damit aber gibt es für jeden gegenwärtigen Zustand unvermeidlich mehr als eine gültige Erklärung, und jeder zukünftige Zustand erscheint als einmaliges Resultat eines einmaligen Zusammenwirkens einer Vielzahl von Faktoren, als Unikat, für das es keine Normalverteilung gibt und dessen Besonderheiten deshalb nicht auf allgemeine Gesetzmäßigkeiten reduziert werden können“, bemerkt Professor Wolfgang Streeck.

Vielleicht sollten sich Theologen, Soziologen, Philosophen und Politologen zu Daten-Analysten weiterbilden und den Physikern Konkurrenz machen. Sie könnten nachweisen, dass der Laplacesche Geist einer linearen Steuerung von Menschen, Unternehmen und Märkten in die Irre führt.

18 Kommentare

  • Hübscher Rant, der mir aber etwas viel von Affekten getragen zu sein scheint. Z.B. hat die Black-Scholes-Formel zur Berechnung des theoretischen Werts einer Option so gut wie nichts mit dem Versagen der beiden Erfinder als Fondsmanager zu tun. Die Formel ist nur indikativ – im Markt gibt es immer wieder Abweichungen davon, z.B. ist die involvierte Volatilität selbst formelhaft berechenbar, teils selbst Teil des Angebot-Nachfrage-Mechanismus. Die Formel ist keine Schadensursache, ist weiterhin in Gebrauch, vor allem deshalb, weil etwas Brauchbares noch nicht erfunden wurde.
    Dass die Physiker in den Banken zur Berechnung von komplexen Risiken bzw. ihrer Absicherungen eingesetzt wurden, ist richtig. Es ist auch richtig – so habe ich es selbst von einem Investmentbanker (Dresdner Bank) gehört – dass die Physiker teilweise Derivat-Produkte für Institutionen entwickelt haben, die außer sie selbst keiner mehr verstanden hat. Das Ergebnis waren Finanzpapiere, die am Ende in Bad Banks ausgelagert wurden, hauptsächlich aus dem Grund, weil unklar war, was zum Ablaufdatum nach 5 oder 10 oder 20 Jahren unterm Strich herauskommen würde (de Zeitkomponente ist meist der springende Punkt).
    Dennoch gibt es kein Risikomanagement, sei es auf Gesamtbankebene, sei es auf Ebene von Produktsegmenten, das ohne avancierte Mathematik gedacht werden könnte. Dabei sind die Risikomanager natürlich nicht bei 2007 stehen geblieben (schon damals waren die Modelle nicht „linear“), sondern haben heute auch wegen der entsprechenden Auflagen mit breiteren Ungewissheitsspannen zu rechnen.
    Aus all dem nun abzuleiten, Leute, die rechnen können, würden in Silicon Valley höchstwahrscheinlich irgendeinen schweren Schaden veursachen, ist leichtfertig und in sich eine wenig plausibel klingende Wahrscheinlichkeit (auch wenn man immer richtig liegt, dass irgendwann und irgendwie ein Schaden eintritt, schließlich gibt es keine Risikolosigkeit). Die Physik- und übrigens mehr noch die Bio-Informatiker, seit Jahrzehnten an der Spitze der Computerscienes, sind einfach am ehesten in der Lage, chaotische Prozesse zu berechnen, und zwar recht erfolgreich.
    Wenn es ein Risiko sein soll, dass Prozesse berechnet werden, dann wäre das zu vergleichen mit dem Risiko, auf diese Berechnungen zu verzichten. Wir wären dann z.B. bei der Wettervorhersage wieder bei den guten alten Bauernregeln und einer Genauigkeit von unter 30%, bei der Agrarproduktivität auch auf tieferem Nievau, im Flugverkehr gäbe es Schwierigkeiten etc pp. Kurzum: Auf die ständig auch an den realen Problemen sich weiter entwickelnde angewandte Mathematik zu verzichten, wäre etwas aufklärungsfendlich und würde die heutige Welt nicht mit weniger, sondern mehr Risiken belasten.
    Die Ursachen, warum der Shadensfall eintritt, liegen sowieso meist woanders, z.B. auf der „Datenerhebungsebene“. Bei der Subprime-Krise spielten a) Gesetze, b) skrupellose Verkäufer, c) ein paar dumme Leute, d) falsche Belohungsstrukturen und e) vielleicht auch ein Mangel an IT und Big Data Analysis die entscheidende Rolle.

    • Sorry. Das stimmt nicht. Merton wendete die von ihm gefundenen Finanzierungsmodelle unter anderem als Mitgründer von Long-Term Capital Management (LTCM) an. Genau dafür erhielt er zusammen mit Scholes den Nobelpreis. Meister Black hatte da ja schon das zeitliche gesegnet. Was Physiker eben nicht können, sind normative Dimensionen. Sie inszenieren sich eher als Sozialingenieure. Da setzt meine Kritik an. Es gibt eben auch endogene und exogene Faktoren – etwa politische Krisen -, die sich nicht in Formeln pressen lassen. Und in welchen Fällen funktionieren denn die Prognose-Modelle? Für Beispiele wäre ich dankbar. Gegen Mathematik habe ich hier nicht gewettert. Nur gegen die Simplifizierungen.

    • Der Niedergang von LTCM hat übrigens nichts mit der Finanzkrise von 2007 zu tun. Diese Blase ist ja bereits Ende der 90er Jahr geplatzt – also Kurs nach der Nobelpreis-Verleihung.

  • Sehr süß der Herr Professor. Sollte man ihm mal erklären, dass es neben der frequentistischen Statistik noch die Bayessche gibt und es dort nicht unendlich oft zu wiederholende Zufallsexperimente braucht? Und Statistiken, egal welcher Art ERKLÄREN niemals irgendetwas. Wo hat er das her? Wer – außer ihm behauptet das? Kennt er die wissenschaftstheoretische Herleitung des Positivismus? Ist im Falsifiaktion ein Begriff? Hat der Mann noch Puls?
    Kausale Zuschreibungen sind nur bei kontrolliert blind randomisierten Studien zulässig. Kenne ich aus den Sozialwissenschaften nicht eine. Wie auch. Teilt man Gesellschaften einfach in Experimental- und Kontrollgesellschaft?
    Nein, der Mann argumentiert auf dem Boden von an Debilität grenzendem Halbwissen über einen Untersuchungsgegenstand, der ihm nicht geläufig ist, dessen Methoden er nicht versteht und schließt mit dem denkwürdigen Halbsatz, dass Anomalien nicht auf Gesetzmäßigkeiten REDUZIERBAR sind.
    Ähm. bitte gehen Sie weiter, hier wurde nicht gedacht. Wo lehrt der? Fachhochschule Bebra?

    • Jörgi-Boy. Da haust Du aber kräftig daneben. Das ist ein Auszug aus einem längeren Stück. Natürlich versucht man krampfhaft, Kausalitäten zu entdecken, die bei näherer Betrachtung nur Korrelationen sind. Das ist übrigens das große Defizit der Big Data-Anbieter. Es wird mal Zeit, dass Du mit mir ein Live-Interview via Hangout on Air machen.

      • Zudem noch eine Bitte, Jörg, damit wir mit der frequentistischen und/oder der bayesschen Statistik operieren können im Live-Hangout. Nenne bitte doch Beispiele jenseits der Naturwissenschaften, wo wir mit beiden Methoden sinnvolle Anwendungen durchspielen können. Das können wir dann direkt im Live-Hangout durchrechnen.

    • Und wo wir schon beim Positivismus, bei der Wissenschaftstheorie und bei der Falsifikation sind, können wir ja auch direkt Popper hervorholen: Zentrales Element des kritischen Rationalismus ist die Erkenntnis, dass es sicheres Wissen nicht geben kann. Poppers Argument, dass wir die Zukunft nicht vorhersagen können, weil wir sie dann selbst erfinden müssten, ist doch einleuchtend, oder nicht? Denn hätte man etwa den Alltag von Milliarden Menschen im Jahr 2017 vorhersagen wollen, hätte man Facebook & Co. vorhersagen und damit praktisch erfinden müssen. Denkübung.

  • In der modernen Wissenschaft erhebt man Hypothesen im Rahmen von validen Konstrukten oder begrünfet neue in einem nomologischen Netzwerk und sucht dann empirische Belege zu finden. Kausalitäten können – wie oben bereits gesagt – nur in echten Experimenten belegt werden. Das ist aus u.a. ethischen Gründen bei „Gesellschaften“ nicht möglich. Daher wird niemand in der Soziologie kausal begründen sondern beschreiben und maximal korrelieren Es sei denn er oder sie betreibt spekulative Sozialwissenschaften. Ich bin Psychologe und kenne die Wege der Soziologie nicht, nur die Kontaktpunkte aus der Sozialpsychologie und eben dieselben methodischen Verfahren der Inferenzstatistik.

    Neuronale Netze wie etwa bei der Klassifikation von (un)strukturierten Dokumenten (Posteingang) arbeiten besipielsweise auf der Basis, aber auch in den Biowissenschaften bzw deren Verbindung zur Kognitionswissenschaft. BigData ist ein Sammelbegriff, der auch Analysetools umfasst, die über Data Warehouse & BI hinausgehen. Aber statistische Verfahren arbeiten zumeist mit Mittelwerten. Diesem Verfahren vorzuwerfen, dass es keine Relevanz bei der Betrachtung von Gesellschaften habe, ist hinfällig, da keine Mittelwerte über viele Gesellschaften vorliegen, außer bei Kulturpsychologie, wo so etwas langsam Gestalt annimmt. Aber einfach auf die Freiheitsgrade zu rekurrieren(„Jede Betrachtung gesellschaftlicher Prozesse hat es mit Fallzahlen zu tun, die niedriger sind als die Zahl der Faktoren, die als Erklärung in Frage kommen.“), ist wohlfeil. Zumal er erklären müsste, wie er ohne empirische Grundlage, also ohne Faktorenanalyse betimmen will, welche Faktoren in Frage kommen sollten. Das ist ein Argument ohne Inhalt (Zirkelschluss).

    Und dann kommt er auf den Urgrund der Hinwendung der Wissenschaften zur Empirie: Wie entscheide ich nachvollziehbar für andere, welche Erklärmodelle mehr Fälle vorhersagen als andere:
    („Damit aber gibt es für jeden gegenwärtigen Zustand unvermeidlich mehr als eine gültige Erklärung, und jeder zukünftige Zustand erscheint als einmaliges Resultat eines einmaligen Zusammenwirkens einer Vielzahl von Faktoren, als Unikat, für das es keine Normalverteilung gibt und dessen Besonderheiten deshalb nicht auf allgemeine Gesetzmäßigkeiten reduziert werden können“). Ja und da eben hat er das Kind mit dem Bade ausgeschüttet. Wie sollte man Momente in eine Normalverteilung zwängen? Sekunden als Untersuchungseinheiten? Ich denke an dieser Stelle mißbraucht er sein (Halb)Wissen über empirische Methoden. Untersuchungseinheiten müssen als Stichprobe repräsentativer Teil eines Ganzen sein, der beobachtbar oder befragbar ist, damit wenigstens so eine Tendenz zur Objektivität entsteht.Es geht ja nicht um den Moment an sich sondern darum, dass alle Bobachter von etwas gleichförmige Muster erkennen können müssen, um Gesetzmäßigkeiten hypothetisch zu formulieren, die dann eben Vorhersahen erlauben. Seine Kritik läuft ins Leere, weil er falsche Antezidenzien für seinen Schluss anführt. Falsche Vorbedingungen führen daher folgerichtig zu falschen Resultaten. Das heißt aber nur, dass er kein sachhaltiges Argument führen will oder kann. Ich habe Philosophie und Psychologie studiert und kenne beide Seiten der Wissenschaften, beide haben solche Hanswurstiaden nicht verdient.

    • Es geht um Prognose-Modelle und da versagen die von Dir beschriebenen Ansätze in schöner Regelmäßigkeit. Also wo wenden wir die statistischen Verfahren im sozialwissenschaftlichen Kontext jetzt ein? Ich bin Volkswirt, habe in der empirischen Sozialwissenschaft gearbeitet und kenne mich ein wenig auch mit dem Methodenkasten aus. Also welche Anwendungen können wir denn nun live durchspielen? Und sind die Big Data-Modelle geeignet, irgendwelche Fälle zu bearbeiten, die aus dem Rückspiegel der Daten hinausgehen?

      • Man muss hier trennen, denke ich. BigData soll ja zur Mustererkennung dienen. Künstliche Intelligenz könnte auf dieser Basis mithilfe selbstlernender Algorithmen bspw. eine recommendation engine bespielen oder beim (re-)targeting helfen. Prognose-Modelle können aus meiner Sicht nur dann Sinn machen, wenn man Akteure auf der Ebene von Gruppen betrachtet. Bspw könnte man die Wählerschaften der AfD clustern und dann beobachten, welche Cluster in FB, nur da gibt es genug reale aber digitalisierte Verhaltensspuren, angesichts bestimmter gemeinsamer Erlebnisse (Stöckchen der Hetzer, Attentate, politische Entscheidungen). Wenn man all diese Reaktionen auf bestimmte Gruppen mappen kann und dies als Basis für validierte Vorhersagen taugte, hätte man ein Vorhersagemodell erstellt. Dieses sollte ex ante nomologisch begründet sein, um bei gelingender Vorhersage später die Faktoren begründet anführen zu können. Ich halte das nicht für Hexenwerk, beobachte aber schon seit Jahren die standhafte Weigerung der VWL, Soziologie und Politik, klar empirisch begründete Modelle überhaupt wahrzunehmen. Würde irgendeiner der Börsenanalysten, der Soziologen oder gar der Politikberater das Radikalisierungsmodell von Arie Kruglanski lesen und verstehen, gäbe es ein 180°-Wende in vielen seriösen Diskussionen um Islamisten und Rechtsextremisten…

    • Gesellschaften sind das, was man im szientistischen Vokabular, als dissipative Struktur bezeichnet.
      Die niedliche Idee szientistisch-mechanistischer Kausalität verfängt für die Kategorie Systeme, in die Gesellschaft gehört nicht.
      Menschen sind ebenso keine trivialen Maschinen, auch wenn Sozialisation etc. sie dies qua Routine usw. graduell und kontextuell limitiert in diese verwandeln (können).
      Und da haben wir die Krux: Szientismus-Lehrbuchauszüge, die zwar in ihrer Ideal theoretischen Fassung nicht zu beanstanden sind (oder soll ich sagen in ihrem wissenschaftstheoretischen und -historischen Kontext philosophischen Autismus?!), die aber eben immanentes Halbwissen über den Untersuchungsgegenstand verraten. Fehlt ein differenzierter Beobachtungsapparat verschießt man sein theoretisches Pulver in der Methodenkonstruktion, merkt dann aber nicht, dass Untersuchungsgegenstand und Aussagegegenstand in der Sozialität stets auseinanderfallen. Macht aber nichts, denn man hat, um mit Ludwik Fleck zu sprechen, die Einfûhrungsweihen seines Fachs artig und widerspruchslos empfangen. Da wird dann die eigene Selektivität völlig ignorierend die Analogie zur Naturwissenschaft und zum „Gegenstand“ „Natur“ hemmungslos unreflektiert als sakrales apriori gesetzt. Eine fragile Analogie als Fundament angeblicher Objektivität und Validität. Dass dann so jemand glaubt über Empirie reden zu können (welche Empirie überhaupt? Dank welcher Theorie kann ich auf welche Version von Empirie zugreifen?), verwundert dann doch. Zumindest mich.

      Was übrigens nicht bedeutet, dass wir keine Daten brauchen. Im Gegenteil! Aber wenn es stimmt, dass Daten einen Informationswert haben und Information nach Spencer Brown eine Differenz darstellt, die eine Differenz nach sich zieht, braucht es halt die Exformation zur Konstitution der Information. Und da braucht es eben kontextuelle Exploration ebenso wie Datierungen zwecks Mapping des in sich differenten (nicht unitär, nicht nomologisch) und komplexen Designs und Struktur von Sozialität. Statistische Prognosen als elaborierte Milchmadchenrechnung allein aber projizieren die defizitären Theoriebildungen ihrer Ansätze und Nebenannahmen nur in die Gesellschaft zurück, die sie angeblich abbilden – und bieten zahllosen Ansatzpunkte für ideologische Eingriffe und self-fulfilling prophecys.
      Amen.

  • „Vielleicht sollten sich Theologen, Soziologen, Philosophen und Politologen zu Daten-Analysten weiterbilden und den Physikern Konkurrenz machen.“

    Tatsächlich sind aktuelle Absolventen guter Unis in sozialwissenschaftlichen Studiengänge wie der Politikwissenschaft und Soziologie teilweise hervorragend geschult im Umgang mit Datenanalysen und bringen im Gegensatz zu allen Informatikern und Physikern dieser Welt eine fundierte Ausbildung mit die sich, die sich im Kern um das menschliche Verhalten dreht.

    Sozialwissenschaftler sind daher eigentlich prädestiniert für die Positionen als Datenanalysten. Wieso dieses Feld immer noch von den MINT-Fächern dominiert wird, ist mir schleierhaft und sollte sich dringend ändern. Am Ende geht es darum aus Daten wirkliche Erkenntnisse mit Aussage zu ziehen und dies gelingt nur mit der Verortung in einem grösseren Kontext. Und dieser grössere Kontext besteht nach wie vor mehrheitlich aus Menschen.

    • Nun, man kann mithilfe empirischer Untersuchungen Hypothesen bewähren oder faslifizieren, man kann so sicher auch Hinweise auf neue Zusammenhänge oder unbekannte Faktoren erhalten, aber Erkenntnisse sicher nicht. Zudem ist es noch immer so, dass Korrelationen oder Ergebnisse aus multiplen Regressionen aufgrund von postulierten Kausalmodellen kausal gedeutet werden. Allein bei Mediationsanalysen wissen wir oft nicht, ob eine Mediation, Kovariate oder Korrelat vorliegt (siehe Fiedler et a., 2011). Und ob und wie gut dann eher SEM angewendet werden, ist noch immer nicht eindeutig geklärt und nicht in jedem Fall praktikabel. Dazu kommt, dass in sehr vielen Fällen die Teststärke einfach nicht ausreicht für viele allzu kausale Aussagen, die die Nähe von Erkenntnissen streifen könnten. Nochmal: Erkenntnisse nur mit kontrolliert randomisierten Experimenten. Oft magelt es an Basiswissen, dass Verfahren angewendet werden wo einfach metrische Skalen angenommen werden, wo aber keine sind, etc..
      Aber ganz weg von der Statistik ist die Datenbasis immer noch ein Problem, da bei den ganzen Datenanalysten nur die Daten selbst untersucht werden, ohne die Stichprobe zu würdigen, ohne Störvariablen auszuschliesen und, was besonders gravierend ist, die Ursache und den Kontext der Datenerhebung zu bewerten. Einfach Muster in Daten zu suchen, ist in vielen Fällen sinnlos, da die benutzten Verfahren in der Natur selten vorkommende Voraussetzungen erfordern. Und dann haben wir noch gar nicht die Fallstricke der einzelnen Validitäten gestreift.

      • Mit Bezug auf das Politikbeispiel: Das wäre in der Tat sehr spannend. Vorhersagen gelingen dann vielleicht in aggregierter Form. Bislang liefern die Data Science-Institute allerdings nur Ex-post-Analysen. Und Ex-post bin ich irgendwie immer schlauer. Wenn Du ein Beispiel aus der Sozial- oder Politikwissenschaft hast, wo das schon zur Anwendung kommt – dann wäre ich sehr dankbar. Dazu sollten wir aber nun wirklich mal eine Livesendung machen.

      • Und wie beurteilst Du denn die Leistungsfähigkeit von Physikern auf dem Gebiet der Datenanalyse? Also der eigentliche Aufhänger des Beitrags.

    • Sehe ich genauso 🙂

Kommentar verfassen