Schwaches Gesetz der großen Zahl
2.3 Bayesian statistics paradigm
Es ist allgemein von seinen Anhängern und Kritikern gleichermaßen einig, dass Bayesianism5 derzeit die dominierende Ansicht in der Philosophie der Wissenschaft ist. Einige Statistiker sind noch weiter gegangen und haben vor Jahren vermutet, dass die Bayessche Statistik die dominierende Statistik für das einundzwanzigste Jahrhundert sein wird. Ob diese Behauptung begründet werden kann, sprengt den Rahmen dieser Einleitung. Es ist jedoch unbestreitbar, dass das Bayes-Paradigma in Disziplinen wie Philosophie, Statistik, Informatik und sogar Rechtswissenschaft eine zentrale Rolle gespielt hat.
Bayesianer sind weitgehend in subjektive und objektive Kategorien unterteilt. Nach Ansicht aller Bayesianer muss der Glaube eines Agenten die Regeln der Wahrscheinlichkeitsrechnung erfüllen. Andernfalls ist gemäß dem bekannten Argument des „niederländischen Buches“ der Grad des Glaubens des Agenten inkohärent. Subjektive Bayesianer halten diese (probabilistische) Kohärenz sowohl für eine notwendige als auch für eine ausreichende Bedingung für die Rationalität der Überzeugungen eines Agenten und argumentieren dann (typischerweise), dass die Überzeugungen rationaler Agenten im Laufe der Zeit konvergieren werden. Der Punkt wissenschaftlicher Schlussfolgerungen und die Quelle ihrer „Objektivität“ besteht darin, Kohärenz und Konvergenz zu gewährleisten. Objektive Bayesianer, auf der anderen Seite, bestehen typischerweise darauf, dass die Kohärenzbedingung zwar notwendig ist, Es ist auch nicht ausreichend für die Art von Objektivität, die wissenschaftliche Methoden ermöglichen sollen.
Paul Weirichs Arbeit in diesem Band konzentriert sich in erster Linie auf die subjektive Wahrscheinlichkeit. Weirich hat einen Bayesschen entscheidungstheoretischen Ansatz entwickelt, bei dem er untersucht, wie die Überzeugungen eines Agenten im Lichte von Daten überarbeitet werden können. Wahrscheinlichkeiten repräsentieren den Grad des Glaubens eines Agenten. Weirich wertet mehrere Anklagen gegen Bayesianer aus. Nach einem Einwand, den er in Betracht gezogen hat, erlaubt der Bayesianismus, dass die Glaubensgrade eines Agenten alles sind, solange sie die Wahrscheinlichkeitsrechnung erfüllen. Weirich nimmt den Einwand, dass Bayes subjektive Wahrscheinlichkeiten die idiosynkratischen Überzeugungen eines Agenten darstellen müssen. Er hat jedoch permissiven Bayesianismus zugunsten seiner Version des Bayesianismus abgelehnt. Der Begriff der bedingten Wahrscheinlichkeit, auf dem das Prinzip der Konditionalisierung beruht, ist für ihn von zentraler Bedeutung. Nach diesem Prinzip sollte ein Agent seinen Grad des Glaubens an eine Hypothese (H) im Lichte von Daten (D) in Übereinstimmung mit dem Prinzip der Konditionalisierung aktualisieren, das besagt, dass sein Grad des Glaubens an H, nachdem die Daten bekannt sind, durch die bedingte Wahrscheinlichkeit P(H | D) = P(H&D) /P (D) gegeben ist, vorausgesetzt, dass P (D) nicht Null ist. Weirich bewertet auch Anklagen gegen die Anwendung des Konditionalisierungsprinzips. Schließlich vergleicht er Bayes’sche statistische Entscheidungstheorie mit der klassischen Statistik und schließt seine Arbeit mit einer Bewertung der letzteren ab.
Ein zentrales Forschungsgebiet der Wissenschaftsphilosophie ist die Bayes’sche Bestätigungstheorie. James Hawthorne verwendet die Bayes’sche Bestätigungstheorie, um eine Logik dafür zu liefern, wie Beweise zwischen konkurrierenden Hypothesen oder Theorien unterscheiden. Er argumentiert, dass es irreführend ist, die Bayes’sche Bestätigungstheorie mit der subjektiven Wahrscheinlichkeitsrechnung zu identifizieren. Vielmehr wird jedes Konto, das den Grad darstellt, in dem eine Hypothese durch Beweise als bedingte Wahrscheinlichkeit der Hypothese über die Beweise gestützt wird, wobei die beteiligte Wahrscheinlichkeitsfunktion die üblichen probabilistischen Axiome erfüllt, eine Bayes’sche Bestätigungstheorie sein, unabhängig von der Interpretation des Wahrscheinlichkeitsbegriffs es beschäftigt. Denn aus einem solchen Grund wird Bayes ‚Theorem ausdrücken, wie das, was Hypothesen über Beweise sagen (über die Wahrscheinlichkeiten), den Grad beeinflusst, in dem Hypothesen durch Beweise gestützt werden (über posteriore Wahrscheinlichkeiten). Hawthorne argumentiert, dass die übliche subjektive Interpretation der probabilistischen Bestätigungsfunktion durch erweiterte Versionen des Problems alter Beweise stark in Frage gestellt wird. Er zeigt, dass bei der üblichen subjektivistischen Interpretation selbst triviale Informationen, die ein Agent über einen Beweisanspruch erfahren kann, die Objektivität der Wahrscheinlichkeiten vollständig untergraben können. Insofern also die Wahrscheinlichkeiten objektiv (oder intersubjektiv vereinbart) sein sollen, kann die Bestätigungsfunktion die übliche subjektivistische Lesart nicht ertragen. Hawthorne nimmt frühere Wahrscheinlichkeiten, um von Plausibilitätsbewertungen abzuhängen, aber argumentiert, dass solche Bewertungen nicht bloß subjektiv sind, und dass die Bayessche Bestätigungstheorie nicht durch die Art der Subjektivität, die in solchen Bewertungen involviert ist, stark behindert wird. Er stützt die letztere Behauptung auf ein leistungsfähiges Bayes’sches Konvergenzergebnis, das er das Likelihood Ratio Convergence Theorem nennt. Dieser Satz hängt nur von Wahrscheinlichkeiten ab, nicht von früheren Wahrscheinlichkeiten; und es ist ein schwaches Gesetz der großen Zahlen, das explizite Grenzen für die Konvergenzrate liefert. Es zeigt, dass mit zunehmender Evidenz, Es wird sehr wahrscheinlich, dass die Evidenzergebnisse so sein werden, dass die Wahrscheinlichkeitsverhältnisse eine wahre Hypothese gegenüber jedem nachweislich unterscheidbaren Konkurrenten stark bevorzugen. Daher neigen zwei beliebige Bestätigungsfunktionen (die von verschiedenen Agenten verwendet werden), die sich auf Wahrscheinlichkeiten einigen, sich jedoch in früheren Wahrscheinlichkeiten für Hypothesen unterscheiden (vorausgesetzt, der Prior für die wahre Hypothese ist nicht zu nahe bei 0), dazu, Wahrscheinlichkeitsverhältnisse zu erzeugen, die dazu führen, dass die posterioren Wahrscheinlichkeiten in Richtung 0 für falsche Hypothesen und in Richtung 1 für die wahre Alternative konvergieren.6
John D. Norton versucht, ein Gegengewicht zu der jetzt vorherrschenden Ansicht zu schaffen, dass es der Bayesschen Bestätigungstheorie gelungen ist, die universelle Logik zu finden, die die Evidenz und ihre induktive Bedeutung in der Wissenschaft regelt. Er gibt zu, dass Bayesier gute Gründe für Optimismus haben. Wo viele andere versagt haben, gelingt es ihrem System, einen präzisen Kalkül zu spezifizieren, die induktiven Prinzipien anderer Konten zu erklären und sie zu einer einzigen konsistenten Theorie zu kombinieren. Er drängt jedoch darauf, dass seine Dominanz erst vor kurzem in den Jahrhunderten der Bayes’schen Theoretisierung entstanden ist und angesichts der anhaltenden Probleme, mit denen es konfrontiert ist, möglicherweise nicht von Dauer ist.Viele der Probleme, die Norton für die Bayes’sche Bestätigungstheorie identifiziert, betreffen technische Details, die unsere Leser mehr oder weniger beunruhigend finden können. Seiner Ansicht nach ergibt sich die größte Herausforderung aus dem Bayes’schen Bestreben, eine vollständige Darstellung der induktiven Inferenz zu liefern, die unser induktives Denken auf einen anfänglichen, neutralen Zustand zurückführt, bevor irgendwelche Beweise aufgenommen werden. Was dieses Streben besiegt, ist laut Norton das bekannte, widerspenstige Problem der Prioren, das in seinem Kapitel in zwei Formen erzählt wird. In einer Form besteht das Problem darin, dass die Hypothese P(H|D&B), die die induktive Unterstützung der Daten D für die Hypothese H in Verbindung mit der Hintergrundinformation B ausdrückt, vollständig durch die beiden „vorherigen“ Wahrscheinlichkeiten P(H&D|B) und P(D|B) festgelegt ist. Wenn man ein Subjektivist ist und feststellt, dass die vorherigen Wahrscheinlichkeiten nach Lust und Laune ausgewählt werden können, nur vorbehaltlich der Axiome der Wahrscheinlichkeitsrechnung, dann kann laut Norton das posteriore P(H | D&B) niemals von diesen Launen befreit werden. Oder wenn man ein Objektivist ist und meint, dass es in jeder spezifischen Situation nur einen richtigen Prior geben kann, dann, wie in seinem Kapitel erklärt, schließt die Additivität eines Wahrscheinlichkeitsmaßes aus, dass man wirklich „informationslose Priors“ zuweist.“ Das ist zum Besseren, nach Norton, da ein wirklich informationsloser Prior jedem Kontingentsatz in der Algebra den gleichen Wert zuweisen würde. Die funktionelle Abhängigkeit eines Posteriors von den Priors würde dann alle nicht-trivialen Posterioren zu einem einzigen, informationslosen Wert zwingen. Daher, Ein Bayes-Konto kann nicht trivial sein, Norton behauptet, nur wenn es mit einer reichen vorherigen Wahrscheinlichkeitsverteilung beginnt, deren induktiver Inhalt durch andere bereitgestellt wird, Nicht-Bayes-Mittel.
Drei Beiträge in diesem Band untersuchen die Möglichkeit, dass Bayes’sche Rechnung als eine Form der Logik gezeigt werden könnte. Colin Howson behauptet, dass Bayesianismus eine Form der deduktiven Logik der Inferenz ist, während Roberto Festa und Jan-Willem Romeijn behaupten, dass Bayesianische Theorie in Form von induktiver Inferenz gegossen werden kann. Um zu untersuchen, ob Bayes’sche Rechnung als eine Form der deduktiven Inferenz angesehen werden kann, schaut Howson kurz auf die letzten dreihundert Jahre der wissenschaftlichen Inferenz und konzentriert sich dann darauf, warum er denkt, dass Bayes’sche Inferenz als eine Form der reinen Logik der Inferenz betrachtet werden sollte. Unter Berücksichtigung der Debatte darüber, ob probabilistische Inferenz als Logik der Konsistenz oder Kohärenz angesehen werden kann, Er diskutiert de Finettis Wahrscheinlichkeitstheorie, wo de Finetti die Wahrscheinlichkeitstheorie nahm, um nichts über die Welt zu sagen, aber nimmt es als „Logik der Unsicherheit. Ein motivierender Grund zu überlegen, warum Bayes’sche Inferenz als eine Logik der reinen Logik betrachtet werden sollte, ist seine Meinungsverschiedenheit mit Kyburgs Unterscheidung zwischen dem Ausdruck „Konsistenz“, der auf ein System anwendbar ist, das keine zwei inkonsistenten Überzeugungen enthält, und dem Ausdruck „Kohärenz“, der auf Glaubensgrade anwendbar ist. Für Howson besteht die Analogie zur deduktiven Logik zwischen der letzteren, die den Wahrheitsbewertungen Konsistenzbeschränkungen auferlegt, und den Regeln der Wahrscheinlichkeitstheorie, die den Grad des Glaubens einschränken. Der Rest seiner Arbeit widmet sich der Entwicklung und Interpretation der Bayes’schen Inferenz als eine Form der reinen Logik der Inferenz.
Sowohl Festa als auch Romeijn bedauern, dass sich Statistik und induktive Inferenz im vergangenen Jahrhundert mehr oder weniger unabhängig voneinander entwickelt und entwickelt haben, ohne deutliche Anzeichen einer Symbiose. Festa zoomt auf Bayes’sche Statistik und die Carnapsche Theorie der induktiven Wahrscheinlichkeiten, und zeigt, dass trotz ihrer unterschiedlichen konzeptionellen Grundlagen, Die Methoden, die innerhalb der letzteren ausgearbeitet wurden, sind im Wesentlichen identisch mit denen, die innerhalb der ersteren verwendet werden. Er argumentiert, dass einige Konzepte und Methoden der induktiven Logik bei der rationalen Rekonstruktion mehrerer statistischer Begriffe und Verfahren angewendet werden können. Ihm zufolge schlägt die induktive Logik einige neue Methoden vor, die für verschiedene Arten statistischer Inferenz mit analogen Überlegungen verwendet werden können. Schließlich zeigt Festa, wie eine Bayes’sche Version der Wahrheitsannäherung entwickelt und in einen statistischen Rahmen integriert werden kann.7
Romeijn untersucht auch die Beziehung zwischen Statistik und induktiver Logik. Obwohl sich induktive Logik und Statistik getrennt voneinander entwickelt haben, ist Romeijn wie Festa der Meinung, dass es an der Zeit ist, die Wechselbeziehung zwischen beiden zu untersuchen. In seiner Arbeit untersucht er, ob es möglich ist, verschiedene Arten statistischer Inferenz in Bezug auf induktive Logik darzustellen. Romeijn betrachtet drei Schlüsselideen in der Statistik, um die Verbindung herzustellen. Sie sind (i) Neyman-Pearson-Hypothesentest (NPTH), (ii) Maximum-Likelihood-Schätzung und (iii) Bayes-Statistik. Romeijn zeigt, sowohl mit Carnapian und Bayesian induktive Logik, dass die letzte von zwei dieser Ideen (dh., Maximum-Likelihood-Estimation und Bayes’sche Statistik) kann natürlich in Bezug auf eine nicht-ampliative induktive Logik dargestellt werden. Im letzten Abschnitt seines Kapitels wird NPTH mittels intervallbasierter Wahrscheinlichkeiten über die statistischen Hypothesen mit der Bayes’schen induktiven Logik verbunden.
Wie es subjektive Bayesianer gibt, so gibt es objektive Bayesianer. José Bernardo ist einer von ihnen. Da viele Philosophen Bernardos Werk im Allgemeinen nicht kennen, werden wir ihm eine relativ längere Diskussion widmen. Bernardo schreibt, dass „es zur Standardpraxis geworden ist, … jede statistische Analyse, die nur von dem angenommenen Modell abhängt, als“objektiv“ zu beschreiben. In diesem genauen Sinne (und nur in diesem Sinne) ist die Referenzanalyse eine Methode, um „objektive“ Bayes’sche Inferenz zu erzeugen“ .Für Bernardo sollte die Referenzanalyse, die er befürwortet hat, um seine Marke des objektiven Bayesianismus zu fördern, als ein parametrisches Modell der Form M≡{P(x| w),x∈X,w∈Ω} verstanden werden, das die Bedingungen beschreibt, unter denen Daten generiert wurden. Dabei wird angenommen, dass die Daten x aus einer Beobachtung des Zufallsprozesses x ∈ X mit Wahrscheinlichkeitsverteilung P(x|w) für einige w ∈ Ω bestehen. Ein parametrisches Modell ist eine Instanz eines statistischen Modells. Bernardo definiert θ = θ (w) ∈ Θ als einen Vektor von Interesse. Alle legitimen Bayes-Schlüsse über den Wert θ werden in seiner posterioren Verteilung P(θ | x)∝∫ΛP(x |θ,λ)P (θ,λ)dλ erfasst, sofern diese Schlüsse unter einem angenommenen Modell getroffen werden. λ ist hier ein Vektor von Störparametern und wird oft als „Modell“ P (x|λ) bezeichnet.Die Anziehungskraft dieser Art von Objektivismus liegt in der Betonung der „Referenzanalyse“, die mit Hilfe statistischer Werkzeuge weitere Fortschritte darin gemacht hat, ihr Thema der Objektivität zu einer respektablen statistischen Schule innerhalb des Bayesianismus zu machen. Wie Bernardo schreibt, „kann die Eferenzanalyse als eine Methode zur Ableitung modellbasierter, nicht subjektiver Posterioren beschrieben werden, die auf den informationstheoretischen Ideen basieren und den Inferenzgehalt der Daten für die wissenschaftliche Kommunikation beschreiben sollen“ . Hier meint er mit dem „inferentiellen Inhalt der Daten“, dass ersteres „die Grundlage für eine Methode zur Ableitung nicht-subjektiver Posterioren“ (ebd.) liefert. Bernardos objektiver Bayesianismus besteht aus den folgenden Behauptungen.
Zunächst ist er der Meinung, dass die Hintergrundinformationen des Agenten dem Ermittler helfen sollten, ein statistisches Modell aufzubauen und somit letztendlich zu beeinflussen, welche Daten dieser dem Modell zuweisen sollte. Obwohl Bernardo das Erreichen eines eindeutigen Wahrscheinlichkeitswerts als Ziel befürwortet, verlangt er daher nicht, dass wir die eindeutige Wahrscheinlichkeitszuweisung in allen Fragen zur Verfügung haben müssen. Er schreibt: „Der Analyst soll ein einzigartiges (oft subjektives) Prior p (w) haben, unabhängig vom Design des Experiments, aber die wissenschaftliche Gemeinschaft wird vermutlich daran interessiert sein, den persönlichen Posterior des entsprechenden Analytikers mit dem Referenz-Posterior (Konsens) zu vergleichen, das dem veröffentlichten experimentellen Design zugeordnet ist.” . Zweitens ist die statistische Inferenz für Bernardo nichts anderes als ein Fall der Entscheidung zwischen verschiedenen Modellen / Theorien, wobei die Entscheidung unter anderem den Nutzen beinhaltet, unter der Annahme zu handeln, dass das Modell / die Theorie empirisch angemessen ist. Hier könnte der Nutzen, auf die empirische Angemessenheit des fraglichen Modells / der fraglichen Theorie einzuwirken, eine Verlustfunktion beinhalten . In seinem Kapitel für diesen Band hat er seine Version des objektiven Bayesianismus entwickelt und mehrere Anklagen gegen sein Konto erhoben.Gregory Wheeler und Jon Williamson haben in ihrem gemeinsamen Kapitel den objektiven Bayesianismus mit Kyburgs Evidenztheorie der Wahrscheinlichkeit kombiniert. Diese Position des Bayesianismus oder irgendeine Form von Bayesianismus scheint im Widerspruch zu Kyburgs Ansatz zur statistischen Inferenz zu stehen, der auf seiner Evidenz beruht Wahrscheinlichkeitstheorie. Wir werden Kyburgs ein Argument gegen den Bayesianismus betrachten. Kyburg meint, dass wir partielle Überzeugungen nicht als „Glaubensgrade“ betrachten sollten, weil (strenge) Bayesianer (wie Savage) mit der Annahme einer eindeutigen Wahrscheinlichkeit eines Satzes verbunden sind. Er diskutierte die intervallbasierte Wahrscheinlichkeit als Erfassung unserer Teilüberzeugungen über Unsicherheit. Da die intervallbasierte Wahrscheinlichkeit nicht bayesianisch ist, folgt daraus, dass wir partielle Überzeugungen nicht als Glaubensgrade behandeln dürfen. Angesichts dieser Opposition zwischen Kyburgs Sicht auf die Wahrscheinlichkeit und der Bayesschen Sicht haben Wheeler und Williamson versucht zu zeigen, wie Kernideen dieser beiden Ansichten fruchtbar in einem einzigen Bericht über wissenschaftliche Inferenz untergebracht werden könnten.
Um unsere Diskussion über die Bayes’sche Position unter Berücksichtigung von Royalls Zuschreibung der Glaubensfrage an die Bayesianer abzuschließen, würden viele Bayesianer gemischte Gefühle über diese Zuschreibung haben. Bis zu einem gewissen Grad könnten einige von ihnen es für unangemessen einfältig halten. Howson würde dieser Zuschreibung mit der Beobachtung zustimmen, dass dies einige der Nuancen und Feinheiten der Bayes’schen Theorie verfehlen würde. Er folgt weitgehend de Finettis Linie bei der subjektiven Bewertung der Wahrscheinlichkeit. Diese Bewertungen werden normalerweise als „Glaubensgrade“ bezeichnet.“ Insofern glaubt er also, dass es eine zentrale Rolle für Glaubensgrade gibt, da sie schließlich das sind, worauf sich die Wahrscheinlichkeitsfunktion direkt bezieht. Daher sei die Zuschreibung der Glaubensfrage an Bayesianer sinnvoll. Er ist jedoch der Ansicht, dass der Hauptteil der Bayes’schen Theorie darin besteht, die Einschränkungen zu identifizieren, die diesen auferlegt werden sollten, um ihre Konsistenz / Kohärenz sicherzustellen. Sein Papier hat diesen Rahmen für den Bayesianismus geschaffen. Hawthorne könnte Royall teilweise widersprechen, da sein Likelihood Ratio Convergence Theorem zeigt, wie verschiedene Agenten am Ende zustimmen könnten, obwohl sie sehr gut mit unterschiedlichem Glauben an eine Theorie beginnen könnten. Sowohl Weirich als auch Norton, obwohl sie in Bezug auf ihre Haltung zum Bayesianismus zu gegnerischen Lagern gehören, könnten sich einig sein, dass Royalls Zuschreibung an Bayesianer schließlich gerechtfertigt ist. In Bezug auf die Vorhersagefrage, Viele Bayesianer, einschließlich derer, die innerhalb der Grenzen der Bestätigungstheorie arbeiten, würde argumentieren, dass ein Bestätigungsbericht, der auf die Glaubensfrage antwortet, die Vorhersagefrage als behandeln kann, für Bayesianer, Letzteres ist eine Unterklasse der Glaubensfrage.